KR100938194B1 - Method for detecting an object and apparatus for the same - Google Patents
Method for detecting an object and apparatus for the same Download PDFInfo
- Publication number
- KR100938194B1 KR100938194B1 KR1020080073303A KR20080073303A KR100938194B1 KR 100938194 B1 KR100938194 B1 KR 100938194B1 KR 1020080073303 A KR1020080073303 A KR 1020080073303A KR 20080073303 A KR20080073303 A KR 20080073303A KR 100938194 B1 KR100938194 B1 KR 100938194B1
- Authority
- KR
- South Korea
- Prior art keywords
- depth map
- distance
- map
- parallax
- vertical
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 238000011426 transformation method Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 3
- 230000002265 prevention Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Abstract
본 발명은 객체 검출 장치 및 객체 검출 방법에 관한 것이다. 본 발명은 스테레오 비전 영상을 객체와의 거리를 기준으로 매칭하여 깊이 맵을 얻고, 상기 깊이 맵을 수평으로 변환한 후 수직 시차맵을 얻음으로써, 원거리뿐만 아니라 근거리의 목표 객체를 검출할 수 있으며, 상기 검출된 객체를 기반으로 정확한 위치, 거리, 속도 등을 추정할 수 있도록 하는 효과가 있다. 상기와 같은 객체 검출 방법, 장치를 자동차에 적용하는 경우, 원거리뿐만 아니라 근거리 좌우측, 후방 등과 같은 자동차 주변의 객체를 정확하게 검출할 수 있다.The present invention relates to an object detecting apparatus and an object detecting method. The present invention obtains a depth map by matching a stereo vision image based on a distance from an object, converts the depth map horizontally, and then obtains a vertical parallax map, thereby detecting a target object not only in a distance but also in a short distance. There is an effect of estimating accurate position, distance, speed, etc. based on the detected object. When the above object detection method and apparatus are applied to a vehicle, objects around the vehicle such as short distance left, right, left, and the like as well as a long distance can be detected accurately.
상기와 같은 검출 방법은 다양한 분야에 응용하여 객체를 정확하게 검출할 수 있는 효과가 있다. 예를 들어, 로봇이나 자동차 등에 적용하는 경우 자동차의 추돌 방지, 주행 등의 운전 시스템이나 안전 운행 시스템 등에 적용하여 사용할 수 있다. 또한, 상기 로봇, 자동차 등과 같은 이동 객체뿐만 아니라 공장, 홈 등의 일상 공간에서도 객체 검출 분야에 적용이 가능하다.Such a detection method has an effect of accurately detecting an object by applying to various fields. For example, when applied to a robot or a car, it can be applied to a driving system such as collision prevention of a car, driving, or a safe driving system. In addition, the present invention can be applied to an object detection field not only in a moving object such as a robot or a car but also in a daily space such as a factory or a home.
Description
본 발명은 객체 검출 장치 및 객체 검출 방법에 관한 것으로서, 더욱 자세하게는 촬영된 영상을 스테레오 매칭하여 영상에 포함된 객체를 검출하는 장치 및 방법에 관한 것이다.The present invention relates to an object detecting apparatus and an object detecting method, and more particularly, to an apparatus and method for detecting an object included in an image by stereo matching a captured image.
관찰 측으로부터 떨어져 있는 객체의 거리를 측정하는 방법에는 여러 가지가 있다. 그 가운데 상기 객체에 대해 영상을 촬영하고, 상기 촬영된 영상을 이용하여 영상에 포함된 객체까지의 거리를 측정할 수 있는 방법이 있다.There are several ways to measure the distance of an object away from the observer. Among them, there is a method of capturing an image of the object and measuring a distance to an object included in the image by using the photographed image.
촬영된 영상을 이용하여 영상에 포함된 목표 객체까지의 거리를 측정하는 기술의 하나의 예로 스테레오 비전(stereo vision) 기술을 들 수 있다. 상기 스테레오 비전 기술은 복수의 영상 촬영 장치, 예를 들어, 카메라 등으로부터 각각 획득한 좌측 영상과 우측 영상을 이용하여 영상에 포함된 객체의 위치, 거리, 속도 등을 측정할 수 있다.One example of a technique of measuring a distance to a target object included in an image by using a captured image is stereo vision technology. The stereo vision technology may measure the position, distance, and speed of an object included in an image using a left image and a right image obtained from a plurality of image capturing apparatuses, for example, cameras.
종래의 스테레오 비전 기술을 이용한 거리 측정 방법에서는 복수의 카메라로부터 획득한 좌우 영상으로부터 객체에 대한 대응점(corresponding point)을 찾아 서, 그 대응점에 대한 시차(disparity)를 이용하여 객체의 거리를 측정하였다. In a conventional distance measuring method using stereo vision technology, a corresponding point for an object is found from left and right images obtained from a plurality of cameras, and the distance of the object is measured using disparity with respect to the corresponding point.
그러나, 종래의 스테레오 비전 기술의 경우, 객체가 전방의 어느 정도 먼 곳에 있다는 가정하에 수직 거리를 이용하여 깊이 맵을 사용함으로써, 가까운 거리에 장애물체가 존재할 경우에는 거리 오차가 발생할 수 있는 문제가 있었다.However, in the conventional stereo vision technology, a depth map using a vertical distance under the assumption that an object is far away in front of the vehicle has a problem that a distance error may occur when an obstacle exists at a close distance. .
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 원거리뿐만 아니라 근거리에서도 객체의 정확한 위치, 거리를 추정할 수 있는 거리 객체 검출 방법 및 객체 검출 장치를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a distance object detection method and an object detection apparatus capable of estimating the exact position and distance of an object not only at a distance but also at a short distance.
본 발명에 따른 객체 검출 방법은, 촬영된 스테레오 영상을 객체와의 거리를 기준으로 매칭하여 중점을 중심으로 한 깊이 맵을 산출하는 단계, 상기 중점을 중심으로 한 깊이 맵이 수직 라인을 따라 수평이 되도록 깊이 맵을 변환하는 단계, 상기 변환된 깊이 맵을 이용하여 수직 시차맵을 형성하는 단계, 및 상기 수직 시차맵을 이용하여 영상에 포함된 객체를 검출하는 단계를 포함한다.In the object detecting method according to the present invention, a depth map centered on a center point is calculated by matching a photographed stereo image based on a distance from an object, and the depth map centered on the center point is horizontally aligned along a vertical line. Converting a depth map as much as possible, forming a vertical parallax map using the converted depth map, and detecting an object included in an image using the vertical parallax map.
다른 관점에서 본 발명에 따른 객체 검출 장치는, 촬영된 스테레오 영상을 객체와의 거리를 기준으로 매칭하여 중점을 중심으로 한 깊이 맵을 산출하는 매칭부, 상기 중점을 중심으로 한 깊이 맵이 수직 라인을 따라 수평이 되도록 깊이 맵을 변환하는 변환부, 및 상기 변환된 깊이 맵을 이용하여 수직 시차맵을 형성하고, 영상에 포함된 객체를 검출하는 객체 검출부를 포함한다.In another aspect, an object detecting apparatus according to the present invention includes a matching unit configured to calculate a depth map centered on a center point by matching a photographed stereo image with respect to a distance from an object, and a depth line centered on the center point is a vertical line. And a transform unit for converting the depth map to be horizontal along the form, and an object detector for forming a vertical parallax map using the converted depth map and detecting an object included in the image.
본 발명의 객체 검출 방법 및 객체 검출 장치에 따르면, 스테레오 비전 시스템에서 원거리뿐만 아니라 근거리의 목표 객체를 검출할 수 있으며, 상기 검출된 객체를 기반으로 정확한 위치, 거리, 속도 등을 추정할 수 있도록 하는 효과가 있 다. 상기와 같은 객체 검출 방법, 장치를 자동차에 적용하는 경우, 원거리뿐만 아니라 근거리 좌우측, 후방 등과 같은 자동차 주변의 객체를 정확하게 검출할 수 있어, 자동 차선 변경이나, LKS(Lane Keeping System), 측방 장애물체 경고 등의 안전주행 기능을 제공할 수 있는 효과가 있다.According to the object detecting method and the object detecting apparatus of the present invention, it is possible to detect a target object not only in the distance but also in the short distance in the stereo vision system, and to estimate the exact position, distance, speed, etc. based on the detected object. It works. When the above object detection method and apparatus are applied to a vehicle, it is possible to accurately detect not only a long distance but also an object around the vehicle such as near, right, left, and rear, so as to change an auto lane, a lane keeping system (LKS), and a side obstacle. It is effective to provide safety driving functions such as warning.
상기와 같은 검출 방법은 다양한 분야에 응용하여 객체를 정확하게 검출할 수 있는 효과가 있다. 예를 들어, 로봇이나 자동차 등에 적용하는 경우 자동차의 추돌 방지, 주행 등의 운전 시스템이나 안전 운행 시스템 등에 적용하여 사용할 수 있다. 또한, 상기 로봇, 자동차 등과 같은 이동 객체뿐만 아니라 공장, 홈 등의 일상 공간에서도 객체 검출 분야에 적용이 가능하다.Such a detection method has an effect of accurately detecting an object by applying to various fields. For example, when applied to a robot or a car, it can be applied to a driving system such as collision prevention of a car, driving, or a safe driving system. In addition, the present invention can be applied to an object detection field not only in a moving object such as a robot or a car but also in a daily space such as a factory or a home.
이하 본 발명의 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시 예들의 상세한 설명을 통해 명백해질 것이다. 아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀 두고자 한다.The objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings. In addition, the terms used in the present invention was selected as a general term widely used as possible now, but in certain cases, the term is arbitrarily selected by the applicant, in which case the meaning is described in detail in the corresponding description of the invention, It is to be clear that the present invention is to be understood as the meaning of terms rather than names.
이와 같이 구성된 본 발명에 따른 객체 검출 장치 및 객체 검출 방법의 동작을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다. 도 1은 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 거리를 추정하는 방식을 개략적으로 나타낸 도면이다.Operation of the object detecting apparatus and the object detecting method according to the present invention configured as described above will be described in detail with reference to the accompanying drawings. 1 is a diagram schematically illustrating a method of estimating distance according to a stereo vision method according to an embodiment of the present invention.
스테레오 비전 시스템을 이용하여 거리를 추정하는 방식의 경우, 좌우 영상 촬영 장치로부터 촬영된 영상을 이용하여 대응점을 찾아 깊이 맵(depth map)을 생성한다. 그리고, 상기 깊이 맵과 좌우 영상을 이용하여 이동 객체를 검출하고, 상기 검출된 이동 객체 내의 시차 평균을 구한다. 스테레오 비전 시스템에서는 상기 구해진 시차를 이용하여 객체의 거리를 추정할 수 있다. 상기 시차와 목표 객체의 거리는 하기의 수학식 1과 상기 도 1의 각종 파라미터를 이용하여 자세히 설명하도록 한다. 상기 도 1에서 B(기준선)는 좌, 우측 영상 촬영 장치의 중심 사이의 거리, F는 영상 촬영 장치의 초점거리(렌즈와 촬상 장치(예를 들어, CCD, CMOS 등) 사이의 거리), xl은 좌측 촬영 장치에 맺힌 객체가 촬영 장치의 중심으로부터 벗어난 거리, xr은 우측 촬영 장치에 맺힌 객체가 촬영 장치의 중심으로부터 벗어난 거리, Zd는 객체와 영상 촬영 장치의 수직 거리, Zr은 객체의 실제 거리, Xd는 좌측 영상 촬영 장치와 우측 영상 촬영 장치의 중간 지점에서 Zd라인과 영상 촬영 장치의 수평면이 만나는 지점까지의 거리를 말한다.In the case of estimating distance using a stereo vision system, a depth map is generated by finding a corresponding point using images captured from the left and right image capturing apparatus. The moving object is detected using the depth map and the left and right images, and a parallax average in the detected moving object is obtained. In the stereo vision system, the distance of an object may be estimated using the obtained parallax. The distance between the parallax and the target object will be described in detail using Equation 1 below and various parameters of FIG. 1. In FIG. 1, B (reference line) is the distance between the centers of the left and right imaging apparatuses, F is the focal length of the imaging apparatus (the distance between the lens and the imaging apparatus (eg, CCD, CMOS, etc.)), x l is the distance from the center of the shooting device to the object on the left shooting device, x r is the distance from the center of the shooting device to the object on the right shooting device, Z d is the vertical distance between the object and the image shooting device, Z r is The actual distance of the object, X d , refers to the distance from the middle point of the left image capture device and the right image capture device to the point where the horizontal line of the image pickup device meets the Z d line.
상기 수학식 1과 같이 상기 수직 거리 Zd는 좌, 우측 영상 촬영 장치의 중심 사이의 거리(B)와 영상 촬영 장치의 초점거리(F)를 곱한 값을 시차 값(xr-xl)으로 나눈 값으로 구할 수 있다(수학식 1). 객체가 전방에 있는 경우에는 Zr과 Zd의 차이가 크지 않으므로, 상기 도 1에서와 같이 객체와의 실제 거리는 Zr임에도 불구하고, 상기 수학식 1의 경우에는 객체와 기준선(B)과의 수직 거리인 Zd를 구할 수 있다.As shown in Equation 1, the vertical distance Z d is a parallax value (x r -x l ) obtained by multiplying the distance B between the centers of the left and right imaging apparatuses by the focal length F of the imaging apparatus. It can be obtained by dividing (Equation 1). Since the difference between Z r and Z d is not large when the object is in the front, although the actual distance from the object is Z r as shown in FIG. 1, in the case of Equation 1, the object and the reference line B The vertical distance Z d can be found.
도 2는 본 발명에 따른 일 실시예로서, 수직 거리를 이용하여 얻어진 깊이 맵(depth map)을 개략적으로 나타낸 도면이다. 깊이 맵은 촬영된 영상의 거리 정보를 그레이 값(gray value)으로 표현한 것을 말한다. 상기 깊이 맵의 경우 거리가 가까울수록 밝은 값으로 표현되며, 거리가 멀수록 어두운 값으로 표현된다.FIG. 2 is a diagram schematically illustrating a depth map obtained using a vertical distance according to an embodiment of the present invention. The depth map is a representation of distance information of a captured image as a gray value. In the case of the depth map, the closer the distance is represented by the bright value, the farther distance is represented by the dark value.
상기 수학식 1과 같이 수직 거리를 이용하여 깊이 맵을 작성하는 경우, 기준선을 기준으로 수평으로는 같은 거리 값을 가진다. 즉, 상기 도 2와 같이 수평으로는 같은 밝기 값을 가질 수 있다.When the depth map is created using the vertical distance as shown in Equation 1, the depth map has the same distance value horizontally with respect to the reference line. That is, as shown in FIG. 2, the same brightness value may be horizontally provided.
도 3은 본 발명에 따른 일 실시예로서, 수직 시차맵을 이용하여 객체를 검출하는 과정을 개략적으로 나타낸 도면이다. 상기 도 2와 같은 깊이 맵의 경우, 객체가 없는 평면 영역은 거리가 멀어질수록 밝기 값이 일정한 비율로 감소한다. 그러나, 장애물체와 같은 객체가 놓이는 경우, 평면과 달리 그 객체로 인하여 객체 부분의 밝기 값이 증가한다. 상기와 같은 현상을 이용하여 객체를 검출할 수 있다.3 is a diagram schematically illustrating a process of detecting an object using a vertical parallax map according to an embodiment of the present invention. In the depth map as shown in FIG. 2, as the distance increases, the planar region without the object decreases at a constant rate. However, when an object such as an obstacle is placed, the brightness value of the object portion is increased due to the object unlike the plane. The object can be detected using the above phenomenon.
도 3의 수직 시차맵(V-disparity)의 수평 성분은 시차값(0~255, 그레이 값이 28인 경우)을 나타내며, 수직 성분은 깊이 맵의 수직 라인을 나타낸다. 상기 수직 시차맵은 깊이 맵의 수직 라인별로 그에 해당하는 수평 라인의 각 픽셀 밝기 값을 읽어 그 값을 수직 라인별로 수직 시차맵에 맵핑한다. 예를 들어, 깊이 맵의 각 수 직 라인별로 빈도가 높은 밝기 값을 수직 시차맵에 맵핑할 수 있다. The horizontal component of the vertical parallax map V-disparity of FIG. 3 represents a parallax value (0 to 255, when the gray value is 2 8 ), and the vertical component represents a vertical line of the depth map. The vertical parallax map reads each pixel brightness value of the horizontal line corresponding to each vertical line of the depth map and maps the value to the vertical parallax map for each vertical line. For example, a high brightness value may be mapped to a vertical parallax map for each vertical line of the depth map.
상기와 같은 맵핑 결과, 도 3에서와 같이 평면 성분은 수직 라인값이 감소할수록 밝기 값이 높으며, 수직 라인값이 증가할수록 일정한 비율로 감소한다. 상기 밝기 값은 상기 깊이 맵이 작성되는 과정의 역으로 시차 값으로 전환될 수 있다.As a result of the above mapping, as shown in FIG. 3, the planar component has a higher brightness value as the vertical line value decreases, and decreases at a constant rate as the vertical line value increases. The brightness value may be converted into a parallax value in the inverse of the process of creating the depth map.
그러나, 장애 물체 또는 객체는 평면 성분의 경향과 다른 값을 가질 수 있다. 예를 들어 도 3의 경우, 장애 물체는 평면 성분의 경향과 달리 특정 밝기 값을 가지고 있으며, 상기 특정 밝기 값을 가지는 부분을 검출함으로써 영상에 포함된 객체들을 검출할 수 있다. 그리고, 상기 검출된 객체의 시차 값을 읽고, 상기 시차 값을 상기 수학식 1에 적용함으로써 객체의 거리를 추정할 수 있다.However, the obstacle or the object may have a value different from the tendency of the planar component. For example, in FIG. 3, the obstacle object has a specific brightness value different from the tendency of the planar component, and the objects included in the image may be detected by detecting a part having the specific brightness value. The distance of the object may be estimated by reading the parallax value of the detected object and applying the parallax value to Equation (1).
도 4는 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 객체의 실제 거리를 추정하는 방식을 개략적으로 나타낸 도면이다. 상기 수학식 1과 도 1의 경우에는 기준선과 객체와의 수직 거리를 구하므로, 측면 또는 전후방 등의 근거리 객체와의 거리를 측정하는 데 오차가 발생할 수 있다. 따라서, 도 4와 같이 객체와의 실제 거리를 구하여 상기와 같은 오차를 줄일 수 있으며, 객체를 정확히 검출할 수 있다.4 is a diagram schematically illustrating a method of estimating an actual distance of an object according to a stereo vision method according to an embodiment of the present invention. In the case of Equation 1 and FIG. 1, since a vertical distance between the reference line and the object is obtained, an error may occur in measuring the distance between the short distance object such as a side or front and back. Therefore, the error as described above can be reduced by obtaining the actual distance from the object as shown in FIG. 4, and the object can be detected accurately.
상기 객체의 실제 거리(Zr)를 수학식으로 나타내면 아래 수학식 2와 같다. 수학식 2와 도 4의 각 파라미터는 상기 수학식 1과 도 1에서 설명한 바와 같다.The actual distance Z r of the object is represented by
상기 객체의 실제 거리(Zr)는 시차 값(xr-xl)의 제곱과 초점 거리 두배(2F)의 제곱을 더한 값의 루트 값과 기준선의 1/2 값(B/2)을 곱하고, 이를 시차 값으로 나눈 값으로 나타낼 수 있다.The actual distance (Z r ) of the object is multiplied by the root value of the square of the parallax value (x r -x l ) and the square of the focal length twice (2F) and the 1/2 value (B / 2) of the baseline, This can be expressed as the value divided by the parallax value.
도 5는 본 발명에 따른 일 실시예로서, 실제 거리를 이용하여 얻어진 깊이 맵(depth map)을 개략적으로 나타낸 도면이다. 상기 수학식 2와 같이 실제 거리를 이용하여 깊이 맵을 작성하는 경우, 중점(center)을 기준으로 동심원 형태로 같은 거리 값을 가진다. 즉, 상기 도 5와 같이 중점을 중심으로 중점에서 같은 거리에 있는 동심원은 같은 밝기 값을 가질 수 있다.FIG. 5 is a diagram schematically showing a depth map obtained using an actual distance as an embodiment according to the present invention. When the depth map is created using the actual distance as shown in
그러나, 상기와 같은 깊이 맵의 경우 객체의 거리를 정확하게 반영할 수 있으나, 객체를 검출하는 경우 수직 시차맵을 그대로 적용할 수 없는 문제점이 있다. 따라서, 상기와 같은 깊이 맵에 수직 시차맵을 적용할 수 있는 형태로 재배열 또는 변환(이하, 변환)하도록 한다.However, in the case of the depth map as described above, the distance of the object can be accurately reflected, but there is a problem that the vertical parallax map cannot be applied as it is when the object is detected. Therefore, rearrangement or transformation (hereinafter, referred to as transformation) in a form in which a vertical parallax map may be applied to the depth map as described above.
도 6은 본 발명에 따른 일 실시예로서, 깊이 맵을 변환하여 수직 시차맵을 만드는 과정을 개략적으로 나타낸 도면이다. 상기 도 5의 깊이 맵은 동심원 형태로 밝기 값이 배열되어 있어서, 수직 라인별로 밝기 값을 맵핑하는 수직 시차맵을 바로 만들 수 없다. 따라서, 상기 도 6의 1(또는 도 5)과 같은 깊이 맵을 변환하여 도 6의 2와 같이 밝기 값이 수직 라인별로 수평이 되도록 한다.6 is a diagram schematically illustrating a process of creating a vertical parallax map by converting a depth map according to an embodiment of the present invention. In the depth map of FIG. 5, brightness values are arranged in the form of concentric circles, and thus vertical parallax maps for mapping the brightness values for each vertical line may not be directly generated. Accordingly, the depth map as shown in FIG. 6 (or FIG. 5) is converted to make the brightness value horizontal for each vertical line as shown in FIG. 6.
상기와 같이 깊이 맵을 변환하기 위해 극(polar) 좌표 변환법이나 픽셀 값을 읽어오는 순서를 이용하여 맵핑하는 방법 등을 사용할 수 있다. 예를 들어, 상기 극 좌표 변환법의 경우, Log-Polar 맵핑 방식 등을 사용할 수 있다. 또는, 깊이 맵에서 픽셀의 밝기 값을 읽어오는 순서가 저장된 룩업 테이블(Look-Up Table : 이하 LUT)을 이용하여, 중점에서 같은 거리에 있는 픽셀의 밝기 값을 순서대로 읽어와서 수직 라인별로 수평이 되도록 맵핑할 수 있다.In order to convert the depth map as described above, a polar coordinate transformation method or a mapping method using a reading order of pixel values may be used. For example, in the polar coordinate transformation method, a log-polar mapping method or the like may be used. Alternatively, by using the Look-Up Table (LUT), which stores the order of reading the brightness values of pixels in the depth map, the brightness values of the pixels at the same distance from the center point are read in order and the horizontal lines are vertically aligned. You can map as much as possible.
상기 도 6의 2는 깊이 맵을 변환한 맵을 개략적으로 나타낸다. 상기 도 6의 1에서와 같이 n번째 원의 외선과 n+1번째 원의 내선의 길이는 같으므로, 변환된 깊이 맵의 각 구간은 마름모 형태로 표시되어야 하나, 설명의 편의를 위해 직사각형 형태로 표시되었다. 또한, 상기 도 5나 도 6의 1의 경우, 설명의 편의를 위해 깊이 맵의 일부만 표시하였으나, 실제 깊이 맵은 중점을 중심으로 하는 동심원이 직사각형 화면 내부 전체에 표시될 수 있다. 따라서, 도 6의 2와 같이 중점을 중심으로 거리가 멀어질수록 같은 거리에 위치한 픽셀의 수가 증가하지만, 동심원이 직사각형 화면의 좌, 우측 또는 상부 면에 의해 잘리기 시작하면서 점점 픽셀의 수가 줄어든다.6 of FIG. 6 schematically shows a map obtained by converting a depth map. Since the length of the outer line of the nth circle and the inner line of the n + 1th circle is the same as in 1 of FIG. 6, each section of the converted depth map should be displayed in a rhombus shape. Displayed. In addition, in the case of 1 of FIG. 5 or 6, only a part of the depth map is displayed for convenience of description, but in the actual depth map, concentric circles centered on the center point may be displayed on the entire inside of the rectangular screen. Thus, as the distance from the center of gravity increases as shown in 2 of FIG. 6, the number of pixels located at the same distance increases, but as the concentric circles begin to be cut by the left, right, or top surfaces of the rectangular screen, the number of pixels gradually decreases.
상기 도 6의 2와 같이 변환된 깊이 맵이 얻어지면, 상기 깊이 맵을 이용하여 수직 시차맵을 얻을 수 있다. 도 6의 3은 상기 도 6의 2와 같은 변환 깊이 맵을 이용하여 수직 시차맵을 만들고 객체를 검출하는 과정을 개략적으로 나타낸 도면이다.When the depth map converted as shown in 2 of FIG. 6 is obtained, a vertical parallax map may be obtained using the depth map. FIG. 3 is a diagram schematically illustrating a process of creating a vertical parallax map and detecting an object by using the transform depth map as shown in FIG. 6.
상기 도 6의 2와 같은 변환 깊이 맵의 경우, 상기 도 3의 경우와 달리 수직 라인에 따라 픽셀의 수가 다르다. 즉, 상기 변환 깊이 맵 가운데 중간 부분은 픽셀의 수가 많지만, 상단부와 하단부는 픽셀의 수가 많지 않다. 따라서, 수직 시차맵 생성시 문턱 값(Thresholding Value)을 사용하여 노이즈를 제거할 수 있다. 예를 들어, 수평 라인마다 적응형 문턱 값 또는 적응형 문턱 치(Adaptive Thresholding Value)를 사용하여 노이즈를 제거하도록 한다.In the case of the transform depth map as shown in FIG. 6, the number of pixels differs depending on the vertical line, unlike in FIG. 3. That is, the middle portion of the transform depth map has a large number of pixels, but the upper and lower portions do not have many pixels. Therefore, when generating a vertical parallax map, noise may be removed using a thresholding value. For example, an adaptive threshold value or an adaptive threshold value is used for each horizontal line to remove noise.
예를 들어, 상기 적응형 문턱 값으로 수평 라인의 평균값(mean value) 또는 중간 값(medium value)을 사용할 수도 있고, 수평 라인별 픽셀 수를 고려하여 수평 라인의 픽셀 값들 가운데 가장 빈도 수가 많은 값을 문턱 값으로 사용할 수도 있다. 상기 문턱 값은 구현 예에 따라 다르게 설정될 수 있다. 상기 문턱 값이 정해지면, 상기 문턱 값을 수직 시차맵에 맵핑하여 수직 라인에 따른 수직 시차맵을 생성한다.For example, a mean value or a medium value of the horizontal line may be used as the adaptive threshold value, and the most frequent value among the pixel values of the horizontal line is determined in consideration of the number of pixels per horizontal line. It can also be used as a threshold. The threshold value may be set differently according to an implementation example. When the threshold is determined, the threshold is mapped to a vertical parallax map to generate a vertical parallax map along a vertical line.
상기 수직 시차맵의 경우, 상기에서 설명한 바와 같이 객체가 없는 평면 영역은 거리가 멀어질수록 밝기 값이 일정한 비율로 감소한다. 그러나, 장애물체와 같은 객체가 놓이는 경우, 평면과 달리 그 객체로 인하여 객체 부분의 밝기 값이 증가한다. 따라서, 상기와 같은 현상을 이용하여 객체를 검출할 수 있다. 상기 객체를 검출하고, 객체의 시차 값을 이용하여 거리를 추정하는 과정은 상기에서 설명한 바와 같다.In the case of the vertical parallax map, as described above, the planar region without the object decreases at a constant rate as the distance increases. However, when an object such as an obstacle is placed, the brightness value of the object portion is increased due to the object unlike the plane. Therefore, the object can be detected using the above phenomenon. The process of detecting the object and estimating the distance using the parallax value of the object is as described above.
만약, 객체가 충분히 크거나, 객체의 측면 부분 등이 촬영되는 경우 등과 같이 동일한 객체 내에서도 다른 시차 값이 나오는 경우에는 시차 값이 가장 큰 값 (거리가 가장 가까운 값)을 이용하여 거리를 추정할 수 있다. 예를 들어, 추돌 방지 등과 같은 자동차 운전 분야에 적용하는 경우, 안전 운행 등을 위해 상기에서 추정된 가장 가까운 거리의 값을 사용할 수 있다. 다만, 적용되는 분야의 필요에 따라 시차 값이 가장 작은 값(거리가 가장 먼 값)이나 중간 값 등을 사용할 수도 있다.If different parallax values appear within the same object, such as when the object is large enough or when the side part of the object is taken, etc., the distance can be estimated using the largest value of the parallax (the closest distance). have. For example, when applied to the field of driving a car, such as collision prevention, it is possible to use the value of the nearest distance estimated above for safe driving. However, depending on the needs of the applied field, the smallest parallax value (the farthest distance) or the middle value may be used.
도 7은 본 발명에 따른 일 실시예로서, 수직 거리를 이용한 객체 검출과 실제 거리를 이용한 객체 검출 결과를 개략적으로 나타낸 도면이다. 상기 도 7의 좌측 도면의 경우, 수직 거리를 이용한 객체 검출 결과이며, 촬영 위치를 기준으로 수평면 단위로 객체를 검출 및 거리를 추정하므로 A가 가장 가깝게 나타나며, B와 C는 동일한 거리로 추정된다.FIG. 7 is a diagram schematically illustrating an object detection using a vertical distance and an object detection result using an actual distance according to an embodiment of the present invention. In the left figure of FIG. 7, the result is the object detection using the vertical distance. Since the object is detected and the distance is estimated in units of the horizontal plane based on the photographing position, A is the closest, and B and C are the same distance.
그러나, 실제 거리를 이용하여 객체를 검출하는 경우, 상기 도 7의 우측 도면과 같이 촬영 위치를 기준으로 원형 단위로 객체를 검출 및 거리를 추정하므로, A와 B가 동일한 거리로 추정되며, C가 가장 멀리에 있는 객체로 추정된다.However, when the object is detected using the actual distance, since the object is detected and the distance is estimated in a circular unit based on the photographing position as shown in the right figure of FIG. 7, A and B are estimated to be the same distance, and C is It is assumed to be the farthest object.
도 8은 본 발명에 따른 일 실시예로서, 객체 검출 장치의 구성을 개략적으로 나타낸 도면이다. 상기 객체 검출 장치는 제1 영상 촬영장치(800), 제2 영상 촬영장치(805), 매칭부(810), 변화부(820) 및 객체 검출부(830)를 포함한다.8 is a diagram schematically illustrating a configuration of an object detecting apparatus according to an embodiment of the present invention. The object detecting apparatus includes a first
제1 영상 촬영 장치(800)와 제2 영상 촬영 장치(805)는 스테레오 비전 시스템에서 객체 검출, 거리, 속도 등의 추정에 필요한 좌측 영상과 우측 영상을 각각 촬영한다. 상기 영상 촬영 장치는 예를 들어, 카메라 등이 사용될 수 있다. 상기 제1 영상 촬영 장치(800)와 제2 영상 촬영 장치(805)에서 얻어진 좌측 영상과 우측 영상은 매칭부(810)로 출력된다.The first
상기 매칭부(810)는 입력된 좌측 영상과 우측 영상을 매칭하여 영상의 깊이 맵을 얻을 수 있다. 상기 깊이 맵은 실제 거리를 이용하여 스테레오 영상에 대한 깊이 맵을 얻을 수 있다. 예를 들어, 상기 수학식 2와 같은 수학식을 이용하여 중점(center)을 중심으로 거리에 따른 깊이 맵을 얻을 수 있다. 상기 얻어진 깊이 맵 정보는 변환부(820)로 전송된다.The
변환부(820)는 수신된 깊이 맵을 변환하여 깊이 맵의 밝기 값이 수직 라인별로 수평이 되도록 변환한다. 상기 변환부(820)는 상기와 같은 변환을 위해 극좌표 변환 방법이나, 픽셀의 읽는 순서를 이용하여 맵핑하는 방법 등을 이용하여 깊이 맵을 변환할 수 있다.The
객체 검출부(830)는 상기 변환부(820)로부터 상기와 같이 변환된 깊이 맵 정보를 수신하여 영상에 포함된 객체를 검출한다. 상기 객체 검출부(830)는 수평 라인마다 적응형 문턱 값 또는 적응형 문턱 치를 사용하여 노이즈를 제거하도록 한다. 그리고, 상기 객체 검출부(830)는 변환된 깊이 맵의 수직 라인에 따른 수직 시차맵을 생성하고, 영상에 포함된 객체를 검출할 수 있다. 상기에서 검출된 객체를 이용하여 객체의 거리, 속도 등을 추정할 수 있다.The
도 9는 본 발명에 따른 일 실시예로서, 거리 추정 방법을 개략적으로 나타낸 순서도이다.9 is a flowchart schematically illustrating a distance estimation method according to an embodiment of the present invention.
스테레오 비전 시스템의 영상 촬영 장치를 이용하여 좌우 영상을 촬영하고, 상기 촬영된 좌우 영상을 실제 거리를 기준으로 매칭한다(S900). 상기 S900 단계에 서의 매칭 결과, 중점을 중심으로 한 동심원 형태의 깊이 맵이 생성될 수 있다. 상기와 같은 깊이 맵이 생성되면 상기 동심원 형태의 깊이 맵이 수직 라인을 따라 수평 형태의 깊이 맵이 되도록 깊이 맵을 변환한다(S910). 예를 들어, 극좌표 변환 방법이나, 픽셀의 읽는 순서를 이용하여 맵핑하는 방법 등을 이용하여 깊이 맵을 변환할 수 있다.The left and right images are photographed using the image capturing apparatus of the stereo vision system, and the captured left and right images are matched based on the actual distance (S900). As a result of the matching in step S900, a concentric depth map centered on the midpoint may be generated. When the depth map is generated as described above, the depth map is converted such that the depth map of the concentric circles becomes a horizontal depth map along a vertical line (S910). For example, the depth map can be converted using a polar coordinate conversion method, a mapping method using a pixel reading order, or the like.
상기와 같이 변환된 깊이 맵이 생성되면, 상기 변환된 깊이 맵을 이용하여 수직 시차맵을 산출할 수 있다(S920). 이때, 상기 변환된 깊이 맵의 픽셀 수의 차이를 고려하여 수평 라인마다 적응형 문턱 값을 이용하여 수직 시차맵을 산출할 수 있다. 상기 수직 시차맵이 산출되면, 상기 수직 시차맵을 이용하여 영상에 포함된 객체들을 검출할 수 있다.When the converted depth map is generated as described above, a vertical parallax map may be calculated using the converted depth map (S920). In this case, the vertical parallax map may be calculated using an adaptive threshold value for each horizontal line in consideration of the difference in the number of pixels of the converted depth map. When the vertical parallax map is calculated, the objects included in the image may be detected using the vertical parallax map.
상기 객체가 검출되면, 검출된 객체에 대한 시차를 산출하고, 상기 시차를 이용하여 목표 객체의 거리를 추정할 수 있다. 그리고, 상기 객체의 거리가 추정되면, 상기 추정된 거리 정보를 칼만 필터나 파티클 필터 등과 같은 동적 필터(dynamic filter)를 사용하여 필터링함으로써 프레임 단위로 객체와의 거리를 추적할 수도 있다.When the object is detected, the parallax may be calculated for the detected object, and the distance of the target object may be estimated using the parallax. When the distance of the object is estimated, the distance to the object may be tracked in units of frames by filtering the estimated distance information by using a dynamic filter such as a Kalman filter or a particle filter.
본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.The present invention is not limited to the above-described embodiments, and as can be seen in the appended claims, modifications can be made by those skilled in the art to which the invention pertains, and such modifications are within the scope of the present invention.
도 1은 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 거리를 추정하는 방식을 개략적으로 나타낸 도면1 is a diagram schematically illustrating a method of estimating distance according to a stereo vision method according to an embodiment of the present invention.
도 2는 본 발명에 따른 일 실시예로서, 수직 거리를 이용하여 얻어진 깊이 맵(depth map)을 개략적으로 나타낸 도면FIG. 2 is a diagram schematically illustrating a depth map obtained using a vertical distance as an embodiment according to the present invention.
도 3은 본 발명에 따른 일 실시예로서, 수직 시차맵을 이용하여 객체를 검출하는 과정을 개략적으로 나타낸 도면3 is a diagram schematically illustrating a process of detecting an object using a vertical parallax map according to an embodiment of the present invention.
도 4는 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 객체의 실제 거리를 추정하는 방식을 개략적으로 나타낸 도면4 is a diagram schematically illustrating a method of estimating an actual distance of an object according to a stereo vision method according to an embodiment of the present invention.
도 5는 본 발명에 따른 일 실시예로서, 실제 거리를 이용하여 얻어진 깊이 맵을 개략적으로 나타낸 도면5 is a diagram schematically illustrating a depth map obtained using an actual distance as an embodiment according to the present invention.
도 6은 본 발명에 따른 일 실시예로서, 깊이 맵을 변환하여 수직 시차맵을 만드는 과정을 개략적으로 나타낸 도면6 is a diagram schematically illustrating a process of creating a vertical parallax map by converting a depth map according to an embodiment of the present invention.
도 7은 본 발명에 따른 일 실시예로서, 수직 거리를 이용한 객체 검출과 실제 거리를 이용한 객체 검출 결과를 개략적으로 나타낸 도면7 is a diagram schematically illustrating an object detection using a vertical distance and an object detection result using an actual distance according to an embodiment of the present invention.
도 8은 본 발명에 따른 일 실시예로서, 객체 검출 장치의 구성을 개략적으로 나타낸 도면8 is a diagram schematically illustrating a configuration of an object detecting apparatus according to an embodiment of the present invention.
도 9는 본 발명에 따른 일 실시예로서, 거리 추정 방법을 개략적으로 나타낸 순서도9 is a flowchart schematically illustrating a distance estimation method according to an embodiment of the present invention.
*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings
800 : 제1 영상 촬영장치 805 : 제2 영상 촬영장치800: first image capturing apparatus 805: second image capturing apparatus
810 : 매칭부 820 : 변환부810
830 : 객체 검출부830: object detector
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080073303A KR100938194B1 (en) | 2008-07-28 | 2008-07-28 | Method for detecting an object and apparatus for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080073303A KR100938194B1 (en) | 2008-07-28 | 2008-07-28 | Method for detecting an object and apparatus for the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100938194B1 true KR100938194B1 (en) | 2010-01-21 |
Family
ID=41810130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080073303A KR100938194B1 (en) | 2008-07-28 | 2008-07-28 | Method for detecting an object and apparatus for the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100938194B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101867810A (en) * | 2010-04-07 | 2010-10-20 | 宁波大学 | A Preprocessing Method of Depth Video Sequence |
KR20120030005A (en) * | 2010-09-16 | 2012-03-27 | 소니 주식회사 | Image processing device and method, and stereoscopic image display device |
KR20140036859A (en) * | 2012-09-18 | 2014-03-26 | 삼성전자주식회사 | Method of recognizing contactless user interface motion and system there-of |
KR20160134428A (en) * | 2015-05-13 | 2016-11-23 | 삼성전자주식회사 | Electronic device for processing image and method for controlling thereof |
WO2018164377A1 (en) * | 2017-03-07 | 2018-09-13 | 삼성전자 주식회사 | Electronic device for generating map data and operating method therefor |
CN109947125A (en) * | 2017-12-21 | 2019-06-28 | 英特尔Ip公司 | Method and apparatus for reducing depth map size in a collision avoidance system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070055210A (en) * | 2005-11-25 | 2007-05-30 | 한국전자통신연구원 | Game device and method using motion recognition and voice recognition |
KR20080020214A (en) * | 2006-08-31 | 2008-03-05 | (주) 비전에스티 | Stereo camera and stereoscopic image recognition method of stereo camera |
KR20080054094A (en) * | 2006-12-12 | 2008-06-17 | 현대자동차주식회사 | Object recognition and distance measurement method |
-
2008
- 2008-07-28 KR KR1020080073303A patent/KR100938194B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070055210A (en) * | 2005-11-25 | 2007-05-30 | 한국전자통신연구원 | Game device and method using motion recognition and voice recognition |
KR20080020214A (en) * | 2006-08-31 | 2008-03-05 | (주) 비전에스티 | Stereo camera and stereoscopic image recognition method of stereo camera |
KR20080054094A (en) * | 2006-12-12 | 2008-06-17 | 현대자동차주식회사 | Object recognition and distance measurement method |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101867810A (en) * | 2010-04-07 | 2010-10-20 | 宁波大学 | A Preprocessing Method of Depth Video Sequence |
KR20120030005A (en) * | 2010-09-16 | 2012-03-27 | 소니 주식회사 | Image processing device and method, and stereoscopic image display device |
KR20140036859A (en) * | 2012-09-18 | 2014-03-26 | 삼성전자주식회사 | Method of recognizing contactless user interface motion and system there-of |
KR101985674B1 (en) * | 2012-09-18 | 2019-06-04 | 삼성전자 주식회사 | Method of recognizing contactless user interface motion and System there-of |
KR20160134428A (en) * | 2015-05-13 | 2016-11-23 | 삼성전자주식회사 | Electronic device for processing image and method for controlling thereof |
KR102457247B1 (en) * | 2015-05-13 | 2022-10-21 | 삼성전자주식회사 | Electronic device for processing image and method for controlling thereof |
WO2018164377A1 (en) * | 2017-03-07 | 2018-09-13 | 삼성전자 주식회사 | Electronic device for generating map data and operating method therefor |
CN110392908A (en) * | 2017-03-07 | 2019-10-29 | 三星电子株式会社 | Electronic device for generating map data and method of operation thereof |
US11183056B2 (en) | 2017-03-07 | 2021-11-23 | Samsung Electronics Co., Ltd. | Electronic device for generating map data and operating method therefor |
CN109947125A (en) * | 2017-12-21 | 2019-06-28 | 英特尔Ip公司 | Method and apparatus for reducing depth map size in a collision avoidance system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100938195B1 (en) | Method for distance estimation and apparatus for the same using a stereo matching | |
CN102472619B (en) | Image capture device and image capture method | |
KR100938194B1 (en) | Method for detecting an object and apparatus for the same | |
US9747524B2 (en) | Disparity value deriving device, equipment control system, movable apparatus, and robot | |
JP6561512B2 (en) | Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program | |
JP2019067150A (en) | Peripheral monitoring device and peripheral monitoring method | |
KR100934904B1 (en) | Method for distance estimation and apparatus for the same | |
JP6337504B2 (en) | Image processing apparatus, moving body, robot, device control method and program | |
JP6455164B2 (en) | Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program | |
JP6543935B2 (en) | PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM | |
KR101716725B1 (en) | Distance measurement device and vehicle using same | |
KR101439013B1 (en) | Apparatus and method for stereo image processing | |
KR101558805B1 (en) | Interpolation factors correction apparatus for stereo matching | |
US9113142B2 (en) | Method and device for providing temporally consistent disparity estimations | |
JP5430292B2 (en) | Subject distance measuring device | |
KR100926287B1 (en) | Distance Estimation System and Estimation Method Using Parallax and Perspective Method | |
JP6204844B2 (en) | Vehicle stereo camera system | |
JP2018018425A (en) | Image processing device and image processing method | |
KR101289386B1 (en) | Obstacle detection and division method using stereo vision and apparatus for performing the same | |
KR100911493B1 (en) | Image processing apparatus and image processing method | |
JP2019160251A (en) | Image processing device, object recognition device, instrument control system, moving body, image processing method and program | |
JP2018146495A (en) | Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system | |
KR102061087B1 (en) | Method, apparatus and program stored in storage medium for focusing for video projector | |
KR101526743B1 (en) | Apparatus and method for warning an obstacle in rear and side of vehicle | |
JP6442911B2 (en) | Parallax value deriving device, moving object, robot, parallax value deriving method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20080728 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20091016 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20100111 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20100114 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20100114 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20130124 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20130124 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20131230 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20131230 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150106 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20150106 Start annual number: 6 End annual number: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160113 Year of fee payment: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20160113 Start annual number: 7 End annual number: 7 |
|
FPAY | Annual fee payment |
Payment date: 20170314 Year of fee payment: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20170314 Start annual number: 8 End annual number: 8 |
|
FPAY | Annual fee payment |
Payment date: 20181212 Year of fee payment: 10 |
|
PR1001 | Payment of annual fee |
Payment date: 20181212 Start annual number: 10 End annual number: 10 |
|
FPAY | Annual fee payment |
Payment date: 20191203 Year of fee payment: 11 |
|
PR1001 | Payment of annual fee |
Payment date: 20191203 Start annual number: 11 End annual number: 11 |
|
PR1001 | Payment of annual fee |
Payment date: 20201222 Start annual number: 12 End annual number: 12 |
|
PR1001 | Payment of annual fee |
Payment date: 20211206 Start annual number: 13 End annual number: 13 |
|
PR1001 | Payment of annual fee |
Payment date: 20241226 Start annual number: 16 End annual number: 16 |