KR100887721B1 - Video Vehicle Navigation Apparatus and Method - Google Patents
Video Vehicle Navigation Apparatus and Method Download PDFInfo
- Publication number
- KR100887721B1 KR100887721B1 KR1020070120833A KR20070120833A KR100887721B1 KR 100887721 B1 KR100887721 B1 KR 100887721B1 KR 1020070120833 A KR1020070120833 A KR 1020070120833A KR 20070120833 A KR20070120833 A KR 20070120833A KR 100887721 B1 KR100887721 B1 KR 100887721B1
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- point
- vehicle
- screen
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000003384 imaging method Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Abstract
본 발명은, 차량에 장착된 카메라로부터 취득한 화면에 관심 지점(Point-Of-Interest)을 중첩하여 출력하기 위한 영상 차량 항법 장치 및 방법에 관한 것이다. 본 발명의 영상 차량 항법 장치는, 카메라로부터 인식된 신호등의 지도 상의 좌표에 대한 관심 지점의 지도상의 상대적인 좌표를 이용하여, 관심 지점을 화면 상에 표시한다. 또한, 신호등을 기준으로 화면을 다수의 기준 영역으로 분할하고, 관심 지점의 지도 상의 위치가 신호등의 좌우 어디에 있는지에 따라, 그리고 관심 지점의 지도 상의 위치가 신호등의 지도 상의 위치에 대해 차량보다 가깝게 있는지 혹은 멀리 있는지에 따라, 관심 지점을 어느 하나의 기준 영역에 대응시킨다. 관심 지점의 지도 상의 위치로부터 직접 계산된 2차원 영상 좌표가 해당 기준 영역에서 벗어난 경우에는 2차원 영상 좌표 대신에 해당 기준 영역에 대응되어 있는 관심 지점 좌표가 화면에 출력된다. 또한, 관심 지점의 좌표는, 그 관심 지점을 대표적으로 나타내는 좌표와, 그 관심 지점의 출입구 등을 나타내는 추가의 좌표를 포함한다.The present invention relates to a video vehicle navigation apparatus and method for superimposing and outputting a point-of-interest on a screen acquired from a camera mounted on a vehicle. The video vehicle navigation apparatus of the present invention displays a point of interest on the screen using the relative coordinates on the map of the point of interest with respect to the coordinate on the map of the traffic light recognized by the camera. In addition, the screen is divided into a plurality of reference areas based on the traffic light, depending on where the position of the map of the point of interest is to the left and right of the traffic light, and whether the position of the point of interest is closer than the vehicle to the position of the map of the traffic light. Or, depending on how far you are, the point of interest corresponds to either reference area. If the 2D image coordinates calculated directly from the location on the map of the point of interest deviate from the reference region, the point of interest coordinates corresponding to the reference region are output on the screen instead of the 2D image coordinates. In addition, the coordinate of the point of interest includes a coordinate representatively representing the point of interest and additional coordinates indicating an entrance and exit of the point of interest.
Description
본 발명은 차량 항법 장치 및 방법에 관한 것으로서, 특히 차량에 장착된 카메라에 의하여 실시간으로 수집되는 영상에 관심 지점(Point of Interest, POI)을 표시하는 차량 항법 장치 및 방법에 관한 것이다.The present invention relates to a vehicle navigation apparatus and method, and more particularly, to a vehicle navigation apparatus and method for displaying a point of interest (POI) in an image collected in real time by a camera mounted on a vehicle.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-114-03, 과제명: 텔레매틱스용 실감컨텐츠 구축/관리 기술 개발].The present invention is derived from the research conducted as part of the IT growth engine core technology development project of the Ministry of Information and Communication and the Ministry of Information and Communication Research and Development. [Task Management No .: 2005-S-114-03, Title: Construction of Realistic Content for Telematics / Management skills development].
2차원의 지도 형태로 차량의 진행을 안내하는 지도 기반 차량 항법 시스템에서는, 아이콘이나 텍스트의 형태로 지도 화면에 관심 지점(Point of Interest, POI)을 표시한다. POI는 건물, 공원, 시설물 등의 객체를 말하며, POI 정보는 지도 좌표계 상의 점 또는 면 형태의 좌표와 텍스트 정보로 구성된 데이터를 포함한다.In a map-based vehicle navigation system for guiding vehicle progress in a two-dimensional map form, points of interest (POIs) are displayed on a map screen in the form of icons or text. POI refers to objects such as buildings, parks, and facilities. POI information includes data consisting of coordinates and text information in the form of points or planes on a map coordinate system.
또한, 차량에 장착된 카메라에 의하여 실시간으로 수집된 영상에 의해 차량의 주행을 안내하는 영상 차량 항법 장치에서는, 차량의 전방 영상 위에 중첩하여 POI를 표시한다. 그런데 POI를 영상에 출력하기 위해서는 정확한 카메라의 위치와 자세가 필요하다. 2차원 지도 기반 차량 항법 시스템에서는 차량의 대략적인 위치만 확인되면 경로 안내나 지도 출력 등의 기능을 수행하는 데 큰 문제가 없지만, 영상 차량 항법 시스템에서는 카메라 위치와 자세의 조그만 오차도 차량 항법 기능에 큰 영향을 미친다. 예를 들어, 넓은 도로의 1차선으로 주행하는 경우와 4차선으로 주행하는 경우는 보통의 GPS 수신기와 2차원 차량 항법 시스템의 기능으로는 구분하기 어렵고 구분할 필요도 없지만, POI 정보의 영상 출력에는 큰 차이를 가져오게 된다. In addition, the video vehicle navigation apparatus that guides the driving of the vehicle by the image collected in real time by the camera mounted on the vehicle displays the POI superimposed on the front image of the vehicle. However, in order to output POI to an image, the exact camera position and posture are required. In the two-dimensional map-based vehicle navigation system, if the approximate location of the vehicle is identified, there is no big problem in performing functions such as route guidance or map output.However, in the video vehicle navigation system, even a small error in the camera position and attitude is not included in the vehicle navigation function. Great influence For example, driving in one lane of a wide road and driving in four lanes are difficult to distinguish and do not need to be distinguished by the functions of a normal GPS receiver and a two-dimensional vehicle navigation system. It makes a difference.
종래에는 정확한 카메라 정보를 얻기 위해, 자이로스코프와 같은 관성 센서를 이용하여 카메라의 위치 및 자세 정보를 보정하는 기술이 알려져 있다. 또한, 자이로스코프와 같은 관성 센서와 경사계를 이용하여 카메라의 방위각 및 경사각을 검출하는 기술도 종래 알려져 있다.Conventionally, a technique of correcting the position and attitude information of a camera using an inertial sensor such as a gyroscope has been known in order to obtain accurate camera information. In addition, a technique for detecting an azimuth and an inclination angle of a camera using an inertial sensor such as a gyroscope and an inclinometer is also known in the art.
2차원 지도 기반 차량 항법 시스템에서는 고려되지 않지만 영상 차량 항법 시스템에서 고려해야 할 또 하나의 사항은, 도로변의 입구에서 건물이 멀리 떨어져 있거나 건물 영역이 매우 큰 경우, 건물의 실제 위치와 POI의 영상 출력 위치에 차이가 발생할 수 있다는 점이다. 예를 들어, 건물의 중심점만이 POI 좌표로 저장되어 있는 경우에, 건물로 진입하기 위한 입구는 실제로 도로변에 있어 시야에 보이지만, 건물 자체가 POI로서 화면에 출력되지 않는 경우가 발생할 수 있다.Another consideration that is not considered in two-dimensional map-based vehicular navigation systems, but also considered in visual vehicular navigation systems is that the building's actual position and the POI's image output position if the building is far from the entrance of the roadside or the building area is very large. Is that a difference can occur. For example, if only the center point of a building is stored in POI coordinates, the entrance for entering the building may actually be visible on the roadside, but the building itself may not be output on the screen as a POI.
종래의 영상 차량 항법 장치는 정확한 카메라 정보를 얻기 위해 고가의 관성 센서를 사용하기 때문에 제작 단가가 상승하는 문제점이 있다. 또한, 종래의 영상 차량 항법 장치는 POI에 대한 단일 좌표만을 제공하기 때문에, 시야에는 대형 건물이 들어오지만 해당 건물이 POI로서 영상에 출력되지 않는 경우가 있어서, 운전자에게 정확한 길 안내를 할 수 없는 문제점이 있다.The conventional video vehicle navigation apparatus has a problem in that the manufacturing cost increases because an expensive inertial sensor is used to obtain accurate camera information. In addition, since the conventional video vehicle navigation apparatus provides only a single coordinate with respect to the POI, a large building enters the field of view, but the building may not be output as a POI in the image. There is this.
따라서 본 발명의 목적은, 저가이면서 정확한 카메라 정보를 취득할 수 있는 영상 차량 항법 장치 및 방법을 제공하는 것이다. It is therefore an object of the present invention to provide a video vehicle navigation apparatus and method capable of obtaining low cost and accurate camera information.
본 발명의 다른 목적은, 고가의 관성 센서 없이도 GPS 수신기와 카메라만을 사용하고, 카메라에서 취득된 영상으로부터 인식한 결과를 활용하여 POI 정보를 실시간 영상에 중첩하여 출력할 수 있는 영상 차량 항법 장치 및 방법을 제공하는 것이다.It is another object of the present invention to use a GPS receiver and a camera without expensive inertial sensors, and a video vehicle navigation apparatus and method that can output POI information superimposed on a real-time video by using a result recognized from an image acquired by the camera. To provide.
본 발명의 또 다른 목적은, 종래의 POI 데이터 구성 방식과는 달리 POI 좌표(점 또는 면)와 연관된 추가적인 점 데이터를 사용함으로써 건물이 화면에 나타나지 않는 경우에도 주행중에 도로변에서 실제 필요한 출입구의 위치를 화면상에 출력하여 운전자의 길찾기를 도와줄 수 있는 영상 차량 항법 장치 및 방법을 제공하는 것이다.Another object of the present invention is to use the additional point data associated with POI coordinates (points or faces), unlike conventional POI data organization, so that even if the building does not appear on the screen, the actual position of the required entrance on the roadside while driving The present invention provides a vehicle navigation apparatus and method for outputting on a screen to help a driver find directions.
상기와 같이 목적을 달성하기 위한 본 발명의 영상 차량 항법 장치는, 관심 지점을 화면에 표시하기 위한 영상 차량 항법 장치로서, 차량에 장착된 카메라로부 터 상기 화면을 취득하는 데이터 입력부와, 상기 화면으로부터 기준 객체를 인식하는 영상 인식부와, 상기 관심 지점 및 기준 객체의 지도 상의 위치에 관한 정보를 제공하는 전자 지도부와, 상기 기준 객체의 지도 상의 위치와 상기 관심 지점의 지도 상의 위치 사이의 상대적인 위치 관계를 이용하여 상기 기준 객체를 기준으로 한 상기 관심 지점의 상기 화면 상의 관심 지점 위치를 결정하는 연산부와, 상기 화면 상의 상기 관심 지점 위치에 상기 관심 지점을 표시하는 출력부를 포함한다. The video vehicle navigation apparatus of the present invention for achieving the object as described above is a video vehicle navigation apparatus for displaying a point of interest on the screen, a data input unit for obtaining the screen from a camera mounted on the vehicle, and the screen An image recognizing unit for recognizing a reference object from an electronic map unit, an electronic map unit providing information about the point of interest and a position on a map of the reference object, and a relative position between a position on the map of the reference object and a position on the map of the point of interest And a calculator configured to determine a location of the point of interest on the screen of the point of interest based on the reference object using a relationship, and an output unit to display the point of interest at the point of interest on the screen.
또한, 상기와 같은 목적을 달성하기 위해 본 발명의 영상 차량 항법 방법은, 관심 지점을 화면에 표시하기 위한 영상 차량 항법 방법으로서, (a) 차량에 장착된 카메라로부터 상기 화면을 데이터 입력부에 의해 취득하는 단계와, (b) 영상 인식부에 의해, 상기 화면으로부터 기준 객체를 인식하는 단계와, (c) 전자 지도부에 의해 제공되는 상기 기준 객체의 지도 상의 위치와 상기 관심 지점의 지도 상의 위치 사이의 상대적인 위치 관계를 이용하여 상기 기준 객체를 기준으로 한 상기 관심 지점의 상기 화면 상의 관심 지점 위치를 연산부에 의해 결정하는 단계와, (d) 출력부에 의해, 상기 화면 상의 상기 관심 지점 위치에 상기 관심 지점을 표시하는 단계를 포함한다.In addition, in order to achieve the above object, the video vehicle navigation method of the present invention is a video vehicle navigation method for displaying a point of interest on a screen, comprising: (a) acquiring the screen by a data input unit from a camera mounted on a vehicle; (B) recognizing, by the image recognition unit, a reference object from the screen, and (c) between a location on the map of the reference object provided by the electronic map unit and a location on the map of the point of interest. Determining a location of the point of interest on the screen of the point of interest based on the reference object by using a relative position relationship, and (d) by the outputting unit, the point of interest on the point of interest on the screen Marking a point.
이때 기준 객체는 신호등이 될 수 있다.In this case, the reference object may be a traffic light.
따라서 본 발명에 따르면, 기존의 고가의 관성 센서 없이도 기준 객체에 대한 관심 지점의 상대적인 지도 상의 위치만으로, 관심 지점을 특정할 수 있다.Therefore, according to the present invention, the point of interest may be specified only by the position on the map of the point of interest relative to the reference object without the existing expensive inertial sensor.
또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 연산부는, 상기 기 준 객체를 기준으로 상기 화면을 복수의 화면 기준 영역으로 분할하는 화면 기준 영역 설정부를 포함하고, 상기 화면 기준 영역 설정부는, 상기 관심 지점을 상기 복수의 화면 기준 영역 중 하나의 화면 기준 영역에 대응시킴으로써 상기 관심 지점 위치를 결정한다. 이때, 화면 기준 영역에 대한 관심 지점의 대응 관계는, 차량과 기준객체와 관심 지점 사이의 위치 관계에 의해 결정된다.In addition, in the video vehicle navigation apparatus and method of the present invention, the operation unit comprises a screen reference area setting unit for dividing the screen into a plurality of screen reference areas on the basis of the reference object, the screen reference area setting unit, The location of the point of interest is determined by corresponding the point of interest to one screen reference area of the plurality of screen reference areas. In this case, the correspondence relationship of the point of interest with respect to the screen reference area is determined by the positional relationship between the vehicle, the reference object, and the point of interest.
또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 출력부는, 상기 관심 지점의 지도 상의 위치로부터 2차원 영상 좌표를 계산하고, 상기 관심 지점 위치가 대응되어 있는 화면 기준 영역에서 상기 2차원 영상 좌표가 벗어나 있는 경우에는, 상기 2차원 영상 좌표에 상기 관심 지점을 표시하는 대신에 상기 관심 지점 위치에 상기 관심 지점을 표시한다.In addition, in the video vehicle navigation apparatus and method of the present invention, the output unit calculates the two-dimensional image coordinates from the position on the map of the point of interest, and the two-dimensional image coordinates in the screen reference region to which the position of the point of interest corresponds. If is away, the point of interest is displayed at the point of interest instead of the point of interest in the two-dimensional image coordinates.
따라서, 3차원 지도 좌표로부터 계산된 관심 지점의 2차원 영상 좌표에 에러가 있는 경우에, 그 2차원 영상 좌표 대신에, 기준 영역 설정 과정에서 특정된 관심 지점 위치에 해당 관심 지점을 표시할 수 있기 때문에, 화면 상에 보다 정확한 위치에 관심 지점을 표시할 수 있다.Therefore, when there is an error in the 2D image coordinates of the point of interest calculated from the 3D map coordinates, instead of the 2D image coordinates, the point of interest may be displayed at the point of interest point specified in the reference region setting process. Therefore, the point of interest can be displayed at a more accurate position on the screen.
또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 영상 인식부는 상기 화면으로부터 상기 차량 전방의 차선을 인식하는 차선 인식부를 포함하고, 상기 연산부는 상기 차선 인식부에 의해 인식된 차선에 관한 정보로부터 상기 차량의 차량 방위각을 연산하는 방위각 연산부를 포함할 수 있다.In addition, in the video vehicle navigation apparatus and method of the present invention, the image recognition unit includes a lane recognition unit for recognizing the lane in front of the vehicle from the screen, the operation unit from the information on the lane recognized by the lane recognition unit It may include an azimuth calculation unit for calculating a vehicle azimuth angle of the vehicle.
이때, 상기 출력부는, 상기 관심 지점의 지도 상의 위치로부터 2차원 영상 좌표를 계산하는 데 이용하는 차량 방위각으로서, 상기 연산부에 의해 연산된 차량 방위각과 GPS 수신기로부터 제공받은 차량 방위각 중 어느 하나의 차량 방위각을 선택할 수 있다.In this case, the output unit is a vehicle azimuth used to calculate two-dimensional image coordinates from a position on the map of the point of interest, and the vehicle azimuth from one of the vehicle azimuth calculated by the calculating unit and the GPS receiver provided by the GPS receiver. You can choose.
따라서, GPS 데이터에 대한 신뢰도가 높은 차속 구간(예컨대 20km/h)에서는 GPS 수신기로부터의 차량 방위각을 이용하고, 그렇지 않은 경우에는 인식된 차선으로부터 연산된 차량 방위각을 이용할 수 있기 때문에, 지도 상의 관심 지점 위치로부터 2차원 영상 좌표를 계산하는 데 이용될 차량 방위각을 보다 정확하게 특정할 수 있다.Therefore, the vehicle azimuth from the GPS receiver can be used in a vehicle speed section (for example, 20 km / h) with high reliability for the GPS data, and otherwise, the vehicle azimuth calculated from the recognized lane can be used. It is possible to more accurately specify the vehicle azimuth to be used to calculate the two-dimensional image coordinates from the position.
또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 영상 인식부는 상기 화면으로부터 인식한 차선에 관한 정보로부터 상기 차량의 주행 차로를 인식하는 주행 차로 인식부를 포함하고, 상기 연산부는, 상기 차선 인식부에 의해 인식된 주행 차로에 관한 정보로부터 상기 차량의 위치를 연산하는 위치 연산부를 포함할 수 있다.In addition, in the video vehicle navigation apparatus and method of the present invention, the image recognition unit includes a driving lane recognition unit for recognizing the driving lane of the vehicle from the information on the lane recognized from the screen, the operation unit, the lane recognition unit It may include a position calculation unit for calculating the position of the vehicle from the information on the driving lane recognized by the.
이때, 상기 데이터 입력부는 GPS 수신기로부터 상기 차량의 위치 정보를 수신하고, 상기 위치 연산부는, 상기 GPS 수신기로부터 수신한 차량의 위치 정보를, 상기 주행 차로 인식부에 의해 인식된 주행 차로에 관한 정보에 의해 보정함으로써 상기 차량의 위치를 연산한다.In this case, the data input unit receives position information of the vehicle from a GPS receiver, and the position calculating unit stores the position information of the vehicle received from the GPS receiver on information about the driving lane recognized by the driving lane recognition unit. By calculating by calculating the position of the vehicle.
따라서, GPS 수신기로부터의 정보에 의해 도로의 중심선으로 특정된 차량의 위치에 대해 도로 중심선으로부터 직각인 방향의 거리 오차를 없앨 수 있다. Therefore, it is possible to eliminate the distance error in the direction perpendicular to the road center line with respect to the position of the vehicle specified as the center line of the road by the information from the GPS receiver.
또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 관심 지점은 지도 상의 복수의 관심 지점 좌표에 연관되어 있으며, 상기 연산부는 상기 상대적인 위치 관계를 결정하기 위해, 상기 복수의 관심 지점 좌표 중 어느 하나의 관심 지점 좌표를 상기 관심 지점의 상기 지도 상의 위치로 특정할 수 있다.In addition, in the apparatus and method of the image vehicle navigation system of the present invention, the point of interest is associated with a plurality of point of interest coordinates on a map, and the calculating unit is any one of the plurality of point of interest coordinates to determine the relative positional relationship. A point of interest coordinate of may be specified as a location on the map of the point of interest.
따라서 관심 지점을 대표하는 좌표와 그 좌표와 링크되어 해당 관심 지점의 출입구 등을 나타내는 좌표를 포함하는 복수의 좌표에 의해 필요에 따라 관심 지점의 위치를 화면 상에 나타낼 수 있기 때문에, 관심 지점을 보다 정확하게 특정할 수 있다.Therefore, the position of the point of interest may be displayed on the screen as needed by a plurality of coordinates including coordinates representing the point of interest and coordinates linked with the coordinates to indicate an entrance and the like of the point of interest. Can be specified precisely.
본 발명에 따르면, 기존의 고가의 관성 센서 없이도 기준 객체에 대한 관심 지점의 상대적인 지도 상의 위치만으로 관심 지점을 특정할 수 있는 효과가 있다.According to the present invention, there is an effect that the point of interest can be specified only by the position on the map of the point of interest relative to the reference object without the existing expensive inertial sensor.
또한, 본 발명에 따르면, 3차원 지도 좌표로부터 계산된 관심 지점의 2차원 영상 좌표에 에러가 있는 경우에, 그 2차원 영상 좌표 대신에, 기준 영역 설정 과정에서 특정된 관심 지점 위치에 해당 관심 지점을 표시할 수 있기 때문에, 화면 상에 보다 정확한 위치에 관심 지점을 표시할 수 있는 효과가 있다.Further, according to the present invention, when there is an error in the 2D image coordinates of the point of interest calculated from the 3D map coordinates, instead of the 2D image coordinates, the point of interest corresponding to the point of interest specified in the reference region setting process is specified. Since it can be displayed, there is an effect that can display the point of interest in a more accurate position on the screen.
또한, 본 발명에 따르면, GPS 데이터에 대한 신뢰도가 높은 차속 구간(예컨대 20km/h)에서는 GPS 수신기로부터의 차량 방위각을 이용하고, 그렇지 않은 경우에는 인식된 차선으로부터 연산된 차량 방위각을 이용할 수 있기 때문에, 지도 상 의 관심 지점 위치로부터 2차원 영상 좌표를 계산하는 데 이용될 차량 방위각을 보다 정확하게 특정할 수 있다.In addition, according to the present invention, since the vehicle azimuth angle from the GPS receiver can be used in the vehicle speed section (for example, 20 km / h) with high reliability for GPS data, otherwise the vehicle azimuth calculated from the recognized lane can be used. For example, the vehicle azimuth angle to be used to calculate the two-dimensional image coordinates from the location of the point of interest on the map can be more accurately specified.
또한, 본 발명에 따르면, GPS 수신기로부터의 정보에 의해 도로의 중심선으로 특정된 차량의 위치에 대해 도로 중심선으로부터 직각인 방향의 거리 오차를 없앨 수 있는 효과가 있다.In addition, according to the present invention, there is an effect that can eliminate the distance error in the direction perpendicular to the road centerline with respect to the position of the vehicle specified as the centerline of the road by the information from the GPS receiver.
또한, 본 발명에 따르면, 관심 지점을 대표하는 좌표와 그 좌표와 링크되어 해당 관심 지점의 출입구 등을 나타내는 좌표를 포함하는 복수의 좌표에 의해 필요에 따라 관심 지점의 위치를 화면 상에 나타낼 수 있기 때문에, 관심 지점을 보다 정확하게 특정할 수 있는 효과가 있다.In addition, according to the present invention, the position of the point of interest may be displayed on the screen as needed by a plurality of coordinates including coordinates representing the point of interest and coordinates linked to the coordinates to indicate the entrance and exit of the point of interest. Therefore, there is an effect that can more accurately specify the point of interest.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예를 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention.
도 1은 본 발명의 실시예에 따른 영상 차량 항법 장치의 구성도이고, 도 2는 도 2의 세부 구성도이다. 영상 차량 항법 장치(100)는 데이터 입력부(10), 전자 지도부(20), 영상 인식부(30), 연산부(40), 및 출력부(50)를 포함한다. 1 is a configuration diagram of a video vehicle navigation apparatus according to an embodiment of the present invention, Figure 2 is a detailed configuration diagram of FIG. The image vehicle navigation apparatus 100 includes a
데이터 입력부(10)는, 도시되지 않은 GPS 수신기와 카메라로부터 차량의 현재 위치와 차량 전방의 영상을 취득한다. 전자 지도부(20)는, POI의 위치 좌표값 및 해당 POI를 설명하는 텍스트(예를 들어 'ABC 빌딩'과 같은 건물 명칭)를 포함하는 POI 데이터, 신호등의 위치 좌표값을 포함하는 신호등 데이터, 및 전자도로 지 도를 포함하며, 차량의 현재 위치와 연관된 POI 데이터 및 신호등 데이터를 검색하여 전자도로 지도에 맵매칭한다. 영상 인식부(30)는 카메라로부터 취득되는 도로 영상에서 차선과 신호등을 인식하고 차량의 현재 주행차로 위치를 계산한다. 연산부(40)는 GPS 신호로부터 차량 방위각을 산출하고 영상 인식부(30)로부터 전송받은 차선 및 신호등의 영상 좌표와 차량의 현재 주행차로 위치에 의하여 차량 방위각과 현재 차량 위치를 계산한다. 출력부(50)는 차량 위치와 차량 방위각을 사용하여 POI 좌표를 영상 좌표로 변환하여 영상에 중첩하여 출력한다.The
본 명세서에서는, 도로에서 차량이 주행하는 넓이를 가지는 영역을 '차로'라고 하고, 이를 구분하는 선(중앙선과 도로 경계선 포함)을 '차선'이라고 한다. 또한, '주행차로 위치'는 도로의 중앙선부터 순서대로 부여한 차로의 번호를 말하며, 예컨대 편도 4차로 도로에서 차량이 중앙에서 두 번째 차로를 주행중이라면, 주행차로 위치=2가 된다. '차량 방위각'은 지도 좌표계의 N축에 대하여 차량의 진행 방향(카메라의 광학 축이 향하는 방향과 동일)이 이루는 각도를 말한다.In the present specification, an area having an area on which a vehicle travels on a road is referred to as a 'lane', and a line (including a center line and a road boundary line) for dividing it is referred to as a 'lane'. In addition, the driving lane position refers to the number of lanes sequentially given from the center line of the road. For example, if the vehicle is driving on the second lane from the center on the one-way four-way road, the driving lane position = 2. 'Vehicle azimuth' refers to the angle formed by the traveling direction of the vehicle (the same direction that the optical axis of the camera faces) with respect to the N axis of the map coordinate system.
또한, 본 실시예에서는 POI의 영상 표시를 위한 기준 객체로서 신호등을 이용하였지만, 다른 객체들과의 식별력이 높고 배치 밀도가 높은 객체라면 신호등 이외의 다른 객체를 기준 객체로서 이용할 수 있다.In addition, in the present embodiment, a traffic light is used as a reference object for displaying the image of the POI, but an object other than the traffic light may be used as the reference object as long as the object has a high discrimination power and a high density of arrangement with other objects.
도 2에는 도 1의 영상 차량 항법 장치(100)의 세부 구성도가 도시되어 있다. 데이터 입력부(10)는 차량 전방의 실시간 영상을 취득하기 위한 카메라(11)와 차량 위치, 차량 방위각, 및 차량 속도를 포함하는 GPS 데이터를 얻기 위한 GPS 수신 기(12)로 구성된다. 카메라의 방향은 차량의 진행 방향과 평행하다고 가정하고 차량의 진행 방향과 카메라의 방향은 동일한 의미로 한다. 또한, 카메라(11)와 GPS 수신기(12)는 그들 사이의 거리가 무시될 수 있을 정도로 가깝게 위치한다.FIG. 2 is a detailed block diagram of the video vehicle navigation apparatus 100 of FIG. 1. The
전자 지도부(20)는 전자도로 지도부(21), 맵매칭 처리부(22), POI 데이터부(23), POI 검색부(24), 신호등 데이터부(25), 신호등 검색부(26)를 포함한다. 전자도로 지도부(21)는 도로의 좌표를 가지고 있다. The
맵매칭 처리부(22)는 GPS 수신기(12)로부터 GPS 좌표를 수신하고 맵매칭 과정을 수행한다. 맵매칭 방법은 유일한 것은 아니며, 예컨대 현재 GPS 좌표를 전자도로 지도부(21)의 도로 좌표와 비교 연산하여 현재 GPS 좌표와 가장 가까운 도로 상의 위치를 계산한다. 즉 맵매칭 처리부(22)는, GPS 좌표값에 존재하는 오차를 최소화시키기 위해, 해당 GPS 좌표값과 가장 가까운 도로상의 위치로서 도로의 중앙선으로 차량의 위치를 맵매칭한다. 따라서 도로의 중심선과 직각인 방향의 GPS 오차가 제거된다. 상기와 같은 맵매칭 과정을 통해 얻어진 좌표값은 연산부(40)로 전송된다.The
POI 데이터부(23)는 다양한 객체들(건물, 공원, 시설물 등)에 대한 각각의 POI 좌표값과 텍스트 속성값을 가지고 있다. 건물의 경우, POI 좌표는 건물 자체의 위치를 대표적으로 나타내는 객체 좌표값에, 해당 건물의 도로변 출입구 위치를 나타내는 추가 좌표값이 링크되어 구성된다. 이러한 데이터 구성 방법에 대해 도 3을 참조하여 더 자세히 설명한다.The
도 3의 (b)는 객체 자체(즉 시청 자체)의 좌표값을 포함하는 객체 좌표값 테 이블이다. 객체 좌표값들은 '시청'과 같은 텍스트 속성값에 의해 서로 구분된다. 도 3의 (c)는 건물의 도로변 출입구 위치를 추가적으로 나타내는 좌표값들을 포함하는 추가 좌표값 테이블이다. 추가 좌표값들은 '정문', '동문'과 같은 텍스트 속성값에 의해 서로 구분된다. 객체 좌표값 테이블과 추가 좌표값 테이블은 '명칭'에 의해 링크되어 있다. '시청'의 경우 '동문'과 '서문'의 추가 좌표값이 시청 자체의 객체 좌표값에 링크되어 있다. 3B is an object coordinate value table including coordinate values of the object itself (ie, the viewing itself). Object coordinate values are distinguished from each other by text attribute values such as 'viewing'. 3C is an additional coordinate value table including coordinate values additionally indicating a location of a roadside entrance of a building. Additional coordinate values are distinguished from each other by text attribute values such as 'main gate' and 'east gate'. The object coordinate table and the additional coordinate table are linked by 'name'. In the case of 'viewing', additional coordinate values of 'alumni' and 'preface' are linked to the object coordinates of the city hall itself.
POI 검색부(24)는 텍스트 속성값과 좌표값 등의 조건에 따라 POI 데이터부(23)의 POI 정보를 검색한다. 도 3의 (a)에서, 시청을 목적지로 하여 A방향으로 차량이 주행하는 경우에, POI 검색부(24)는 시청 자체의 객체 좌표값이 아닌 '정문'의 추가 좌표값을 검색한다. 이때 시청 자체의 객체 좌표값이나 '동문' 추가 좌표값을 사용하게 되면, 화면 상에 그러한 좌표값이 나타나지 않는다. 마찬가지로 시청을 목적지로 하여 B방향으로 차량이 주행하는 경우, POI 검색부(24)는 '동문' 추가 좌표값을 검색한다.The POI retrieval unit 24 retrieves POI information of the
신호등 데이터부(25)는 도로 상의 신호등의 좌표값을 포함하는 신호등 정보를 가지고 있으며, 신호등 검색부(26)는 연산부(40)에서 필요로 하는 신호등 정보를 신호등 데이터부(25)로부터 검색하여 연산부(40)에 전송한다.The traffic
연상 인식부(30)는 차선 인식부(31), 주행차로 인식부(32) 및 신호등 인식부(33)를 포함한다.The
차선 인식부(31)는 카메라에서 취득된 영상으로부터 차선을 인식한다. 예를 들어, 차선 인식부(31)는 차량 전방의 영상을 화상 처리하여 차량 좌우측의 차선 데이터를 추출한 다음에 이 차선 데이터를 미리 저장되어 있는 차로 인식 패턴 데이터와 비교하는 공지의 방법에 의해 차선을 인식할 수 있다. 차선 인식부(31)는 그와 같이 인식된 값을 영상 좌표 상에서 파라미터로 표현된 직선의 형태로 주행 차로 인식부(32) 및 연산부(40)에 전송한다. The
주행차로 인식부(32)는 카메라에서 취득된 영상으로부터 인식된 차선을 이용하여 현재 주행차로 위치를 계산하여 그 결과를 연산부(40)에 전송한다. 예를 들어, 각 차로가 다른 차로와 특징적으로 구분되도록 도로 상에 차선들이 그려져 있는 경우, 즉 중앙선은 직선 모양, 1차선의 우측 차선은 파선 모양, 2차선의 우측 차선은 일점쇄선 모양 등으로 구분되어 있는 경우, 서로 구분되는 차로에 대한 인식 패턴 데이터를 미리 저장해 두었다가, 차선 인식부(31)가 인식한 차선 인식 패턴과 일치하는 차선 인식 패턴을 그 저장된 인식 패턴 데이터로부터 검색함으로써, 차량이 현재 어느 주행차로로 주행 중인지를 판단하는 공지의 방법을 이용하여 현재 주행차로 위치를 계산할 수 있다.The driving
신호등 인식부(33)가 신호등을 인식하는 과정은 차선 인식부(31)가 차선을 인식하는 과정과 비슷하다. 즉 신호등 인식부(33)는, 카메라가 취득한 차량 전방 영상을 처리하고, 이와 같은 처리에 의해 얻어진 영상 데이터로부터, 미리 저장되어 있는 신호등 인식 패턴 데이터와 일치하는 영상 데이터를 신호등으로서 인식하고 인식된 신호등의 영상 좌표값을 연산부(40)에 전송된다. 영상 좌표값은 영상 차량 항법 장치의 화면에 표시되는 영상에서의 좌표값을 말한다.The process of the traffic
연산부(40)는 맵매칭 처리부(22)에서 전송되어온 좌표값과 영상 인식부(30)로부터 전송되어온 영상 인식 결과로부터 차량 위치와 차량 방위각을 계산한다.The
위치 연산부(41)는, 맵매칭 처리부(22)에서 전송되어온 맵매칭 데이터로부터 인식된 현재의 차량 위치를 주행차로 인식부(31)에서 전송되어온 주행차로 위치 정보에 의해 보정한다. 전술한 바와 같이, 맵매칭 처리부(22)는 차량의 위치를 도로의 중앙선으로 맵매칭하기 때문에, 차량의 정확한 위치를 파악하기 위해서는 차량 위치에 대한 보정이 필요하다. 위치 연산부(41)는 주행차로 인식부(32)로부터 전송받은 주행차로 위치에 의해 차량의 주행차로 위치를 알고 있기 때문에, 위치 연산부(41)는 주행차로 위치와 차로의 폭으로부터 차량이 도로 중심선으로부터 직각인 방향으로 떨어져 있는 거리를 계산함으로써, 도로의 중앙선에 맵매칭되어 있는 차량의 위치를 실제의 차량 위치로 보정할 수 있다. 이때 차로의 폭은, 각 차로의 폭을 나타내는 정밀 데이터가 있을 경우에는 그것을 사용하고, 그렇지 않은 경우에는 지역에 따라 규격화되어 있는 값(예컨대 도시지역 도로의 경우 3.5 m)을 사용한다.The position calculating unit 41 corrects the current vehicle position recognized from the map matching data transmitted from the map
방위각 연산부(42)는 차선 인식부(32)로부터 전송되어온 차선 정보를 이용하여 차량 방위각을 산출한다. 차선은 거의 대부분의 경우 도로 중앙선과 평행하므로 차량이 도로와 이루는 각도는 차량이 차선과 이루는 각도와 같다고 할 수 있다. 그러나 실제 차량 주행 중에는 차선과 차량이 평행하지 않고 각도를 형성할 때가 있으며, 이 경우에는 도로가 지도의 N축과 이루는 각도와 차량이 그 도로의 차선과 이루는 각도를 더하여 차량 방위각을 계산한다.The
방위각 연산부(42)가 차량과 차선이 이루는 각도를 계산하는 방법은, 예를 들어, 다음과 같다. 차선 인식부(32)가 인식한 화면 상의 차량 좌우 차선으로부터 양 차선의 중앙을 향해 각각 가상의 법선을 그리고, 그 두 법선이 만나는 화면 상의 점을 지나는 가상의 수평축을 그었을 때, 좌측 차선으로부터의 법선과 수평축이 이루는 제1각도와 우측 차선으로부터의 법선과 수평축이 이루는 제2각도가 같으면, 차량과 차선이 이루는 각도는 0도라고 할 수 있을 것이다. 따라서 제1각도와 제2각도의 차이로부터 차량과 차선이 이루는 각도를 계산할 수 있다. 제1각도와 제2각도의 차이가 커질수록 차량과 차선이 이루는 각도는 비례적으로 증가할 것이다. 이와 같이 계산된 차량 방위각은, GPS 수신기(12)가 제공하는 차량 방위각과 함께 출력부(50)에 의해 선택적으로 이용된다.The
화면 기준영역 설정부(43)는, 신호등 인식부(33)로부터 전송받은 신호등의 영상 좌표값을 기준 좌표값으로서 이용하여 영상 차량 항법 장치의 화면을 다수의 기준 영역으로 분할하고, POI가 화면 상에 표현될 위치를 근사하기 위하여, POI 검색부(24)로부터 전송받은 POI의 위치 정보(좌표값)를, 신호등 검색부(26)로부터 전송받은 신호등의 위치 정보(좌표값)와 비교하여 POI를 화면 상에 분할된 화면 기준 영역에 대응시킨다. 즉 신호등의 위치를 원점으로 한 POI의 상대적인 위치에 따라 각 POI가 화면 상에 적절히 표시된다.The screen reference
도 4를 참조하여 화면 기준영역 설정부(43)가 POI를 화면 상에 분할된 기준 영역에 대응시키는 방법을 설명한다. 도 4의 (a)의 지도 상에서 신호등의 좌표와 차량 위치를 연결한 점선(HL) 및 현재 진행 도로에 직각이면서 신호등 좌표를 지나 는 점선(VL)에 의하여 지도 영역을 4 영역으로 구분한다. 지도 상의 A, B, C, D, 및 E는 POI를 나타낸다. A method in which the screen reference
도 4의 (b)는 영상 차량 항법 장치의 화면을 나타낸다. 화면 기준영역 설정부(43)는 먼저, 신호등 인식부(33)로부터 전송되어온 신호등의 영상 좌표값에 의해 화면 상에 신호등을 표시하고, 신호등을 기준으로 4개의 화면 기준 영역 S1, S2, S3, 및 S4로 화면을 구분한다. 4B illustrates a screen of the video vehicle navigation apparatus. The screen reference
이어서 화면 기준영역 설정부(43)는, 차량에서 볼 때 지도 상에서 신호등보다 왼쪽에 나타나는 A, C, E의 POI는 화면에서 신호등보다 왼쪽의 화면 기준 영역(S1, S3)에 대응시키고, B, D의 POI는 화면에서 신호등보다 오른쪽의 화면 기준 영역(S2, S4)에 대응시킨다. 또한, 화면 기준 영역 설정부(43)는, 차량에서 볼 때 신호등보다 가까이 있는 A, B의 POI는 화면에서 신호등보다 위쪽의 화면 기준 영역(S1, S2)에 대응시키고, C, D, E의 POI는 화면에서 신호등보다 아래쪽의 화면 기준 영역(S3, S4)에 대응시킨다. 결과적으로, A, B, C, D, 및 E의 각 POI는 화면 상의 4개의 화면 기준 영역 중 하나에 대응된다. 도 4의 예의 경우, E의 POI는 S3의 화면 기준 영역에 배치될 것이고, B의 POI는 S2의 화면 기준 영역에 대응될 것이다.Subsequently, the screen reference
한편, 화면 기준영역 설정부(43)는, 신호등의 좌표값과 각 POI의 좌표값을 알고 있기 때문에, 신호등의 좌표값을 원점으로 한 각 POI의 상대적인 좌표값에 의해 화면 상에 어느 정도 정확한 POI 표시 위치를 결정할 수 있다. 따라서 화면 기준영역 설정부(43)는, 화면 기준 영역을 구분하지 않고서도, 신호등의 좌표값에 대 한 각 POI의 상대적인 좌표값으로부터 해당 POI의 화면상의 표시 위치를 결정할 수 있지만, 본 실시예에서 기준 영역을 분할하는 이유는, 후술하는 출력부(50)에서 3차원 지도 좌표를 2차원 영상 좌표로 투영하여 계산한 POI의 영상 좌표가 화면 기준영역 설정부(43)에 의해 대응된 기준 영역에 대응하지 않게 되면, 해당 영상 좌표가 정확하게 계산된 것이 아니라는 것을 확인할 수 있기 때문이다.On the other hand, since the screen reference
출력부(50)는 차량 위치, 차량 방위각, 미리 알려진 카메라 파라미터, POI 데이터, 화면 기준 영역을 입력으로 하여 출력 대상 POI의 3차원 지도 좌표를 2차원 영상 좌표로 투영하여 계산한 POI의 영상 좌표를 출력한다. 이때, 출력부(50)는, GPS 수신기(12)로부터 제공받은 차량 속도에 따라, GPS 수신기(12)로부터 제공받은 차량 방위각과 방위각 연산부(42)에 의해 계산된 차량 방위각 중 어느 하나의 차량 방위각을 이용하여 POI의 영상 좌표를 계산한다. The
구체적으로는, GPS 정보를 신뢰할 수 있다고 알려져 있는 20km/h 이상의 차량 속도에 대해서는, GPS 수신기(12)로부터 제공받은 차량 방위각이 사용되고, 20km/h 미만에서는 방위각 연산부(42)에 의해 계산된 차량 방위각이 사용된다. 또한, 차량 전방의 혼잡 등으로 인하여 차선이 제대로 인식되지 못하는 경우에는, 차량의 속도와 관계없이 GPS 수신기(12)로부터 제공받은 차량 방위각이 사용된다.Specifically, for a vehicle speed of 20 km / h or more, which is known to be reliable for GPS information, the vehicle azimuth angle provided from the
또한, 출력부(50)는, 상기 계산된 POI의 영상 좌표의 화면 내 영역이 화면 기준 영역 설정부(43)에 의해 대응된 화면 기준 영역과 일치하는 지를 검사하여, 일치하지 않는 경우에는, 상기 계산된 POI의 영상 좌표가 아닌 화면 기준 영역 설 정부(43)에 의해 대응된 화면 기준 영역 상의 영상 좌표를 해당 POI의 영상 좌표로서 화면에 출력한다.In addition, the
또한, 출력부(50)는, 화면의 왼쪽에 위치하는 객체(건물 등)에 대해서는 해당 객체의 왼쪽에 꼬리가 붙은 3차원 간판의 형태로 POI 데이터의 텍스트 속성값(예: 건물 명칭 등)을 영상에 출력하며, 화면의 오른쪽에 위치하는 객체에 대해서는 해당 객체의 오른쪽에 꼬리가 붙은 3차원 간판의 형태로 POI 데이터의 텍스트 속성값을 영상에 출력한다. 또한, 영상에 출력되는 간판은, 화면 상의 다른 정보를 가리자 않도록, 어느 정도 투명하게 구성한다.In addition, the
도 5에는 본 실시예의 영상 차량 항법 장치에 의한 동작의 흐름도가 도시되어 있다. 시스템이 시작되면(S61), 데이터 입력부(10)의 카메라(11)는 일정 프레임 레이트로 차량 전방의 영상을 취득하고 GPS 수신기는 일정 시간 간격으로 현재의 위치 좌표값, 차량 방위각, 및 차량 속도를 검출한다(S62). 5 is a flowchart of the operation by the video vehicle navigation apparatus of the present embodiment. When the system starts (S61), the
데이터 입력부(10)는 영상을 영상 인식부(30) 및 출력부(50)로 전송하고, 위치 좌표값을 전자 지도부(20)의 맵매칭 처리부(22)로 전송한다. 맵매칭 처리부(22)는 상기 위치 좌표값을 전자도로 지도부(21)에 있는 도로 상의 가장 가까운 지점(즉 중앙선)으로 근사시키는 맵매칭을 수행하여(S63) 맵매칭된 위치 좌표값을 연산부(40)로 전송한다.The
영상 인식부(30)의 차선 인식부(32)는 수신된 영상에서 차선을 인식하고 그 결과를 주행차로 인식부(31)로 전송하고, 주행 차로 인식부(31)는 수신된 영상에서 차선 인식 결과를 이용하여 주행차로 위치를 계산한다(S64). 영상 인식부(30)의 신호등 인식부(33)는 수신된 영상에서 신호등을 인식한다(S65). 차선은 영상 좌표의 형태로, 신호등 인식 결과는 영상에 위치하는 신호등의 영상 좌표의 형태로, 그리고 주행차로 위치는 숫자(즉 2차선인 경우 '2')의 형태로 연산부(40)에 전송된다.The
연산부(40)는, 전술한 바와 같은 방식으로, 차선의 영상 좌표로부터 차량 방위각을 산출하고, 주행차로 위치로부터 차량 위치를 보정하여 정확한 차량 위치를 산출한다(S66).The calculating
다음으로 POI 검색부(24)는 POI 데이터로부터 출력 대상 POI를 검색한다(S68). 검색 방법은 도 3을 참조하여 상기에서 설명한 바와 같다. POI 검색부(24)는 검색한 POI 데이터(좌표값 및 텍스트 속성값)를 연산부(40)의 화면 기준 영역 설정부(43)로 전송한다. 그리고 화면 기준 영역 설정부(43)는 POI 데이터 중 좌표값과 차량 위치를 비교 연산하여 POI 좌표의 출력 영역을 화면 기준 영역 중 하나로 대응시킨다. Next, the POI search unit 24 searches for the output target POI from the POI data (S68). The search method is as described above with reference to FIG. 3. The POI retrieval unit 24 transmits the retrieved POI data (coordinate values and text attribute values) to the screen reference
마지막으로 출력부(50)는 차량 위치, 차량 방위각, 미리 알려진 카메라 파라미터, POI 데이터, 화면 기준 영역을 입력으로 하여 출력 대상 POI의 3차원 지도 좌표를 2차원 영상 좌표로 투영하여 계산한 POI의 영상 좌표를 출력한다. 이때, 출력부(50)는, GPS 수신기(12)로부터 제공받은 차량 속도에 따라(예컨대 20km/h 기준), GPS 수신기(12)로부터 제공받은 차량 방위각과 방위각 연산부(42)에 의해 계산된 차량 방위각 중 어느 하나의 차량 방위각을 이용하여 POI의 영상 좌표를 계산한다. 또한, 출력부(50)는, 상기 계산된 POI의 영상 좌표의 화면 내 영역이 화면 기준 영역 설정부(43)에 의해 대응된 화면 기준 영역과 일치하는 지를 검사하여, 일치하지 않는 경우에는, 상기 계산된 POI의 영상 좌표가 아닌 화면 기준 영역 설정부(43)에 의해 대응된 화면 기준 영역 상의 영상 좌표를 해당 POI의 영상 좌표로 출력한다(S69). Finally, the
이때, 출력부(50)는, 화면의 왼쪽에 위치하는 객체(건물 등)에 대해서는 해당 객체의 왼쪽에 꼬리가 붙은 3차원 간판의 형태로 POI 데이터의 텍스트 속성값(예: 건물 명칭 등)을 영상에 출력하며, 화면의 오른쪽에 위치하는 객체에 대해서는 해당 객체의 오른쪽에 꼬리가 붙은 3차원 간판의 형태로 POI 데이터의 텍스트 속성값을 영상에 출력한다. 또한, 영상에 출력되는 간판은, 화면 상의 다른 정보를 가리자 않도록, 어느 정도 투명하게 구성한다.At this time, the
상기 과정은 실시간으로 매 프레임에 대하여 반복 수행되며, 시스템이 종료 명령을 받거나 영상 입력이 중단되면 종료한다(S70).The process is repeated for every frame in real time, and terminates when the system receives an end command or the image input is stopped (S70).
한편, 본 발명은, 상기 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 의해 구현될 수도 있다. 또한, 앞서 설명한 본 발명의 실시예는 구체적인 구성과 도면에 의해 특정되었지만, 그러한 구체적인 실시예가 본 발명의 범위를 제한하는 것이 아니라는 점을 명확히 하고자 한다. 따라서, 본 발명은, 본 발명의 본질을 벗어나지 않는 다양한 변형예와 그 균등물들을 포함하는 것으로 이해되어야 한다.On the other hand, the present invention may be implemented by a computer-readable recording medium recording a program for executing the method. In addition, while the embodiments of the present invention described above have been specified by specific configurations and drawings, it is intended to be clear that such specific embodiments do not limit the scope of the present invention. Accordingly, it is to be understood that the invention includes various modifications and equivalents thereof without departing from the spirit of the invention.
도 1은 본 발명의 실시예에 따른 영상 차량 항법 장치의 구성도.1 is a block diagram of a video vehicle navigation apparatus according to an embodiment of the present invention.
도 2는 도 1의 영상 차량 항법 장치의 세부 구성도.FIG. 2 is a detailed configuration diagram of the video vehicle navigation apparatus of FIG. 1. FIG.
도 3은 POI 데이터의 구성 및 검색을 설명하기 위한 개념도.3 is a conceptual diagram illustrating the configuration and retrieval of POI data.
도 4는 화면 기준 영역의 설정을 설명하기 위한 개념도.4 is a conceptual diagram for explaining setting of a screen reference area.
도 5는 본 발명의 실시예에 따른 영상 차량 항법 동작의 흐름도.5 is a flowchart of an image vehicle navigation operation according to an embodiment of the present invention.
Claims (16)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070120833A KR100887721B1 (en) | 2007-11-26 | 2007-11-26 | Video Vehicle Navigation Apparatus and Method |
JP2008132185A JP4700080B2 (en) | 2007-11-26 | 2008-05-20 | Car navigation system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070120833A KR100887721B1 (en) | 2007-11-26 | 2007-11-26 | Video Vehicle Navigation Apparatus and Method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100887721B1 true KR100887721B1 (en) | 2009-03-12 |
Family
ID=40697911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070120833A Active KR100887721B1 (en) | 2007-11-26 | 2007-11-26 | Video Vehicle Navigation Apparatus and Method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4700080B2 (en) |
KR (1) | KR100887721B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101871441B1 (en) * | 2018-02-27 | 2018-06-27 | 뉴비전엔지니어링(주) | Voice recognition field survey and road linear generation system for high definition electronic map production for autonomous vehicle |
CN111512120A (en) * | 2017-12-21 | 2020-08-07 | 宝马股份公司 | Method, device and system for displaying augmented reality POI information |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5651372B2 (en) * | 2010-05-18 | 2015-01-14 | 株式会社Nttドコモ | Post information control apparatus, post information control system, and post information control method |
JP6165422B2 (en) * | 2012-06-28 | 2017-07-19 | 株式会社ナビタイムジャパン | Information processing system, information processing device, server, terminal device, information processing method, and program |
DE102012110219A1 (en) | 2012-10-25 | 2014-04-30 | Continental Teves Ag & Co. Ohg | Method and device for detecting marked danger and / or construction sites in the area of roadways |
KR101500168B1 (en) * | 2013-10-14 | 2015-03-06 | 현대자동차주식회사 | Method for Recognizing Side Boundary of Road during Driving |
CN105333878A (en) * | 2015-11-26 | 2016-02-17 | 深圳如果技术有限公司 | Road condition video navigation system and method |
KR102441053B1 (en) * | 2016-11-21 | 2022-09-06 | 현대자동차주식회사 | Apparatus and method for estimating the driving lane of a vehicle |
JP7132704B2 (en) * | 2017-09-21 | 2022-09-07 | 株式会社Subaru | Position detector |
JP2024128990A (en) * | 2021-07-27 | 2024-09-26 | Ultimatrust株式会社 | Information processing device, program, and positioning method |
CN113781893A (en) * | 2021-09-18 | 2021-12-10 | 万翼科技有限公司 | Traffic route three-dimensional model generation method, device, equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050081492A (en) * | 2004-02-13 | 2005-08-19 | 디브이에스 코리아 주식회사 | Car navigation device using forward real video and control method therefor |
KR20060036259A (en) * | 2004-10-25 | 2006-04-28 | 한국전자통신연구원 | Image-based navigation system and method |
KR20060068205A (en) * | 2004-12-16 | 2006-06-21 | 한국전자통신연구원 | Image-based route information generation system and method, terminal and method therefor |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3958133B2 (en) * | 2002-07-12 | 2007-08-15 | アルパイン株式会社 | Vehicle position measuring apparatus and method |
JP2006105640A (en) * | 2004-10-01 | 2006-04-20 | Hitachi Ltd | Navigation device |
JP2007011937A (en) * | 2005-07-04 | 2007-01-18 | Nissan Motor Co Ltd | Signal detection system, signal detection device, information center, and signal detection method |
JP4793685B2 (en) * | 2006-03-31 | 2011-10-12 | カシオ計算機株式会社 | Information transmission system, imaging apparatus, information output method, and information output program |
-
2007
- 2007-11-26 KR KR1020070120833A patent/KR100887721B1/en active Active
-
2008
- 2008-05-20 JP JP2008132185A patent/JP4700080B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050081492A (en) * | 2004-02-13 | 2005-08-19 | 디브이에스 코리아 주식회사 | Car navigation device using forward real video and control method therefor |
KR20060036259A (en) * | 2004-10-25 | 2006-04-28 | 한국전자통신연구원 | Image-based navigation system and method |
KR20060068205A (en) * | 2004-12-16 | 2006-06-21 | 한국전자통신연구원 | Image-based route information generation system and method, terminal and method therefor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111512120A (en) * | 2017-12-21 | 2020-08-07 | 宝马股份公司 | Method, device and system for displaying augmented reality POI information |
KR101871441B1 (en) * | 2018-02-27 | 2018-06-27 | 뉴비전엔지니어링(주) | Voice recognition field survey and road linear generation system for high definition electronic map production for autonomous vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2009128356A (en) | 2009-06-11 |
JP4700080B2 (en) | 2011-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100887721B1 (en) | Video Vehicle Navigation Apparatus and Method | |
US8315796B2 (en) | Navigation device | |
KR100266882B1 (en) | Navigation device | |
US7948397B2 (en) | Image recognition apparatuses, methods and programs | |
US8791996B2 (en) | Image processing system and position measurement system | |
US8239131B2 (en) | Navigation device, navigation method, and navigation program | |
EP2372309B1 (en) | Vehicle position detection system | |
US7463974B2 (en) | Systems, methods, and programs for determining whether a vehicle is on-road or off-road | |
JP7260064B2 (en) | Own vehicle position estimation device, running position estimation method | |
US20070021912A1 (en) | Current position information management systems, methods, and programs | |
US20100250116A1 (en) | Navigation device | |
KR20180088149A (en) | Method and apparatus for guiding vehicle route | |
US20180045516A1 (en) | Information processing device and vehicle position detecting method | |
US20100245561A1 (en) | Navigation device | |
JP2011215975A (en) | Image processing system and vehicle control system | |
EP2482036B1 (en) | Course guidance system, course guidance method, and course guidance program | |
KR100976964B1 (en) | Navigation system and road lane recognition method thereof | |
JP4953015B2 (en) | Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same | |
CN107850457B (en) | Route search device and route search method | |
CN115917255A (en) | Vision-based location and turn sign prediction | |
JP4596566B2 (en) | Self-vehicle information recognition device and self-vehicle information recognition method | |
US10989558B2 (en) | Route guidance method and route guidance device | |
KR101543073B1 (en) | Apparatus and Method for Driving Guide of Vehicle | |
JP2009058430A (en) | Navigation apparatus and program | |
EP1674827A1 (en) | System for detecting a lane change of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20071126 |
|
PA0201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20090220 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20090302 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20090303 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20111208 Year of fee payment: 20 |
|
PR1001 | Payment of annual fee |
Payment date: 20111208 Start annual number: 4 End annual number: 20 |