[go: up one dir, main page]

KR100887721B1 - Video Vehicle Navigation Apparatus and Method - Google Patents

Video Vehicle Navigation Apparatus and Method Download PDF

Info

Publication number
KR100887721B1
KR100887721B1 KR1020070120833A KR20070120833A KR100887721B1 KR 100887721 B1 KR100887721 B1 KR 100887721B1 KR 1020070120833 A KR1020070120833 A KR 1020070120833A KR 20070120833 A KR20070120833 A KR 20070120833A KR 100887721 B1 KR100887721 B1 KR 100887721B1
Authority
KR
South Korea
Prior art keywords
interest
point
vehicle
screen
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020070120833A
Other languages
Korean (ko)
Inventor
이승용
주인학
조성익
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070120833A priority Critical patent/KR100887721B1/en
Priority to JP2008132185A priority patent/JP4700080B2/en
Application granted granted Critical
Publication of KR100887721B1 publication Critical patent/KR100887721B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

본 발명은, 차량에 장착된 카메라로부터 취득한 화면에 관심 지점(Point-Of-Interest)을 중첩하여 출력하기 위한 영상 차량 항법 장치 및 방법에 관한 것이다. 본 발명의 영상 차량 항법 장치는, 카메라로부터 인식된 신호등의 지도 상의 좌표에 대한 관심 지점의 지도상의 상대적인 좌표를 이용하여, 관심 지점을 화면 상에 표시한다. 또한, 신호등을 기준으로 화면을 다수의 기준 영역으로 분할하고, 관심 지점의 지도 상의 위치가 신호등의 좌우 어디에 있는지에 따라, 그리고 관심 지점의 지도 상의 위치가 신호등의 지도 상의 위치에 대해 차량보다 가깝게 있는지 혹은 멀리 있는지에 따라, 관심 지점을 어느 하나의 기준 영역에 대응시킨다. 관심 지점의 지도 상의 위치로부터 직접 계산된 2차원 영상 좌표가 해당 기준 영역에서 벗어난 경우에는 2차원 영상 좌표 대신에 해당 기준 영역에 대응되어 있는 관심 지점 좌표가 화면에 출력된다. 또한, 관심 지점의 좌표는, 그 관심 지점을 대표적으로 나타내는 좌표와, 그 관심 지점의 출입구 등을 나타내는 추가의 좌표를 포함한다.The present invention relates to a video vehicle navigation apparatus and method for superimposing and outputting a point-of-interest on a screen acquired from a camera mounted on a vehicle. The video vehicle navigation apparatus of the present invention displays a point of interest on the screen using the relative coordinates on the map of the point of interest with respect to the coordinate on the map of the traffic light recognized by the camera. In addition, the screen is divided into a plurality of reference areas based on the traffic light, depending on where the position of the map of the point of interest is to the left and right of the traffic light, and whether the position of the point of interest is closer than the vehicle to the position of the map of the traffic light. Or, depending on how far you are, the point of interest corresponds to either reference area. If the 2D image coordinates calculated directly from the location on the map of the point of interest deviate from the reference region, the point of interest coordinates corresponding to the reference region are output on the screen instead of the 2D image coordinates. In addition, the coordinate of the point of interest includes a coordinate representatively representing the point of interest and additional coordinates indicating an entrance and exit of the point of interest.

Description

영상 차량 항법 장치 및 방법{IMAGE CAR NAVIGATION SYSTEM AND METHOD}Image Vehicle Navigation System and Method {IMAGE CAR NAVIGATION SYSTEM AND METHOD}

본 발명은 차량 항법 장치 및 방법에 관한 것으로서, 특히 차량에 장착된 카메라에 의하여 실시간으로 수집되는 영상에 관심 지점(Point of Interest, POI)을 표시하는 차량 항법 장치 및 방법에 관한 것이다.The present invention relates to a vehicle navigation apparatus and method, and more particularly, to a vehicle navigation apparatus and method for displaying a point of interest (POI) in an image collected in real time by a camera mounted on a vehicle.

본 발명은 정보통신부 및 정보통신연구진흥원의 IT성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-114-03, 과제명: 텔레매틱스용 실감컨텐츠 구축/관리 기술 개발].The present invention is derived from the research conducted as part of the IT growth engine core technology development project of the Ministry of Information and Communication and the Ministry of Information and Communication Research and Development. [Task Management No .: 2005-S-114-03, Title: Construction of Realistic Content for Telematics / Management skills development].

2차원의 지도 형태로 차량의 진행을 안내하는 지도 기반 차량 항법 시스템에서는, 아이콘이나 텍스트의 형태로 지도 화면에 관심 지점(Point of Interest, POI)을 표시한다. POI는 건물, 공원, 시설물 등의 객체를 말하며, POI 정보는 지도 좌표계 상의 점 또는 면 형태의 좌표와 텍스트 정보로 구성된 데이터를 포함한다.In a map-based vehicle navigation system for guiding vehicle progress in a two-dimensional map form, points of interest (POIs) are displayed on a map screen in the form of icons or text. POI refers to objects such as buildings, parks, and facilities. POI information includes data consisting of coordinates and text information in the form of points or planes on a map coordinate system.

또한, 차량에 장착된 카메라에 의하여 실시간으로 수집된 영상에 의해 차량의 주행을 안내하는 영상 차량 항법 장치에서는, 차량의 전방 영상 위에 중첩하여 POI를 표시한다. 그런데 POI를 영상에 출력하기 위해서는 정확한 카메라의 위치와 자세가 필요하다. 2차원 지도 기반 차량 항법 시스템에서는 차량의 대략적인 위치만 확인되면 경로 안내나 지도 출력 등의 기능을 수행하는 데 큰 문제가 없지만, 영상 차량 항법 시스템에서는 카메라 위치와 자세의 조그만 오차도 차량 항법 기능에 큰 영향을 미친다. 예를 들어, 넓은 도로의 1차선으로 주행하는 경우와 4차선으로 주행하는 경우는 보통의 GPS 수신기와 2차원 차량 항법 시스템의 기능으로는 구분하기 어렵고 구분할 필요도 없지만, POI 정보의 영상 출력에는 큰 차이를 가져오게 된다. In addition, the video vehicle navigation apparatus that guides the driving of the vehicle by the image collected in real time by the camera mounted on the vehicle displays the POI superimposed on the front image of the vehicle. However, in order to output POI to an image, the exact camera position and posture are required. In the two-dimensional map-based vehicle navigation system, if the approximate location of the vehicle is identified, there is no big problem in performing functions such as route guidance or map output.However, in the video vehicle navigation system, even a small error in the camera position and attitude is not included in the vehicle navigation function. Great influence For example, driving in one lane of a wide road and driving in four lanes are difficult to distinguish and do not need to be distinguished by the functions of a normal GPS receiver and a two-dimensional vehicle navigation system. It makes a difference.

종래에는 정확한 카메라 정보를 얻기 위해, 자이로스코프와 같은 관성 센서를 이용하여 카메라의 위치 및 자세 정보를 보정하는 기술이 알려져 있다. 또한, 자이로스코프와 같은 관성 센서와 경사계를 이용하여 카메라의 방위각 및 경사각을 검출하는 기술도 종래 알려져 있다.Conventionally, a technique of correcting the position and attitude information of a camera using an inertial sensor such as a gyroscope has been known in order to obtain accurate camera information. In addition, a technique for detecting an azimuth and an inclination angle of a camera using an inertial sensor such as a gyroscope and an inclinometer is also known in the art.

2차원 지도 기반 차량 항법 시스템에서는 고려되지 않지만 영상 차량 항법 시스템에서 고려해야 할 또 하나의 사항은, 도로변의 입구에서 건물이 멀리 떨어져 있거나 건물 영역이 매우 큰 경우, 건물의 실제 위치와 POI의 영상 출력 위치에 차이가 발생할 수 있다는 점이다. 예를 들어, 건물의 중심점만이 POI 좌표로 저장되어 있는 경우에, 건물로 진입하기 위한 입구는 실제로 도로변에 있어 시야에 보이지만, 건물 자체가 POI로서 화면에 출력되지 않는 경우가 발생할 수 있다.Another consideration that is not considered in two-dimensional map-based vehicular navigation systems, but also considered in visual vehicular navigation systems is that the building's actual position and the POI's image output position if the building is far from the entrance of the roadside or the building area is very large. Is that a difference can occur. For example, if only the center point of a building is stored in POI coordinates, the entrance for entering the building may actually be visible on the roadside, but the building itself may not be output on the screen as a POI.

종래의 영상 차량 항법 장치는 정확한 카메라 정보를 얻기 위해 고가의 관성 센서를 사용하기 때문에 제작 단가가 상승하는 문제점이 있다. 또한, 종래의 영상 차량 항법 장치는 POI에 대한 단일 좌표만을 제공하기 때문에, 시야에는 대형 건물이 들어오지만 해당 건물이 POI로서 영상에 출력되지 않는 경우가 있어서, 운전자에게 정확한 길 안내를 할 수 없는 문제점이 있다.The conventional video vehicle navigation apparatus has a problem in that the manufacturing cost increases because an expensive inertial sensor is used to obtain accurate camera information. In addition, since the conventional video vehicle navigation apparatus provides only a single coordinate with respect to the POI, a large building enters the field of view, but the building may not be output as a POI in the image. There is this.

따라서 본 발명의 목적은, 저가이면서 정확한 카메라 정보를 취득할 수 있는 영상 차량 항법 장치 및 방법을 제공하는 것이다. It is therefore an object of the present invention to provide a video vehicle navigation apparatus and method capable of obtaining low cost and accurate camera information.

본 발명의 다른 목적은, 고가의 관성 센서 없이도 GPS 수신기와 카메라만을 사용하고, 카메라에서 취득된 영상으로부터 인식한 결과를 활용하여 POI 정보를 실시간 영상에 중첩하여 출력할 수 있는 영상 차량 항법 장치 및 방법을 제공하는 것이다.It is another object of the present invention to use a GPS receiver and a camera without expensive inertial sensors, and a video vehicle navigation apparatus and method that can output POI information superimposed on a real-time video by using a result recognized from an image acquired by the camera. To provide.

본 발명의 또 다른 목적은, 종래의 POI 데이터 구성 방식과는 달리 POI 좌표(점 또는 면)와 연관된 추가적인 점 데이터를 사용함으로써 건물이 화면에 나타나지 않는 경우에도 주행중에 도로변에서 실제 필요한 출입구의 위치를 화면상에 출력하여 운전자의 길찾기를 도와줄 수 있는 영상 차량 항법 장치 및 방법을 제공하는 것이다.Another object of the present invention is to use the additional point data associated with POI coordinates (points or faces), unlike conventional POI data organization, so that even if the building does not appear on the screen, the actual position of the required entrance on the roadside while driving The present invention provides a vehicle navigation apparatus and method for outputting on a screen to help a driver find directions.

상기와 같이 목적을 달성하기 위한 본 발명의 영상 차량 항법 장치는, 관심 지점을 화면에 표시하기 위한 영상 차량 항법 장치로서, 차량에 장착된 카메라로부 터 상기 화면을 취득하는 데이터 입력부와, 상기 화면으로부터 기준 객체를 인식하는 영상 인식부와, 상기 관심 지점 및 기준 객체의 지도 상의 위치에 관한 정보를 제공하는 전자 지도부와, 상기 기준 객체의 지도 상의 위치와 상기 관심 지점의 지도 상의 위치 사이의 상대적인 위치 관계를 이용하여 상기 기준 객체를 기준으로 한 상기 관심 지점의 상기 화면 상의 관심 지점 위치를 결정하는 연산부와, 상기 화면 상의 상기 관심 지점 위치에 상기 관심 지점을 표시하는 출력부를 포함한다. The video vehicle navigation apparatus of the present invention for achieving the object as described above is a video vehicle navigation apparatus for displaying a point of interest on the screen, a data input unit for obtaining the screen from a camera mounted on the vehicle, and the screen An image recognizing unit for recognizing a reference object from an electronic map unit, an electronic map unit providing information about the point of interest and a position on a map of the reference object, and a relative position between a position on the map of the reference object and a position on the map of the point of interest And a calculator configured to determine a location of the point of interest on the screen of the point of interest based on the reference object using a relationship, and an output unit to display the point of interest at the point of interest on the screen.

또한, 상기와 같은 목적을 달성하기 위해 본 발명의 영상 차량 항법 방법은, 관심 지점을 화면에 표시하기 위한 영상 차량 항법 방법으로서, (a) 차량에 장착된 카메라로부터 상기 화면을 데이터 입력부에 의해 취득하는 단계와, (b) 영상 인식부에 의해, 상기 화면으로부터 기준 객체를 인식하는 단계와, (c) 전자 지도부에 의해 제공되는 상기 기준 객체의 지도 상의 위치와 상기 관심 지점의 지도 상의 위치 사이의 상대적인 위치 관계를 이용하여 상기 기준 객체를 기준으로 한 상기 관심 지점의 상기 화면 상의 관심 지점 위치를 연산부에 의해 결정하는 단계와, (d) 출력부에 의해, 상기 화면 상의 상기 관심 지점 위치에 상기 관심 지점을 표시하는 단계를 포함한다.In addition, in order to achieve the above object, the video vehicle navigation method of the present invention is a video vehicle navigation method for displaying a point of interest on a screen, comprising: (a) acquiring the screen by a data input unit from a camera mounted on a vehicle; (B) recognizing, by the image recognition unit, a reference object from the screen, and (c) between a location on the map of the reference object provided by the electronic map unit and a location on the map of the point of interest. Determining a location of the point of interest on the screen of the point of interest based on the reference object by using a relative position relationship, and (d) by the outputting unit, the point of interest on the point of interest on the screen Marking a point.

이때 기준 객체는 신호등이 될 수 있다.In this case, the reference object may be a traffic light.

따라서 본 발명에 따르면, 기존의 고가의 관성 센서 없이도 기준 객체에 대한 관심 지점의 상대적인 지도 상의 위치만으로, 관심 지점을 특정할 수 있다.Therefore, according to the present invention, the point of interest may be specified only by the position on the map of the point of interest relative to the reference object without the existing expensive inertial sensor.

또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 연산부는, 상기 기 준 객체를 기준으로 상기 화면을 복수의 화면 기준 영역으로 분할하는 화면 기준 영역 설정부를 포함하고, 상기 화면 기준 영역 설정부는, 상기 관심 지점을 상기 복수의 화면 기준 영역 중 하나의 화면 기준 영역에 대응시킴으로써 상기 관심 지점 위치를 결정한다. 이때, 화면 기준 영역에 대한 관심 지점의 대응 관계는, 차량과 기준객체와 관심 지점 사이의 위치 관계에 의해 결정된다.In addition, in the video vehicle navigation apparatus and method of the present invention, the operation unit comprises a screen reference area setting unit for dividing the screen into a plurality of screen reference areas on the basis of the reference object, the screen reference area setting unit, The location of the point of interest is determined by corresponding the point of interest to one screen reference area of the plurality of screen reference areas. In this case, the correspondence relationship of the point of interest with respect to the screen reference area is determined by the positional relationship between the vehicle, the reference object, and the point of interest.

또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 출력부는, 상기 관심 지점의 지도 상의 위치로부터 2차원 영상 좌표를 계산하고, 상기 관심 지점 위치가 대응되어 있는 화면 기준 영역에서 상기 2차원 영상 좌표가 벗어나 있는 경우에는, 상기 2차원 영상 좌표에 상기 관심 지점을 표시하는 대신에 상기 관심 지점 위치에 상기 관심 지점을 표시한다.In addition, in the video vehicle navigation apparatus and method of the present invention, the output unit calculates the two-dimensional image coordinates from the position on the map of the point of interest, and the two-dimensional image coordinates in the screen reference region to which the position of the point of interest corresponds. If is away, the point of interest is displayed at the point of interest instead of the point of interest in the two-dimensional image coordinates.

따라서, 3차원 지도 좌표로부터 계산된 관심 지점의 2차원 영상 좌표에 에러가 있는 경우에, 그 2차원 영상 좌표 대신에, 기준 영역 설정 과정에서 특정된 관심 지점 위치에 해당 관심 지점을 표시할 수 있기 때문에, 화면 상에 보다 정확한 위치에 관심 지점을 표시할 수 있다.Therefore, when there is an error in the 2D image coordinates of the point of interest calculated from the 3D map coordinates, instead of the 2D image coordinates, the point of interest may be displayed at the point of interest point specified in the reference region setting process. Therefore, the point of interest can be displayed at a more accurate position on the screen.

또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 영상 인식부는 상기 화면으로부터 상기 차량 전방의 차선을 인식하는 차선 인식부를 포함하고, 상기 연산부는 상기 차선 인식부에 의해 인식된 차선에 관한 정보로부터 상기 차량의 차량 방위각을 연산하는 방위각 연산부를 포함할 수 있다.In addition, in the video vehicle navigation apparatus and method of the present invention, the image recognition unit includes a lane recognition unit for recognizing the lane in front of the vehicle from the screen, the operation unit from the information on the lane recognized by the lane recognition unit It may include an azimuth calculation unit for calculating a vehicle azimuth angle of the vehicle.

이때, 상기 출력부는, 상기 관심 지점의 지도 상의 위치로부터 2차원 영상 좌표를 계산하는 데 이용하는 차량 방위각으로서, 상기 연산부에 의해 연산된 차량 방위각과 GPS 수신기로부터 제공받은 차량 방위각 중 어느 하나의 차량 방위각을 선택할 수 있다.In this case, the output unit is a vehicle azimuth used to calculate two-dimensional image coordinates from a position on the map of the point of interest, and the vehicle azimuth from one of the vehicle azimuth calculated by the calculating unit and the GPS receiver provided by the GPS receiver. You can choose.

따라서, GPS 데이터에 대한 신뢰도가 높은 차속 구간(예컨대 20km/h)에서는 GPS 수신기로부터의 차량 방위각을 이용하고, 그렇지 않은 경우에는 인식된 차선으로부터 연산된 차량 방위각을 이용할 수 있기 때문에, 지도 상의 관심 지점 위치로부터 2차원 영상 좌표를 계산하는 데 이용될 차량 방위각을 보다 정확하게 특정할 수 있다.Therefore, the vehicle azimuth from the GPS receiver can be used in a vehicle speed section (for example, 20 km / h) with high reliability for the GPS data, and otherwise, the vehicle azimuth calculated from the recognized lane can be used. It is possible to more accurately specify the vehicle azimuth to be used to calculate the two-dimensional image coordinates from the position.

또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 영상 인식부는 상기 화면으로부터 인식한 차선에 관한 정보로부터 상기 차량의 주행 차로를 인식하는 주행 차로 인식부를 포함하고, 상기 연산부는, 상기 차선 인식부에 의해 인식된 주행 차로에 관한 정보로부터 상기 차량의 위치를 연산하는 위치 연산부를 포함할 수 있다.In addition, in the video vehicle navigation apparatus and method of the present invention, the image recognition unit includes a driving lane recognition unit for recognizing the driving lane of the vehicle from the information on the lane recognized from the screen, the operation unit, the lane recognition unit It may include a position calculation unit for calculating the position of the vehicle from the information on the driving lane recognized by the.

이때, 상기 데이터 입력부는 GPS 수신기로부터 상기 차량의 위치 정보를 수신하고, 상기 위치 연산부는, 상기 GPS 수신기로부터 수신한 차량의 위치 정보를, 상기 주행 차로 인식부에 의해 인식된 주행 차로에 관한 정보에 의해 보정함으로써 상기 차량의 위치를 연산한다.In this case, the data input unit receives position information of the vehicle from a GPS receiver, and the position calculating unit stores the position information of the vehicle received from the GPS receiver on information about the driving lane recognized by the driving lane recognition unit. By calculating by calculating the position of the vehicle.

따라서, GPS 수신기로부터의 정보에 의해 도로의 중심선으로 특정된 차량의 위치에 대해 도로 중심선으로부터 직각인 방향의 거리 오차를 없앨 수 있다. Therefore, it is possible to eliminate the distance error in the direction perpendicular to the road center line with respect to the position of the vehicle specified as the center line of the road by the information from the GPS receiver.

또한, 본 발명의 영상 차량 항법 장치 및 방법에서, 상기 관심 지점은 지도 상의 복수의 관심 지점 좌표에 연관되어 있으며, 상기 연산부는 상기 상대적인 위치 관계를 결정하기 위해, 상기 복수의 관심 지점 좌표 중 어느 하나의 관심 지점 좌표를 상기 관심 지점의 상기 지도 상의 위치로 특정할 수 있다.In addition, in the apparatus and method of the image vehicle navigation system of the present invention, the point of interest is associated with a plurality of point of interest coordinates on a map, and the calculating unit is any one of the plurality of point of interest coordinates to determine the relative positional relationship. A point of interest coordinate of may be specified as a location on the map of the point of interest.

따라서 관심 지점을 대표하는 좌표와 그 좌표와 링크되어 해당 관심 지점의 출입구 등을 나타내는 좌표를 포함하는 복수의 좌표에 의해 필요에 따라 관심 지점의 위치를 화면 상에 나타낼 수 있기 때문에, 관심 지점을 보다 정확하게 특정할 수 있다.Therefore, the position of the point of interest may be displayed on the screen as needed by a plurality of coordinates including coordinates representing the point of interest and coordinates linked with the coordinates to indicate an entrance and the like of the point of interest. Can be specified precisely.

본 발명에 따르면, 기존의 고가의 관성 센서 없이도 기준 객체에 대한 관심 지점의 상대적인 지도 상의 위치만으로 관심 지점을 특정할 수 있는 효과가 있다.According to the present invention, there is an effect that the point of interest can be specified only by the position on the map of the point of interest relative to the reference object without the existing expensive inertial sensor.

또한, 본 발명에 따르면, 3차원 지도 좌표로부터 계산된 관심 지점의 2차원 영상 좌표에 에러가 있는 경우에, 그 2차원 영상 좌표 대신에, 기준 영역 설정 과정에서 특정된 관심 지점 위치에 해당 관심 지점을 표시할 수 있기 때문에, 화면 상에 보다 정확한 위치에 관심 지점을 표시할 수 있는 효과가 있다.Further, according to the present invention, when there is an error in the 2D image coordinates of the point of interest calculated from the 3D map coordinates, instead of the 2D image coordinates, the point of interest corresponding to the point of interest specified in the reference region setting process is specified. Since it can be displayed, there is an effect that can display the point of interest in a more accurate position on the screen.

또한, 본 발명에 따르면, GPS 데이터에 대한 신뢰도가 높은 차속 구간(예컨대 20km/h)에서는 GPS 수신기로부터의 차량 방위각을 이용하고, 그렇지 않은 경우에는 인식된 차선으로부터 연산된 차량 방위각을 이용할 수 있기 때문에, 지도 상 의 관심 지점 위치로부터 2차원 영상 좌표를 계산하는 데 이용될 차량 방위각을 보다 정확하게 특정할 수 있다.In addition, according to the present invention, since the vehicle azimuth angle from the GPS receiver can be used in the vehicle speed section (for example, 20 km / h) with high reliability for GPS data, otherwise the vehicle azimuth calculated from the recognized lane can be used. For example, the vehicle azimuth angle to be used to calculate the two-dimensional image coordinates from the location of the point of interest on the map can be more accurately specified.

또한, 본 발명에 따르면, GPS 수신기로부터의 정보에 의해 도로의 중심선으로 특정된 차량의 위치에 대해 도로 중심선으로부터 직각인 방향의 거리 오차를 없앨 수 있는 효과가 있다.In addition, according to the present invention, there is an effect that can eliminate the distance error in the direction perpendicular to the road centerline with respect to the position of the vehicle specified as the centerline of the road by the information from the GPS receiver.

또한, 본 발명에 따르면, 관심 지점을 대표하는 좌표와 그 좌표와 링크되어 해당 관심 지점의 출입구 등을 나타내는 좌표를 포함하는 복수의 좌표에 의해 필요에 따라 관심 지점의 위치를 화면 상에 나타낼 수 있기 때문에, 관심 지점을 보다 정확하게 특정할 수 있는 효과가 있다.In addition, according to the present invention, the position of the point of interest may be displayed on the screen as needed by a plurality of coordinates including coordinates representing the point of interest and coordinates linked to the coordinates to indicate the entrance and exit of the point of interest. Therefore, there is an effect that can more accurately specify the point of interest.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예를 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention.

도 1은 본 발명의 실시예에 따른 영상 차량 항법 장치의 구성도이고, 도 2는 도 2의 세부 구성도이다. 영상 차량 항법 장치(100)는 데이터 입력부(10), 전자 지도부(20), 영상 인식부(30), 연산부(40), 및 출력부(50)를 포함한다. 1 is a configuration diagram of a video vehicle navigation apparatus according to an embodiment of the present invention, Figure 2 is a detailed configuration diagram of FIG. The image vehicle navigation apparatus 100 includes a data input unit 10, an electronic map unit 20, an image recognition unit 30, an operation unit 40, and an output unit 50.

데이터 입력부(10)는, 도시되지 않은 GPS 수신기와 카메라로부터 차량의 현재 위치와 차량 전방의 영상을 취득한다. 전자 지도부(20)는, POI의 위치 좌표값 및 해당 POI를 설명하는 텍스트(예를 들어 'ABC 빌딩'과 같은 건물 명칭)를 포함하는 POI 데이터, 신호등의 위치 좌표값을 포함하는 신호등 데이터, 및 전자도로 지 도를 포함하며, 차량의 현재 위치와 연관된 POI 데이터 및 신호등 데이터를 검색하여 전자도로 지도에 맵매칭한다. 영상 인식부(30)는 카메라로부터 취득되는 도로 영상에서 차선과 신호등을 인식하고 차량의 현재 주행차로 위치를 계산한다. 연산부(40)는 GPS 신호로부터 차량 방위각을 산출하고 영상 인식부(30)로부터 전송받은 차선 및 신호등의 영상 좌표와 차량의 현재 주행차로 위치에 의하여 차량 방위각과 현재 차량 위치를 계산한다. 출력부(50)는 차량 위치와 차량 방위각을 사용하여 POI 좌표를 영상 좌표로 변환하여 영상에 중첩하여 출력한다.The data input unit 10 acquires a current position of the vehicle and an image in front of the vehicle from a GPS receiver and a camera not shown. The electronic map unit 20 includes POI data including a position coordinate value of the POI and text describing the POI (for example, a building name such as an ABC building), traffic light data including a position coordinate value of a traffic light, and Including maps of the electronic road, POI data and traffic light data associated with the current position of the vehicle are retrieved and mapped onto the electronic road map. The image recognition unit 30 recognizes a lane and a traffic light in the road image acquired from the camera and calculates a position of the current driving lane of the vehicle. The calculation unit 40 calculates the vehicle azimuth angle from the GPS signal and calculates the vehicle azimuth angle and the current vehicle position based on the image coordinates of the lanes and the traffic lights received from the image recognition unit 30 and the current driving lane position of the vehicle. The output unit 50 converts the POI coordinates into image coordinates by using the vehicle position and the vehicle azimuth angle and outputs the image superimposed on the image.

본 명세서에서는, 도로에서 차량이 주행하는 넓이를 가지는 영역을 '차로'라고 하고, 이를 구분하는 선(중앙선과 도로 경계선 포함)을 '차선'이라고 한다. 또한, '주행차로 위치'는 도로의 중앙선부터 순서대로 부여한 차로의 번호를 말하며, 예컨대 편도 4차로 도로에서 차량이 중앙에서 두 번째 차로를 주행중이라면, 주행차로 위치=2가 된다. '차량 방위각'은 지도 좌표계의 N축에 대하여 차량의 진행 방향(카메라의 광학 축이 향하는 방향과 동일)이 이루는 각도를 말한다.In the present specification, an area having an area on which a vehicle travels on a road is referred to as a 'lane', and a line (including a center line and a road boundary line) for dividing it is referred to as a 'lane'. In addition, the driving lane position refers to the number of lanes sequentially given from the center line of the road. For example, if the vehicle is driving on the second lane from the center on the one-way four-way road, the driving lane position = 2. 'Vehicle azimuth' refers to the angle formed by the traveling direction of the vehicle (the same direction that the optical axis of the camera faces) with respect to the N axis of the map coordinate system.

또한, 본 실시예에서는 POI의 영상 표시를 위한 기준 객체로서 신호등을 이용하였지만, 다른 객체들과의 식별력이 높고 배치 밀도가 높은 객체라면 신호등 이외의 다른 객체를 기준 객체로서 이용할 수 있다.In addition, in the present embodiment, a traffic light is used as a reference object for displaying the image of the POI, but an object other than the traffic light may be used as the reference object as long as the object has a high discrimination power and a high density of arrangement with other objects.

도 2에는 도 1의 영상 차량 항법 장치(100)의 세부 구성도가 도시되어 있다. 데이터 입력부(10)는 차량 전방의 실시간 영상을 취득하기 위한 카메라(11)와 차량 위치, 차량 방위각, 및 차량 속도를 포함하는 GPS 데이터를 얻기 위한 GPS 수신 기(12)로 구성된다. 카메라의 방향은 차량의 진행 방향과 평행하다고 가정하고 차량의 진행 방향과 카메라의 방향은 동일한 의미로 한다. 또한, 카메라(11)와 GPS 수신기(12)는 그들 사이의 거리가 무시될 수 있을 정도로 가깝게 위치한다.FIG. 2 is a detailed block diagram of the video vehicle navigation apparatus 100 of FIG. 1. The data input unit 10 includes a camera 11 for acquiring a real-time image of the front of the vehicle and a GPS receiver 12 for acquiring GPS data including a vehicle position, a vehicle azimuth angle, and a vehicle speed. The direction of the camera is assumed to be parallel to the direction of travel of the vehicle, and the direction of travel of the vehicle and the direction of the camera are the same. In addition, the camera 11 and the GPS receiver 12 are located so close that the distance between them can be ignored.

전자 지도부(20)는 전자도로 지도부(21), 맵매칭 처리부(22), POI 데이터부(23), POI 검색부(24), 신호등 데이터부(25), 신호등 검색부(26)를 포함한다. 전자도로 지도부(21)는 도로의 좌표를 가지고 있다. The electronic map unit 20 includes an electronic road map unit 21, a map matching processing unit 22, a POI data unit 23, a POI search unit 24, a traffic light data unit 25, and a traffic light search unit 26. . The electronic road map unit 21 has the coordinates of the road.

맵매칭 처리부(22)는 GPS 수신기(12)로부터 GPS 좌표를 수신하고 맵매칭 과정을 수행한다. 맵매칭 방법은 유일한 것은 아니며, 예컨대 현재 GPS 좌표를 전자도로 지도부(21)의 도로 좌표와 비교 연산하여 현재 GPS 좌표와 가장 가까운 도로 상의 위치를 계산한다. 즉 맵매칭 처리부(22)는, GPS 좌표값에 존재하는 오차를 최소화시키기 위해, 해당 GPS 좌표값과 가장 가까운 도로상의 위치로서 도로의 중앙선으로 차량의 위치를 맵매칭한다. 따라서 도로의 중심선과 직각인 방향의 GPS 오차가 제거된다. 상기와 같은 맵매칭 과정을 통해 얻어진 좌표값은 연산부(40)로 전송된다.The map matching processor 22 receives GPS coordinates from the GPS receiver 12 and performs a map matching process. The map matching method is not unique. For example, the current GPS coordinates are compared with the road coordinates of the electronic road map unit 21 to calculate a position on the road closest to the current GPS coordinates. That is, the map matching processing unit 22 maps the position of the vehicle to the center line of the road as the position on the road closest to the GPS coordinate value in order to minimize the error existing in the GPS coordinate value. Therefore, the GPS error in the direction perpendicular to the center line of the road is eliminated. The coordinate values obtained through the map matching process as described above are transmitted to the calculator 40.

POI 데이터부(23)는 다양한 객체들(건물, 공원, 시설물 등)에 대한 각각의 POI 좌표값과 텍스트 속성값을 가지고 있다. 건물의 경우, POI 좌표는 건물 자체의 위치를 대표적으로 나타내는 객체 좌표값에, 해당 건물의 도로변 출입구 위치를 나타내는 추가 좌표값이 링크되어 구성된다. 이러한 데이터 구성 방법에 대해 도 3을 참조하여 더 자세히 설명한다.The POI data unit 23 has respective POI coordinate values and text attribute values for various objects (buildings, parks, facilities, etc.). In the case of a building, the POI coordinate is configured by linking an additional coordinate value indicating a location of a doorway entrance of the building to an object coordinate value representatively representing the location of the building itself. This data configuration method will be described in more detail with reference to FIG. 3.

도 3의 (b)는 객체 자체(즉 시청 자체)의 좌표값을 포함하는 객체 좌표값 테 이블이다. 객체 좌표값들은 '시청'과 같은 텍스트 속성값에 의해 서로 구분된다. 도 3의 (c)는 건물의 도로변 출입구 위치를 추가적으로 나타내는 좌표값들을 포함하는 추가 좌표값 테이블이다. 추가 좌표값들은 '정문', '동문'과 같은 텍스트 속성값에 의해 서로 구분된다. 객체 좌표값 테이블과 추가 좌표값 테이블은 '명칭'에 의해 링크되어 있다. '시청'의 경우 '동문'과 '서문'의 추가 좌표값이 시청 자체의 객체 좌표값에 링크되어 있다. 3B is an object coordinate value table including coordinate values of the object itself (ie, the viewing itself). Object coordinate values are distinguished from each other by text attribute values such as 'viewing'. 3C is an additional coordinate value table including coordinate values additionally indicating a location of a roadside entrance of a building. Additional coordinate values are distinguished from each other by text attribute values such as 'main gate' and 'east gate'. The object coordinate table and the additional coordinate table are linked by 'name'. In the case of 'viewing', additional coordinate values of 'alumni' and 'preface' are linked to the object coordinates of the city hall itself.

POI 검색부(24)는 텍스트 속성값과 좌표값 등의 조건에 따라 POI 데이터부(23)의 POI 정보를 검색한다. 도 3의 (a)에서, 시청을 목적지로 하여 A방향으로 차량이 주행하는 경우에, POI 검색부(24)는 시청 자체의 객체 좌표값이 아닌 '정문'의 추가 좌표값을 검색한다. 이때 시청 자체의 객체 좌표값이나 '동문' 추가 좌표값을 사용하게 되면, 화면 상에 그러한 좌표값이 나타나지 않는다. 마찬가지로 시청을 목적지로 하여 B방향으로 차량이 주행하는 경우, POI 검색부(24)는 '동문' 추가 좌표값을 검색한다.The POI retrieval unit 24 retrieves POI information of the POI data unit 23 according to conditions such as text attribute values and coordinate values. In FIG. 3A, when the vehicle travels in the A direction with the city hall as the destination, the POI search unit 24 searches for additional coordinate values of the 'main gate' rather than the object coordinate value of the city hall itself. In this case, if the object coordinate value of the city hall itself or additional coordinate value of 'alumni' is used, such coordinate value does not appear on the screen. Similarly, when the vehicle travels in the B direction with the city hall as the destination, the POI retrieval unit 24 searches for an additional alumni coordinate value.

신호등 데이터부(25)는 도로 상의 신호등의 좌표값을 포함하는 신호등 정보를 가지고 있으며, 신호등 검색부(26)는 연산부(40)에서 필요로 하는 신호등 정보를 신호등 데이터부(25)로부터 검색하여 연산부(40)에 전송한다.The traffic light data unit 25 has traffic light information including coordinate values of traffic lights on the road, and the traffic light search unit 26 retrieves the traffic light information required by the operation unit 40 from the traffic light data unit 25 and calculates the operation unit. To 40.

연상 인식부(30)는 차선 인식부(31), 주행차로 인식부(32) 및 신호등 인식부(33)를 포함한다.The association recognition unit 30 includes a lane recognition unit 31, a driving lane recognition unit 32, and a traffic light recognition unit 33.

차선 인식부(31)는 카메라에서 취득된 영상으로부터 차선을 인식한다. 예를 들어, 차선 인식부(31)는 차량 전방의 영상을 화상 처리하여 차량 좌우측의 차선 데이터를 추출한 다음에 이 차선 데이터를 미리 저장되어 있는 차로 인식 패턴 데이터와 비교하는 공지의 방법에 의해 차선을 인식할 수 있다. 차선 인식부(31)는 그와 같이 인식된 값을 영상 좌표 상에서 파라미터로 표현된 직선의 형태로 주행 차로 인식부(32) 및 연산부(40)에 전송한다. The lane recognizing unit 31 recognizes the lane from the image acquired by the camera. For example, the lane recognizing unit 31 performs image processing on the image in front of the vehicle, extracts lane data on the left and right sides of the vehicle, and then compares the lane data with previously stored lane recognition pattern data. I can recognize it. The lane recognizing unit 31 transmits the recognized value to the driving lane recognizing unit 32 and the calculating unit 40 in the form of a straight line expressed as a parameter on the image coordinates.

주행차로 인식부(32)는 카메라에서 취득된 영상으로부터 인식된 차선을 이용하여 현재 주행차로 위치를 계산하여 그 결과를 연산부(40)에 전송한다. 예를 들어, 각 차로가 다른 차로와 특징적으로 구분되도록 도로 상에 차선들이 그려져 있는 경우, 즉 중앙선은 직선 모양, 1차선의 우측 차선은 파선 모양, 2차선의 우측 차선은 일점쇄선 모양 등으로 구분되어 있는 경우, 서로 구분되는 차로에 대한 인식 패턴 데이터를 미리 저장해 두었다가, 차선 인식부(31)가 인식한 차선 인식 패턴과 일치하는 차선 인식 패턴을 그 저장된 인식 패턴 데이터로부터 검색함으로써, 차량이 현재 어느 주행차로로 주행 중인지를 판단하는 공지의 방법을 이용하여 현재 주행차로 위치를 계산할 수 있다.The driving lane recognition unit 32 calculates the position of the current driving lane using the lane recognized from the image acquired by the camera, and transmits the result to the calculation unit 40. For example, if lanes are drawn on the road so that each lane is distinguished from other lanes, that is, the center line is straight, the right lane of the first lane is broken, the right lane of the second lane is dotted, etc. In this case, the recognition pattern data for the lanes which are separated from each other are stored in advance, and the vehicle recognition pattern data corresponding to the lane recognition pattern recognized by the lane recognition unit 31 is retrieved from the stored recognition pattern data. The current driving lane position may be calculated using a known method of determining whether the driving lane is being driven.

신호등 인식부(33)가 신호등을 인식하는 과정은 차선 인식부(31)가 차선을 인식하는 과정과 비슷하다. 즉 신호등 인식부(33)는, 카메라가 취득한 차량 전방 영상을 처리하고, 이와 같은 처리에 의해 얻어진 영상 데이터로부터, 미리 저장되어 있는 신호등 인식 패턴 데이터와 일치하는 영상 데이터를 신호등으로서 인식하고 인식된 신호등의 영상 좌표값을 연산부(40)에 전송된다. 영상 좌표값은 영상 차량 항법 장치의 화면에 표시되는 영상에서의 좌표값을 말한다.The process of the traffic light recognition unit 33 to recognize the traffic light is similar to the process of the lane recognition unit 31 to recognize the lane. That is, the traffic light recognition unit 33 processes the vehicle front image acquired by the camera, and recognizes the image data corresponding to the signal light recognition pattern data stored in advance from the image data obtained by such a process as the traffic light and recognizes the traffic light. The image coordinate value of is transmitted to the calculator 40. The image coordinate value refers to a coordinate value in the image displayed on the screen of the image vehicle navigation apparatus.

연산부(40)는 맵매칭 처리부(22)에서 전송되어온 좌표값과 영상 인식부(30)로부터 전송되어온 영상 인식 결과로부터 차량 위치와 차량 방위각을 계산한다.The calculation unit 40 calculates the vehicle position and the vehicle azimuth angle from the coordinate values transmitted from the map matching processor 22 and the image recognition result transmitted from the image recognition unit 30.

위치 연산부(41)는, 맵매칭 처리부(22)에서 전송되어온 맵매칭 데이터로부터 인식된 현재의 차량 위치를 주행차로 인식부(31)에서 전송되어온 주행차로 위치 정보에 의해 보정한다. 전술한 바와 같이, 맵매칭 처리부(22)는 차량의 위치를 도로의 중앙선으로 맵매칭하기 때문에, 차량의 정확한 위치를 파악하기 위해서는 차량 위치에 대한 보정이 필요하다. 위치 연산부(41)는 주행차로 인식부(32)로부터 전송받은 주행차로 위치에 의해 차량의 주행차로 위치를 알고 있기 때문에, 위치 연산부(41)는 주행차로 위치와 차로의 폭으로부터 차량이 도로 중심선으로부터 직각인 방향으로 떨어져 있는 거리를 계산함으로써, 도로의 중앙선에 맵매칭되어 있는 차량의 위치를 실제의 차량 위치로 보정할 수 있다. 이때 차로의 폭은, 각 차로의 폭을 나타내는 정밀 데이터가 있을 경우에는 그것을 사용하고, 그렇지 않은 경우에는 지역에 따라 규격화되어 있는 값(예컨대 도시지역 도로의 경우 3.5 m)을 사용한다.The position calculating unit 41 corrects the current vehicle position recognized from the map matching data transmitted from the map matching processing unit 22 by the driving lane position information transmitted from the driving lane recognition unit 31. As described above, since the map matching processing unit 22 maps the position of the vehicle to the center line of the road, it is necessary to correct the position of the vehicle in order to determine the exact position of the vehicle. Since the position calculating unit 41 knows the position of the driving lane of the vehicle by the position of the driving lane received from the driving lane detecting unit 32, the position calculating unit 41 determines the position of the vehicle from the road center line from the position of the driving lane and the width of the lane. By calculating the distance away in the direction perpendicular to each other, the position of the vehicle map-matched to the center line of the road can be corrected to the actual vehicle position. At this time, the width of the lane is used when there is precise data indicating the width of each lane, and otherwise, a value standardized according to the region (for example, 3.5 m in the case of urban roads) is used.

방위각 연산부(42)는 차선 인식부(32)로부터 전송되어온 차선 정보를 이용하여 차량 방위각을 산출한다. 차선은 거의 대부분의 경우 도로 중앙선과 평행하므로 차량이 도로와 이루는 각도는 차량이 차선과 이루는 각도와 같다고 할 수 있다. 그러나 실제 차량 주행 중에는 차선과 차량이 평행하지 않고 각도를 형성할 때가 있으며, 이 경우에는 도로가 지도의 N축과 이루는 각도와 차량이 그 도로의 차선과 이루는 각도를 더하여 차량 방위각을 계산한다.The azimuth calculation unit 42 calculates the vehicle azimuth using the lane information transmitted from the lane recognizing unit 32. The lane is almost parallel to the center line of the road, so the angle that the vehicle makes with the road is the same as the angle that the vehicle makes with the lane. However, during actual driving, there are times when the lane and the vehicle are not parallel to form an angle. In this case, the vehicle azimuth is calculated by adding the angle formed by the road with the N-axis of the map and the angle formed by the vehicle with the lane of the road.

방위각 연산부(42)가 차량과 차선이 이루는 각도를 계산하는 방법은, 예를 들어, 다음과 같다. 차선 인식부(32)가 인식한 화면 상의 차량 좌우 차선으로부터 양 차선의 중앙을 향해 각각 가상의 법선을 그리고, 그 두 법선이 만나는 화면 상의 점을 지나는 가상의 수평축을 그었을 때, 좌측 차선으로부터의 법선과 수평축이 이루는 제1각도와 우측 차선으로부터의 법선과 수평축이 이루는 제2각도가 같으면, 차량과 차선이 이루는 각도는 0도라고 할 수 있을 것이다. 따라서 제1각도와 제2각도의 차이로부터 차량과 차선이 이루는 각도를 계산할 수 있다. 제1각도와 제2각도의 차이가 커질수록 차량과 차선이 이루는 각도는 비례적으로 증가할 것이다. 이와 같이 계산된 차량 방위각은, GPS 수신기(12)가 제공하는 차량 방위각과 함께 출력부(50)에 의해 선택적으로 이용된다.The azimuth calculation unit 42 calculates the angle between the vehicle and the lane, for example, as follows. Normal lines from the left lane when a virtual normal line is drawn from the left and right vehicle lanes on the screen recognized by the lane recognizing unit 32 toward the center of both lanes, and a virtual horizontal axis passing through the point on the screen where the two normal lines meet. If the first angle formed by the horizontal axis and the normal angle from the right lane and the second angle formed by the horizontal axis are the same, the angle formed by the vehicle and the lane may be 0 degrees. Therefore, the angle formed by the vehicle and the lane may be calculated from the difference between the first angle and the second angle. As the difference between the first and second angles increases, the angle between the vehicle and the lane will increase proportionally. The vehicle azimuth calculated in this way is selectively used by the output unit 50 together with the vehicle azimuth provided by the GPS receiver 12.

화면 기준영역 설정부(43)는, 신호등 인식부(33)로부터 전송받은 신호등의 영상 좌표값을 기준 좌표값으로서 이용하여 영상 차량 항법 장치의 화면을 다수의 기준 영역으로 분할하고, POI가 화면 상에 표현될 위치를 근사하기 위하여, POI 검색부(24)로부터 전송받은 POI의 위치 정보(좌표값)를, 신호등 검색부(26)로부터 전송받은 신호등의 위치 정보(좌표값)와 비교하여 POI를 화면 상에 분할된 화면 기준 영역에 대응시킨다. 즉 신호등의 위치를 원점으로 한 POI의 상대적인 위치에 따라 각 POI가 화면 상에 적절히 표시된다.The screen reference area setting unit 43 divides the screen of the video vehicle navigation apparatus into a plurality of reference areas by using the video coordinate values of the traffic lights received from the traffic light recognition unit 33 as the reference coordinate values, and the POI is displayed on the screen. In order to approximate the position to be expressed in the POI, the POI is compared with the position information (coordinate value) of the POI received from the POI search unit 24 with the position information (coordinate value) of the traffic light transmitted from the traffic light search unit 26. It corresponds to the screen reference area divided on the screen. That is, each POI is appropriately displayed on the screen according to the relative position of the POI with the position of the traffic light as the origin.

도 4를 참조하여 화면 기준영역 설정부(43)가 POI를 화면 상에 분할된 기준 영역에 대응시키는 방법을 설명한다. 도 4의 (a)의 지도 상에서 신호등의 좌표와 차량 위치를 연결한 점선(HL) 및 현재 진행 도로에 직각이면서 신호등 좌표를 지나 는 점선(VL)에 의하여 지도 영역을 4 영역으로 구분한다. 지도 상의 A, B, C, D, 및 E는 POI를 나타낸다. A method in which the screen reference area setting unit 43 corresponds to the reference area divided on the screen will be described with reference to FIG. 4. The map area is divided into four areas by a dotted line HL connecting the coordinates of the traffic light and the vehicle location on the map of FIG. 4A and a dotted line VL perpendicular to the current road and passing through the coordinates of the traffic light. A, B, C, D, and E on the map represent POIs.

도 4의 (b)는 영상 차량 항법 장치의 화면을 나타낸다. 화면 기준영역 설정부(43)는 먼저, 신호등 인식부(33)로부터 전송되어온 신호등의 영상 좌표값에 의해 화면 상에 신호등을 표시하고, 신호등을 기준으로 4개의 화면 기준 영역 S1, S2, S3, 및 S4로 화면을 구분한다. 4B illustrates a screen of the video vehicle navigation apparatus. The screen reference area setting unit 43 first displays a traffic light on the screen according to the image coordinate values of the traffic light transmitted from the traffic light recognition unit 33, and displays the four screen reference areas S1, S2, S3, And screen S4.

이어서 화면 기준영역 설정부(43)는, 차량에서 볼 때 지도 상에서 신호등보다 왼쪽에 나타나는 A, C, E의 POI는 화면에서 신호등보다 왼쪽의 화면 기준 영역(S1, S3)에 대응시키고, B, D의 POI는 화면에서 신호등보다 오른쪽의 화면 기준 영역(S2, S4)에 대응시킨다. 또한, 화면 기준 영역 설정부(43)는, 차량에서 볼 때 신호등보다 가까이 있는 A, B의 POI는 화면에서 신호등보다 위쪽의 화면 기준 영역(S1, S2)에 대응시키고, C, D, E의 POI는 화면에서 신호등보다 아래쪽의 화면 기준 영역(S3, S4)에 대응시킨다. 결과적으로, A, B, C, D, 및 E의 각 POI는 화면 상의 4개의 화면 기준 영역 중 하나에 대응된다. 도 4의 예의 경우, E의 POI는 S3의 화면 기준 영역에 배치될 것이고, B의 POI는 S2의 화면 기준 영역에 대응될 것이다.Subsequently, the screen reference area setting unit 43 matches the POIs of A, C, and E appearing on the map to the left of the traffic light on the map to correspond to the screen reference areas S1 and S3 to the left of the traffic light on the screen. POI of D corresponds to the screen reference areas S2 and S4 on the right side of the traffic light on the screen. In addition, the screen reference area setting unit 43 corresponds to the screen reference areas S1 and S2 above the traffic lights on the screen so that the POIs of A and B closer to the traffic lights when viewed from a vehicle, The POI corresponds to the screen reference areas S3 and S4 below the traffic light on the screen. As a result, each POI of A, B, C, D, and E corresponds to one of four screen reference areas on the screen. In the example of FIG. 4, the POI of E will be placed in the screen reference area of S3, and the POI of B will correspond to the screen reference area of S2.

한편, 화면 기준영역 설정부(43)는, 신호등의 좌표값과 각 POI의 좌표값을 알고 있기 때문에, 신호등의 좌표값을 원점으로 한 각 POI의 상대적인 좌표값에 의해 화면 상에 어느 정도 정확한 POI 표시 위치를 결정할 수 있다. 따라서 화면 기준영역 설정부(43)는, 화면 기준 영역을 구분하지 않고서도, 신호등의 좌표값에 대 한 각 POI의 상대적인 좌표값으로부터 해당 POI의 화면상의 표시 위치를 결정할 수 있지만, 본 실시예에서 기준 영역을 분할하는 이유는, 후술하는 출력부(50)에서 3차원 지도 좌표를 2차원 영상 좌표로 투영하여 계산한 POI의 영상 좌표가 화면 기준영역 설정부(43)에 의해 대응된 기준 영역에 대응하지 않게 되면, 해당 영상 좌표가 정확하게 계산된 것이 아니라는 것을 확인할 수 있기 때문이다.On the other hand, since the screen reference area setting unit 43 knows the coordinate value of the traffic light and the coordinate value of each POI, the POI is somewhat accurate on the screen by the relative coordinate value of each POI whose coordinate value of the traffic light is the origin. The display position can be determined. Therefore, the screen reference area setting unit 43 can determine the display position of the POI on the screen from the relative coordinate value of each POI with respect to the coordinate value of the traffic light without distinguishing the screen reference area. The reason for dividing the reference area is that the image coordinates of the POI calculated by projecting the three-dimensional map coordinates to the two-dimensional image coordinates by the output unit 50, which will be described later, correspond to the reference region corresponding to the screen reference area setting unit 43. If it does not correspond, it can be confirmed that the image coordinates are not calculated correctly.

출력부(50)는 차량 위치, 차량 방위각, 미리 알려진 카메라 파라미터, POI 데이터, 화면 기준 영역을 입력으로 하여 출력 대상 POI의 3차원 지도 좌표를 2차원 영상 좌표로 투영하여 계산한 POI의 영상 좌표를 출력한다. 이때, 출력부(50)는, GPS 수신기(12)로부터 제공받은 차량 속도에 따라, GPS 수신기(12)로부터 제공받은 차량 방위각과 방위각 연산부(42)에 의해 계산된 차량 방위각 중 어느 하나의 차량 방위각을 이용하여 POI의 영상 좌표를 계산한다. The output unit 50 inputs a vehicle position, a vehicle azimuth angle, a known camera parameter, POI data, and a screen reference area, and inputs the image coordinates of the POI calculated by projecting the three-dimensional map coordinates of the output target POI to two-dimensional image coordinates. Output At this time, the output unit 50, the vehicle azimuth angle of the vehicle azimuth angle calculated by the azimuth angle calculation unit 42 and the vehicle azimuth angle provided from the GPS receiver 12 according to the vehicle speed provided from the GPS receiver 12 Calculate the video coordinates of the POI.

구체적으로는, GPS 정보를 신뢰할 수 있다고 알려져 있는 20km/h 이상의 차량 속도에 대해서는, GPS 수신기(12)로부터 제공받은 차량 방위각이 사용되고, 20km/h 미만에서는 방위각 연산부(42)에 의해 계산된 차량 방위각이 사용된다. 또한, 차량 전방의 혼잡 등으로 인하여 차선이 제대로 인식되지 못하는 경우에는, 차량의 속도와 관계없이 GPS 수신기(12)로부터 제공받은 차량 방위각이 사용된다.Specifically, for a vehicle speed of 20 km / h or more, which is known to be reliable for GPS information, the vehicle azimuth angle provided from the GPS receiver 12 is used, and below 20 km / h, the vehicle azimuth angle calculated by the azimuth calculation unit 42 is used. This is used. In addition, when the lane is not properly recognized due to congestion in front of the vehicle, the vehicle azimuth angle provided from the GPS receiver 12 is used regardless of the speed of the vehicle.

또한, 출력부(50)는, 상기 계산된 POI의 영상 좌표의 화면 내 영역이 화면 기준 영역 설정부(43)에 의해 대응된 화면 기준 영역과 일치하는 지를 검사하여, 일치하지 않는 경우에는, 상기 계산된 POI의 영상 좌표가 아닌 화면 기준 영역 설 정부(43)에 의해 대응된 화면 기준 영역 상의 영상 좌표를 해당 POI의 영상 좌표로서 화면에 출력한다.In addition, the output unit 50 checks whether the on-screen area of the calculated video coordinates of the POI coincides with the screen reference area corresponding by the screen reference area setting unit 43. The image coordinates on the screen reference region corresponding to the screen reference region setting 43, not the calculated image coordinates of the POI, are output on the screen as the image coordinates of the corresponding POI.

또한, 출력부(50)는, 화면의 왼쪽에 위치하는 객체(건물 등)에 대해서는 해당 객체의 왼쪽에 꼬리가 붙은 3차원 간판의 형태로 POI 데이터의 텍스트 속성값(예: 건물 명칭 등)을 영상에 출력하며, 화면의 오른쪽에 위치하는 객체에 대해서는 해당 객체의 오른쪽에 꼬리가 붙은 3차원 간판의 형태로 POI 데이터의 텍스트 속성값을 영상에 출력한다. 또한, 영상에 출력되는 간판은, 화면 상의 다른 정보를 가리자 않도록, 어느 정도 투명하게 구성한다.In addition, the output unit 50, for the objects (buildings, etc.) located on the left side of the screen, the text attribute values (eg, building names, etc.) of the POI data in the form of a three-dimensional signboard with a tail on the left side of the object. For the object located on the right side of the screen, the text attribute value of POI data is output to the image in the form of a 3D sign with a tail on the right side of the object. In addition, the signboard output to the video is configured to some extent so as not to hide other information on the screen.

도 5에는 본 실시예의 영상 차량 항법 장치에 의한 동작의 흐름도가 도시되어 있다. 시스템이 시작되면(S61), 데이터 입력부(10)의 카메라(11)는 일정 프레임 레이트로 차량 전방의 영상을 취득하고 GPS 수신기는 일정 시간 간격으로 현재의 위치 좌표값, 차량 방위각, 및 차량 속도를 검출한다(S62). 5 is a flowchart of the operation by the video vehicle navigation apparatus of the present embodiment. When the system starts (S61), the camera 11 of the data input unit 10 acquires the image of the front of the vehicle at a constant frame rate, and the GPS receiver measures the current position coordinate value, the vehicle azimuth angle, and the vehicle speed at regular time intervals. It is detected (S62).

데이터 입력부(10)는 영상을 영상 인식부(30) 및 출력부(50)로 전송하고, 위치 좌표값을 전자 지도부(20)의 맵매칭 처리부(22)로 전송한다. 맵매칭 처리부(22)는 상기 위치 좌표값을 전자도로 지도부(21)에 있는 도로 상의 가장 가까운 지점(즉 중앙선)으로 근사시키는 맵매칭을 수행하여(S63) 맵매칭된 위치 좌표값을 연산부(40)로 전송한다.The data input unit 10 transmits an image to the image recognition unit 30 and the output unit 50, and transmits the position coordinate value to the map matching processing unit 22 of the electronic map unit 20. The map matching processing unit 22 performs map matching to approximate the position coordinate value to the nearest point (ie, the center line) on the road in the electronic road map unit 21 (S63) and calculates the map matched position coordinate value. To send).

영상 인식부(30)의 차선 인식부(32)는 수신된 영상에서 차선을 인식하고 그 결과를 주행차로 인식부(31)로 전송하고, 주행 차로 인식부(31)는 수신된 영상에서 차선 인식 결과를 이용하여 주행차로 위치를 계산한다(S64). 영상 인식부(30)의 신호등 인식부(33)는 수신된 영상에서 신호등을 인식한다(S65). 차선은 영상 좌표의 형태로, 신호등 인식 결과는 영상에 위치하는 신호등의 영상 좌표의 형태로, 그리고 주행차로 위치는 숫자(즉 2차선인 경우 '2')의 형태로 연산부(40)에 전송된다.The lane recognizing unit 32 of the image recognizing unit 30 recognizes the lane in the received image and transmits the result to the driving lane recognizing unit 31, and the driving lane recognizing unit 31 recognizes the lane in the received image. The driving lane position is calculated using the result (S64). The traffic light recognition unit 33 of the image recognition unit 30 recognizes the traffic light in the received image (S65). The lanes are transmitted to the operation unit 40 in the form of image coordinates, the result of the traffic light recognition in the form of image coordinates of the traffic lights positioned in the image, and the position of the driving lane in the form of numbers (that is, '2' in the case of two lanes). .

연산부(40)는, 전술한 바와 같은 방식으로, 차선의 영상 좌표로부터 차량 방위각을 산출하고, 주행차로 위치로부터 차량 위치를 보정하여 정확한 차량 위치를 산출한다(S66).The calculating unit 40 calculates the vehicle azimuth angle from the video coordinates of the lane in the manner described above, and calculates the correct vehicle position by correcting the vehicle position from the traveling lane position (S66).

다음으로 POI 검색부(24)는 POI 데이터로부터 출력 대상 POI를 검색한다(S68). 검색 방법은 도 3을 참조하여 상기에서 설명한 바와 같다. POI 검색부(24)는 검색한 POI 데이터(좌표값 및 텍스트 속성값)를 연산부(40)의 화면 기준 영역 설정부(43)로 전송한다. 그리고 화면 기준 영역 설정부(43)는 POI 데이터 중 좌표값과 차량 위치를 비교 연산하여 POI 좌표의 출력 영역을 화면 기준 영역 중 하나로 대응시킨다.  Next, the POI search unit 24 searches for the output target POI from the POI data (S68). The search method is as described above with reference to FIG. 3. The POI retrieval unit 24 transmits the retrieved POI data (coordinate values and text attribute values) to the screen reference area setting unit 43 of the operation unit 40. In addition, the screen reference area setting unit 43 compares the coordinate values of the POI data with the vehicle position and maps the output area of the POI coordinates to one of the screen reference areas.

마지막으로 출력부(50)는 차량 위치, 차량 방위각, 미리 알려진 카메라 파라미터, POI 데이터, 화면 기준 영역을 입력으로 하여 출력 대상 POI의 3차원 지도 좌표를 2차원 영상 좌표로 투영하여 계산한 POI의 영상 좌표를 출력한다. 이때, 출력부(50)는, GPS 수신기(12)로부터 제공받은 차량 속도에 따라(예컨대 20km/h 기준), GPS 수신기(12)로부터 제공받은 차량 방위각과 방위각 연산부(42)에 의해 계산된 차량 방위각 중 어느 하나의 차량 방위각을 이용하여 POI의 영상 좌표를 계산한다. 또한, 출력부(50)는, 상기 계산된 POI의 영상 좌표의 화면 내 영역이 화면 기준 영역 설정부(43)에 의해 대응된 화면 기준 영역과 일치하는 지를 검사하여, 일치하지 않는 경우에는, 상기 계산된 POI의 영상 좌표가 아닌 화면 기준 영역 설정부(43)에 의해 대응된 화면 기준 영역 상의 영상 좌표를 해당 POI의 영상 좌표로 출력한다(S69). Finally, the output unit 50 inputs the vehicle position, the vehicle azimuth angle, the known camera parameter, the POI data, and the screen reference area as inputs, and calculates the image of the POI calculated by projecting the three-dimensional map coordinates of the output target POI to the two-dimensional image coordinates. Output the coordinates. At this time, the output unit 50 is calculated by the vehicle azimuth and azimuth calculation unit 42 provided from the GPS receiver 12 according to the vehicle speed provided from the GPS receiver 12 (for example, 20 km / h basis). Image coordinates of the POI are calculated using one of the vehicle azimuths. In addition, the output unit 50 checks whether the on-screen area of the calculated video coordinates of the POI coincides with the screen reference area corresponding by the screen reference area setting unit 43. The image coordinates on the corresponding screen reference region is output by the screen reference region setting unit 43 instead of the calculated image coordinates of the POI as image coordinates of the corresponding POI (S69).

이때, 출력부(50)는, 화면의 왼쪽에 위치하는 객체(건물 등)에 대해서는 해당 객체의 왼쪽에 꼬리가 붙은 3차원 간판의 형태로 POI 데이터의 텍스트 속성값(예: 건물 명칭 등)을 영상에 출력하며, 화면의 오른쪽에 위치하는 객체에 대해서는 해당 객체의 오른쪽에 꼬리가 붙은 3차원 간판의 형태로 POI 데이터의 텍스트 속성값을 영상에 출력한다. 또한, 영상에 출력되는 간판은, 화면 상의 다른 정보를 가리자 않도록, 어느 정도 투명하게 구성한다.At this time, the output unit 50, for the objects (buildings, etc.) located on the left side of the screen, the text attribute values (eg, building names, etc.) of the POI data in the form of a 3D sign with a tail on the left side of the object. For the object located on the right side of the screen, the text attribute value of POI data is output to the image in the form of a 3D sign with a tail on the right side of the object. In addition, the signboard output to the video is configured to some extent so as not to hide other information on the screen.

상기 과정은 실시간으로 매 프레임에 대하여 반복 수행되며, 시스템이 종료 명령을 받거나 영상 입력이 중단되면 종료한다(S70).The process is repeated for every frame in real time, and terminates when the system receives an end command or the image input is stopped (S70).

한편, 본 발명은, 상기 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 의해 구현될 수도 있다. 또한, 앞서 설명한 본 발명의 실시예는 구체적인 구성과 도면에 의해 특정되었지만, 그러한 구체적인 실시예가 본 발명의 범위를 제한하는 것이 아니라는 점을 명확히 하고자 한다. 따라서, 본 발명은, 본 발명의 본질을 벗어나지 않는 다양한 변형예와 그 균등물들을 포함하는 것으로 이해되어야 한다.On the other hand, the present invention may be implemented by a computer-readable recording medium recording a program for executing the method. In addition, while the embodiments of the present invention described above have been specified by specific configurations and drawings, it is intended to be clear that such specific embodiments do not limit the scope of the present invention. Accordingly, it is to be understood that the invention includes various modifications and equivalents thereof without departing from the spirit of the invention.

도 1은 본 발명의 실시예에 따른 영상 차량 항법 장치의 구성도.1 is a block diagram of a video vehicle navigation apparatus according to an embodiment of the present invention.

도 2는 도 1의 영상 차량 항법 장치의 세부 구성도.FIG. 2 is a detailed configuration diagram of the video vehicle navigation apparatus of FIG. 1. FIG.

도 3은 POI 데이터의 구성 및 검색을 설명하기 위한 개념도.3 is a conceptual diagram illustrating the configuration and retrieval of POI data.

도 4는 화면 기준 영역의 설정을 설명하기 위한 개념도.4 is a conceptual diagram for explaining setting of a screen reference area.

도 5는 본 발명의 실시예에 따른 영상 차량 항법 동작의 흐름도.5 is a flowchart of an image vehicle navigation operation according to an embodiment of the present invention.

Claims (16)

관심 지점을 화면에 표시하기 위한 영상 차량 항법 장치로서,An image vehicle navigation device for displaying a point of interest on a screen, 차량에 장착된 카메라로부터 상기 화면을 취득하는 데이터 입력부와,A data input unit for acquiring the screen from a camera mounted on a vehicle; 상기 화면으로부터 기준 객체를 인식하는 영상 인식부와,An image recognition unit recognizing a reference object from the screen; 상기 관심 지점 및 기준 객체의 지도 상의 위치에 관한 정보를 제공하는 전자 지도부와,An electronic map unit which provides information on a location on the map of the point of interest and the reference object; 상기 기준 객체의 지도 상의 위치와 상기 관심 지점의 지도 상의 위치 사이의 상대적인 위치 관계를 이용하여 상기 기준 객체를 기준으로 한 상기 관심 지점의 상기 화면 상의 관심 지점 위치를 결정하는 연산부와,An operation unit which determines a location of the point of interest on the screen of the point of interest based on the reference object by using a relative positional relationship between a position on the map of the reference object and a position on the map of the point of interest; 상기 화면 상의 상기 관심 지점 위치에 상기 관심 지점을 표시하는 출력부를 포함하는 영상 차량 항법 장치.And an output unit configured to display the point of interest at the point of interest on the screen. 청구항 1에 있어서, 상기 연산부는, 상기 기준 객체를 기준으로 상기 화면을 복수의 화면 기준 영역으로 분할하는 화면 기준 영역 설정부를 포함하고, 상기 화면 기준 영역 설정부는, 상기 관심 지점을 상기 복수의 화면 기준 영역 중 하나의 화면 기준 영역에 대응시킴으로써 상기 관심 지점 위치를 결정하는, 영상 차량 항법 장치.The display apparatus of claim 1, wherein the operation unit comprises a screen reference area setting unit dividing the screen into a plurality of screen reference areas based on the reference object, and the screen reference area setting unit is configured to reference the points of interest to the plurality of screen references. And determine the location of the point of interest by corresponding to one screen reference area of the area. 청구항 2에 있어서, 상기 출력부는, 상기 관심 지점의 지도 상의 위치로부터 2차원 영상 좌표를 계산하고, 상기 관심 지점 위치가 대응되어 있는 화면 기준 영역에서 상기 2차원 영상 좌표가 벗어나 있는 경우에는, 상기 2차원 영상 좌표에 상기 관심 지점을 표시하는 대신에 상기 관심 지점 위치에 상기 관심 지점을 표시하는, 영상 차량 항법 장치.The display apparatus of claim 2, wherein the output unit calculates two-dimensional image coordinates from a location on a map of the point of interest and, when the two-dimensional image coordinates deviate from a screen reference area to which the location of the point of interest corresponds. And display the point of interest at the point of interest location instead of the point of interest in dimensional image coordinates. 청구항 1에 있어서, 상기 영상 인식부는 상기 화면으로부터 상기 차량 전방의 차선을 인식하는 차선 인식부를 포함하고, 상기 연산부는 상기 차선 인식부에 의해 인식된 차선에 관한 정보로부터 상기 차량의 차량 방위각을 연산하는 방위각 연산부를 포함하는, 영상 차량 항법 장치.The apparatus of claim 1, wherein the image recognizing unit includes a lane recognizing unit recognizing a lane in front of the vehicle from the screen, and the calculating unit calculates a vehicle azimuth angle of the vehicle from information about the lane recognized by the lane recognizing unit. An imaging vehicle navigation apparatus comprising an azimuth calculator. 청구항 1에 있어서, 상기 영상 인식부는 상기 화면으로부터 인식한 차선에 관한 정보로부터 상기 차량의 주행 차로를 인식하는 주행 차로 인식부를 포함하고, 상기 연산부는, 상기 차선 인식부에 의해 인식된 주행 차로에 관한 정보로부터 상기 차량의 위치를 연산하는 위치 연산부를 포함하는, 영상 차량 항법 장치.The apparatus of claim 1, wherein the image recognition unit comprises a driving lane recognizing unit recognizing a driving lane of the vehicle from information on the lane recognized from the screen, and the calculating unit is related to the driving lane recognized by the lane recognizing unit. And a position calculator for calculating the position of the vehicle from the information. 청구항 5에 있어서, 상기 데이터 입력부는 GPS 수신기로부터 상기 차량의 위치 정보를 수신하고, 상기 위치 연산부는, 상기 GPS 수신기로부터 수신한 차량의 위치 정보를, 상기 주행 차로 인식부에 의해 인식된 주행 차로에 관한 정보에 의해 보정함으로써 상기 차량의 위치를 연산하는, 영상 차량 항법 장치.The driving apparatus according to claim 5, wherein the data input unit receives position information of the vehicle from a GPS receiver, and the position calculating unit transmits the position information of the vehicle received from the GPS receiver to a driving lane recognized by the driving lane recognition unit. A video vehicle navigation apparatus which calculates the position of the vehicle by correcting the information with respect to the information. 청구항 1에 있어서, 상기 관심 지점은 지도 상의 복수의 관심 지점 좌표에 연관되어 있으며, 상기 연산부는 상기 상대적인 위치 관계를 결정하기 위해, 상기 복수의 관심 지점 좌표 중 어느 하나의 관심 지점 좌표를 상기 관심 지점의 상기 지도 상의 위치로 특정하는, 영상 차량 항법 장치.The point of interest of claim 1, wherein the point of interest is associated with a plurality of point of interest coordinates on a map, and the operation unit converts the point of interest coordinate of any one of the plurality of point of interest coordinates to determine the relative positional relationship. The video vehicle navigation apparatus which specifies with the position on the map of the. 청구항 7에 있어서, 상기 연산부는, 상기 복수의 관심 지점 좌표 중에서 상기 차량의 현재 위치와 가장 가까운 관심 지점 좌표를 상기 관심 지점의 상기 지도 상의 위치로 특정하는, 영상 차량 항법 장치.The video vehicle navigation apparatus according to claim 7, wherein the calculator specifies a point of interest coordinate closest to the current position of the vehicle among the plurality of point of interest coordinates as a position on the map of the point of interest. 청구항 7에 있어서, 상기 복수의 관심 지점 좌표는 상기 관심 지점의 출입구의 좌표를 포함하는, 영상 차량 항법 장치.The apparatus of claim 7, wherein the plurality of points of interest coordinates include coordinates of a doorway of the point of interest. 청구항 1에 있어서, 상기 기준 객체는 신호등인, 영상 차량 항법 장치.The video vehicle navigation apparatus of claim 1, wherein the reference object is a traffic light. 관심 지점을 화면에 표시하기 위한 영상 차량 항법 방법으로서,An image vehicle navigation method for displaying a point of interest on a screen, (a) 차량에 장착된 카메라로부터 상기 화면을 데이터 입력부에 의해 취득하는 단계와,(a) acquiring the screen by a data input unit from a camera mounted on the vehicle; (b) 영상 인식부에 의해, 상기 화면으로부터 기준 객체를 인식하는 단계와,(b) recognizing, by the image recognition unit, the reference object from the screen; (c) 전자 지도부에 의해 제공되는 상기 기준 객체의 지도 상의 위치와 상기 관심 지점의 지도 상의 위치 사이의 상대적인 위치 관계를 이용하여 상기 기준 객 체를 기준으로 한 상기 관심 지점의 상기 화면 상의 관심 지점 위치를 연산부에 의해 결정하는 단계와,(c) the location of the point of interest on the screen of the point of interest relative to the reference object using a relative positional relationship between the location on the map of the reference object and the location of the point of interest provided by the electronic mapper; Determining by the operation unit; (d) 출력부에 의해, 상기 화면 상의 상기 관심 지점 위치에 상기 관심 지점을 표시하는 단계를 포함하는 영상 차량 항법 방법.and (d) displaying the point of interest at the point of interest point on the screen by an output unit. 청구항 11에 있어서, 상기 단계 (c)는, 상기 기준 객체를 기준으로 상기 화면을 복수의 화면 기준 영역으로 분할하는 단계와, 상기 관심 지점을 상기 복수의 화면 기준 영역 중 하나의 화면 기준 영역에 대응시킴으로써 상기 관심 지점 위치를 결정하는 단계를 포함하며, 상기 단계 (d)는, 상기 관심 지점의 지도 상의 위치로부터 2차원 영상 좌표를 계산하는 단계와, 상기 관심 지점 위치가 대응되어 있는 화면 기준 영역에서 상기 2차원 영상 좌표가 벗어나 있는 경우에는 상기 2차원 영상 좌표에 상기 관심 지점을 표시하는 대신에 상기 관심 지점 위치에 상기 관심 지점을 표시하는 단계를 포함하는, 영상 차량 항법 방법.The method of claim 11, wherein the step (c) comprises: dividing the screen into a plurality of screen reference areas based on the reference object, and corresponding the point of interest to one screen reference area of the plurality of screen reference areas. And determining the location of the point of interest, wherein step (d) comprises: calculating a two-dimensional image coordinate from a location on the map of the point of interest; And displaying the point of interest at the point of interest instead of displaying the point of interest in the two-dimensional image coordinates when the two-dimensional image coordinates are out of range. 청구항 11 있어서, 상기 단계 (b)는, 상기 화면으로부터 상기 차량 전방의 차선을 인식하는 단계를 포함하고, 상기 단계 (c)는, 상기 인식된 차선에 관한 정보로부터 상기 차량의 차량 방위각을 연산하는 단계를 포함하며, 상기 단계 (d)는, 상기 관심 지점의 지도 상의 위치로부터 2차원 영상 좌표를 계산하는 데 이용하는 차량 방위각으로서, 상기 단계 (c)에서 연산된 차량 방위각과 GPS 수신기로부터 제공받은 차량 방위각 중 어느 하나의 차량 방위각을 상기 차량의 현재 속도를 기준 으로 선택하는, 영상 차량 항법 방법.12. The method of claim 11, wherein the step (b) comprises the step of recognizing the lane in front of the vehicle from the screen, and the step (c) includes calculating the vehicle azimuth angle of the vehicle from the information about the recognized lane. Wherein the step (d) is a vehicle azimuth used for calculating two-dimensional image coordinates from a position on the map of the point of interest, the vehicle azimuth calculated in the step (c) and the vehicle provided from the GPS receiver. And selecting one vehicle azimuth angle based on the current speed of the vehicle. 청구항 11에 있어서, 상기 단계 (b)는, 상기 화면으로부터 인식한 차선에 관한 정보로부터 상기 차량의 주행 차로를 인식하는 단계를 포함하며, 상기 단계 (c)는 상기 인식된 주행 차로에 관한 정보로부터 상기 차량의 위치를 연산하는 단계를 포함하는, 영상 차량 항법 방법.The method of claim 11, wherein the step (b) comprises the step of recognizing the driving lane of the vehicle from the information on the lane recognized from the screen, the step (c) from the information on the recognized driving lane Calculating a position of the vehicle. 청구항 11 있어서, 상기 관심 지점은 지도 상의 복수의 관심 지점 좌표에 연관되어 있으며, 상기 단계 (c)는, 상기 상대적인 위치 관계를 결정하기 위해, 상기 복수의 관심 지점 좌표 중 어느 하나의 관심 지점 좌표를 상기 관심 지점의 상기 지도 상의 위치로 특정하는, 영상 차량 항법 방법.12. The method of claim 11, wherein the point of interest is associated with a plurality of point of interest coordinates on a map, wherein step (c) includes the point of interest coordinates of any one of the plurality of point of interest coordinates to determine the relative positional relationship. And a location on the map of the point of interest. 청구항 11에 있어서, 상기 단계 (b)는, 상기 기준 객체로서 신호등을 상기 화면으로부터 인식하는, 영상 차량 항법 방법.The video vehicle navigation method according to claim 11, wherein the step (b) recognizes a traffic light as the reference object from the screen.
KR1020070120833A 2007-11-26 2007-11-26 Video Vehicle Navigation Apparatus and Method Active KR100887721B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070120833A KR100887721B1 (en) 2007-11-26 2007-11-26 Video Vehicle Navigation Apparatus and Method
JP2008132185A JP4700080B2 (en) 2007-11-26 2008-05-20 Car navigation system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070120833A KR100887721B1 (en) 2007-11-26 2007-11-26 Video Vehicle Navigation Apparatus and Method

Publications (1)

Publication Number Publication Date
KR100887721B1 true KR100887721B1 (en) 2009-03-12

Family

ID=40697911

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070120833A Active KR100887721B1 (en) 2007-11-26 2007-11-26 Video Vehicle Navigation Apparatus and Method

Country Status (2)

Country Link
JP (1) JP4700080B2 (en)
KR (1) KR100887721B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101871441B1 (en) * 2018-02-27 2018-06-27 뉴비전엔지니어링(주) Voice recognition field survey and road linear generation system for high definition electronic map production for autonomous vehicle
CN111512120A (en) * 2017-12-21 2020-08-07 宝马股份公司 Method, device and system for displaying augmented reality POI information

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5651372B2 (en) * 2010-05-18 2015-01-14 株式会社Nttドコモ Post information control apparatus, post information control system, and post information control method
JP6165422B2 (en) * 2012-06-28 2017-07-19 株式会社ナビタイムジャパン Information processing system, information processing device, server, terminal device, information processing method, and program
DE102012110219A1 (en) 2012-10-25 2014-04-30 Continental Teves Ag & Co. Ohg Method and device for detecting marked danger and / or construction sites in the area of roadways
KR101500168B1 (en) * 2013-10-14 2015-03-06 현대자동차주식회사 Method for Recognizing Side Boundary of Road during Driving
CN105333878A (en) * 2015-11-26 2016-02-17 深圳如果技术有限公司 Road condition video navigation system and method
KR102441053B1 (en) * 2016-11-21 2022-09-06 현대자동차주식회사 Apparatus and method for estimating the driving lane of a vehicle
JP7132704B2 (en) * 2017-09-21 2022-09-07 株式会社Subaru Position detector
JP2024128990A (en) * 2021-07-27 2024-09-26 Ultimatrust株式会社 Information processing device, program, and positioning method
CN113781893A (en) * 2021-09-18 2021-12-10 万翼科技有限公司 Traffic route three-dimensional model generation method, device, equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050081492A (en) * 2004-02-13 2005-08-19 디브이에스 코리아 주식회사 Car navigation device using forward real video and control method therefor
KR20060036259A (en) * 2004-10-25 2006-04-28 한국전자통신연구원 Image-based navigation system and method
KR20060068205A (en) * 2004-12-16 2006-06-21 한국전자통신연구원 Image-based route information generation system and method, terminal and method therefor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3958133B2 (en) * 2002-07-12 2007-08-15 アルパイン株式会社 Vehicle position measuring apparatus and method
JP2006105640A (en) * 2004-10-01 2006-04-20 Hitachi Ltd Navigation device
JP2007011937A (en) * 2005-07-04 2007-01-18 Nissan Motor Co Ltd Signal detection system, signal detection device, information center, and signal detection method
JP4793685B2 (en) * 2006-03-31 2011-10-12 カシオ計算機株式会社 Information transmission system, imaging apparatus, information output method, and information output program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050081492A (en) * 2004-02-13 2005-08-19 디브이에스 코리아 주식회사 Car navigation device using forward real video and control method therefor
KR20060036259A (en) * 2004-10-25 2006-04-28 한국전자통신연구원 Image-based navigation system and method
KR20060068205A (en) * 2004-12-16 2006-06-21 한국전자통신연구원 Image-based route information generation system and method, terminal and method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111512120A (en) * 2017-12-21 2020-08-07 宝马股份公司 Method, device and system for displaying augmented reality POI information
KR101871441B1 (en) * 2018-02-27 2018-06-27 뉴비전엔지니어링(주) Voice recognition field survey and road linear generation system for high definition electronic map production for autonomous vehicle

Also Published As

Publication number Publication date
JP2009128356A (en) 2009-06-11
JP4700080B2 (en) 2011-06-15

Similar Documents

Publication Publication Date Title
KR100887721B1 (en) Video Vehicle Navigation Apparatus and Method
US8315796B2 (en) Navigation device
KR100266882B1 (en) Navigation device
US7948397B2 (en) Image recognition apparatuses, methods and programs
US8791996B2 (en) Image processing system and position measurement system
US8239131B2 (en) Navigation device, navigation method, and navigation program
EP2372309B1 (en) Vehicle position detection system
US7463974B2 (en) Systems, methods, and programs for determining whether a vehicle is on-road or off-road
JP7260064B2 (en) Own vehicle position estimation device, running position estimation method
US20070021912A1 (en) Current position information management systems, methods, and programs
US20100250116A1 (en) Navigation device
KR20180088149A (en) Method and apparatus for guiding vehicle route
US20180045516A1 (en) Information processing device and vehicle position detecting method
US20100245561A1 (en) Navigation device
JP2011215975A (en) Image processing system and vehicle control system
EP2482036B1 (en) Course guidance system, course guidance method, and course guidance program
KR100976964B1 (en) Navigation system and road lane recognition method thereof
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
CN107850457B (en) Route search device and route search method
CN115917255A (en) Vision-based location and turn sign prediction
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
US10989558B2 (en) Route guidance method and route guidance device
KR101543073B1 (en) Apparatus and Method for Driving Guide of Vehicle
JP2009058430A (en) Navigation apparatus and program
EP1674827A1 (en) System for detecting a lane change of a vehicle

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20071126

PA0201 Request for examination
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20090220

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20090302

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20090303

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20111208

Year of fee payment: 20

PR1001 Payment of annual fee

Payment date: 20111208

Start annual number: 4

End annual number: 20