[go: up one dir, main page]

KR101085390B1 - 3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치 - Google Patents

3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치 Download PDF

Info

Publication number
KR101085390B1
KR101085390B1 KR1020080040722A KR20080040722A KR101085390B1 KR 101085390 B1 KR101085390 B1 KR 101085390B1 KR 1020080040722 A KR1020080040722 A KR 1020080040722A KR 20080040722 A KR20080040722 A KR 20080040722A KR 101085390 B1 KR101085390 B1 KR 101085390B1
Authority
KR
South Korea
Prior art keywords
building
data
intersection
image data
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020080040722A
Other languages
English (en)
Other versions
KR20090114860A (ko
Inventor
김호승
Original Assignee
주식회사 코아로직
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코아로직 filed Critical 주식회사 코아로직
Priority to KR1020080040722A priority Critical patent/KR101085390B1/ko
Priority to US12/433,789 priority patent/US8243065B2/en
Publication of KR20090114860A publication Critical patent/KR20090114860A/ko
Application granted granted Critical
Publication of KR101085390B1 publication Critical patent/KR101085390B1/ko
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 모바일 환경에 적합하도록 적은 데이터 용량, 단순한 알고리즘을 가지고 고성능(high perfomance)으로 실시간으로 제공될 수 있는 3D 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를 포함한 모바일 장치를 제공한다. 그 영상표현 방법은 2D 맵 데이터 및 분포도 이미지 데이터를 불러오는 단계; 상기 맵 데이터를 분석하는 단계; 상기 맵 데이터 분석을 통해 3D 영상이 요구되는 부분에 대하여 상기 분포도 이미지 데이터를 이용하여 3D 영상 데이터를 생성하는 단계; 및 상기 맵 데이터 및 상기 3D 영상 데이터를 이용하여 화면에 3D 영상을 표현하는 단계;를 포함한다.

Description

3D 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를 포함한 모바일 장치{Image presenting method and apparatus for 3D navigation, and mobile apparatus comprising the same apparatus}
본 발명은 네비게이션에 관한 것으로, 특히 모바일에서의 3D 영상을 표현할 수 있는 네비게이션 및 그 3D 영상 표현 방법에 관한 것이다.
현재 시판되고 있는 네비게이션(navigation)은 평면적인 2D 지도를 보여주거나 3D처럼 보이는 사시도(perspective view)만을 제공하고 있고, 교차로, 지하도 등과 같이 2D로는 구분하기 힘든 지형만 3D 이미지로 보여주고 있다.
한편, 네비게이션에서 모든 시설을 3D로 구현하면 시점 전환이 자유롭고 실제 지형과 비교 판단이 용이하다는 장점이 있다. 그러나, 모든 지형과 건물의 외형을 3D로 모델링하기 위해서는 고해상도의 항공 사진이나 레이저 프로파일러(Laser Profiler) 등을 필요로 하고, 텍스쳐(texture)는 건물의 외관 사진으로부터 얻어야 하므로 사진 촬영 비용이 많이 소비되며, 또한 이를 바탕으로 지형과 건물을 3D 모델링하는 데에도 많은 시간이 소요된다. 이런 이유로 3D 네비게이션을 위한 컨텐츠을 제작하는 경우, 그만큼 제작 단가도 올라가게 된다.
현재, 고밀도의 도시나 건물들을 생성하는 많은 알고리즘이 연구되고 있고, 실제로 고사양의 PC 등에서 3D 게임에 활용되고 있다. 그러나 이러한 알고리즘을 이용한 3D 영상 표현은 지형의 굴곡, 건물의 모델링과 건물 외형의 텍스쳐 등을 위한 과도하게 많은 데이터를 필요로 하며, 그에 따라 요구되는 메모리 양도 매우 증가하는 문제가 있다. 또한 이것들은 실시간(real-time)으로 제공되는 것이 불가능하고, 많은 데이터 처리할 수 있는 고사양의 PC에서만 실행되기 때문에 네비게이션을 위한 모바일에는 사용할 수 없다는 한계가 있다.
본 발명이 해결하고자 하는 과제는 모바일 환경에 적합하도록 적은 데이터 용량, 단순한 알고리즘을 가지고 고성능(high performance)으로 실시간으로 제공될 수 있는 3D 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를 포함한 모바일 장치를 제공하는 데에 있다.
상기 과제를 달성하기 위하여, 본 발명은 2D 맵 데이터 및 분포도 이미지 데이터를 불러오는 단계; 상기 맵 데이터를 분석하는 단계; 상기 맵 데이터 분석을 통해 3D 영상이 요구되는 부분에 대하여 상기 분포도 이미지 데이터를 이용하여 3D 영상 데이터를 생성하는 단계; 및 상기 맵 데이터 및 상기 3D 영상 데이터를 이용하여 화면에 3D 영상을 표현하는 단계;을 포함하는 3D 네비게이션을 위한 영상 표현 방법을 제공한다.
본 발명에 있어서, 상기 데이터를 불러오는 단계 전에 실제 지리정보 데이터를 이용하여 상기 분포도 이미지 데이터를 생성하는 단계를 더 포함할 수 있다.
상기 맵 데이터 분석 단계는, 맵 내에서 도로 영역과 건물 블럭 영역을 구분하는 단계를 포함하고, 상기 도로 영역인 경우에는 상기 3D 영상 데이터 생성 단계에서 데이터 베이스 상에 저장된 교차로 모델 및 컨트롤 포인트를 이용하여 도로 및 교차로에 대한 3D 영상 데이터를 생성하며, 상기 건물 블럭 영역인 경우에는 상기 3D 영상 데이터 생성 단계에서 상기 분포도 이미지 데이터 및 건물 생성 모듈을 이용하여 건물에 대한 3D 영상 데이터를 생성할 수 있다.
상기 교차로 모델은 실제 교차로에 대하여 대표적인 종류별로 하나씩 간단한 3D 구조로 모델링한 것이고, 상기 컨트롤 포인트는 상기 교차로 모델을 변형하기 위한 각 교차 지점에 설정된 포인트들이며, 상기 도로 및 교차로에 대한 3D 영상 데이터를 생성하는 경우, 상기 교차로에 대한 3D 영상은 상기 2D 맵 데이터 상의 교차로를 상기 종류별로 구분하고, 상기 컨트롤 포인트를 이용하여 상기 2D 맵 데이터 상의 교차로에 대응되는 상기 교차로 모델을 연결함으로써 생성할 수 있다.
한편, 상기 분포도 이미지 데이터에는 건물 분포, 건물 밀도, 건물 부지 크기, 건물 높이, 건물 종류에 대한 데이터를 각각의 컬러로 표현한 픽셀들을 포함하며, 상기 3D 영상 데이터 생성 단계는, 상기 건물 블럭 영역을 각 건물 부지를 위한 다수의 소 블럭 영역으로 나누는 영역 나누기 단계; 상기 소 블럭 영역 내에 각 건물의 외형을 생성하는 건물 외형 생성 단계; 및 건물 외형에 대한 텍스쳐(texture) 생성하는 텍스쳐 생성 단계;를 포함할 수 있다.
삭제
삭제
삭제
본 발명은 또한 상기 과제를 달성하기 위하여, 2D 맵 데이터 및 분포도 이미지 데이터를 불러오는 단계; 상기 맵 데이터를 분석하여 맵 내에서 도로 영역과 건물 블럭 영역을 구분하는 단계; 및 상기 건물 블럭 영역을 각 건물 부지를 위한 다수의 소 블럭 영역으로 나누는 단계;를 포함하는 3D 네비게이션을 위한 영상 표현 방법을 제공한다.
본 발명에 있어서, 상기 소 블럭으로 영역을 나누는 단계는, 소정 규칙을 반복적으로 적용하여 상기 건물 블럭 영역을 다수의 소 블럭으로 나누는 단계; 및 다수의 상기 소 블럭 중 외각 변과 만나지 않는 소 블럭은 인접한 소 블럭과 합치거나 제거하는 단계;를 포함하고, 상기 소정 규칙은 상기 해당 블럭 영역 중에 가장 긴 변을 찾아내어 소정 비율로 나눈 지점에서 대향하는 변으로 수직으로 선을 그어 상기 해당 블럭 영역을 2개의 영역으로 나누는 방법일 수 있다.
한편, 상기 소 블럭이 생성된 후에, 상기 소 블럭 내로 3D 건물을 생성하되, 상기 3D 건물은 외곽 부분의 상기 소 블럭으로 배치할 수 있다.
더 나아가 본 발명은 상기 과제를 달성하기 위하여, 저장부에 저장된 2D 맵 데이터를 분석하여 맵 데이터 내에 도로 영역과 건물 블럭 영역을 구별하는 맵 데이터 분석부; 상기 도로 영역에 도로 및 교차로에 대한 데이터를 생성하는 도로 생성부; 및 상기 건물 블럭 영역을 해당 건물이 배치될 소 블럭 영역으로 분할하고, 상기 소 블럭 영역 내에 상기 저장부에 저장된 분포도 이미지 데이터를 이용하여 건물에 대한 데이터를 생성하는 건물 생성부;를 포함하는 3D 네비게이션을 위한 장치를 제공한다.
삭제
삭제
삭제
삭제
본 발명에 있어서, 상기 3D 네비게이션을 위한 장치는 카메라의 위치 또는 시각을 고려하여 상기 3D 건물 영상을 조정하는 영상 조절부; 및 ROAM(Real-Time Optimally-Adapting Mesh) 기법을 이용하여 전체 지형에 대한 고도를 표현하는 고도 표현부;를 더 포함할 수 있다.
삭제
더 나아가, 본 발명은 상기 과제를 달성하기 위하여, 2D 맵 데이터 및 분포도 이미지 데이터가 저장된 저장매체; 상기 저장매체의 데이터를 이용하여 3D 건물 영상 데이터를 생성하는 3D 네비게이션용 어플리케이션 프로세서; 및 상기 어플리케이션 프로세서와 연동하여 3D 건물 영상을 생성하는 3D 그래픽 엔진; 및 상기 3D 건물 영상을 디스플레이하는 디스플레이부;를 포함하는 모바일 장치를 제공한다.
삭제
삭제
본 발명에 따른 3D 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를 포함한 모바일 장치는 메모리가 넉넉하지 않은 모바일 기기에서 메모리를 절약함으로써, 3D 네비게이션을 효과적으로 구현할 수 있도록 한다.
즉, 데이터 양이 적은 간단한 알고리즘을 통해 지형 및 건물을 3D 모델링할 수 있고, 또한 건물에 대한 실제 텍스쳐 이미지 데이터가 없어도 건물의 3D 오브젝트(object) 생성을 생성할 수 있어서, 모바일 내에서 현실적인 3D 네비게이션 구현이 가능하다.
이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설 명한다. 이하의 설명에서 어떤 구성 요소가 다른 구성 요소에 연결된다고 기술될 때, 이는 다른 구성 요소와 바로 연결될 수도 있지만, 그 사이에 제3의 구성 요소가 개재될 수도 있다. 또한, 도면에서 각 구성 요소의 구조나 크기는 설명의 편의 및 명확성을 위하여 과장되었고, 설명과 관계없는 부분은 생략되었다. 도면상에서 동일 부호는 동일한 요소를 지칭한다. 한편, 사용되는 용어들은 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다.
도 1a 및 1b는 본 발명에 따른 3D 영상 표현 방법을 통해 도시를 3D 그래픽 영상으로 모델링한 사진들이다.
도 1a은 지표건물을 포함하여 3D 그래픽으로 모델링한 것이고, 도 1b의 경우 지표건물이 없이 그냥 일반적으로 도시를 3D 그래픽으로 모델링한 것이다.
여기서, 지표건물은 도시의 지역 지역마다 대표적으로 잘 알려져 있는 건물로서, 그러한 지표건물에 대해서는 건물 외형에 대한 데이터들을 인터넷 등을 통해 쉽게 얻을 수 있어서, 좀더 사실적인 모습으로 모델링할 수 있다. 도 1a에서, 창문들이 함께 도시된 것들이 지표건물들이다.
전술한 바와 같이 기존의 3D 그래픽 방법을 통해 도시의 건물들과 도로 등을 3D 영상으로 실시간으로 표현하는 데에는 많은 데이터 및 고성능 프로세서가 필요하기 때문에, 모바일과 같은 적은 메모리 용량을 갖는 모바일 등에서 표현이 곤란하다. 그러나 이하에서 설명한 바와 같은 방법을 통해 3D 영상을 표현하는 경우, 데이터 양을 대폭적으로 줄일 수 있어서, 모바일에서 3D 네비게이션을 현실적으로 구현할 수 있다.
도 2는 본 발명의 일 실시예에 따른 3D 네비게이션을 위한 영상표현 방법의 과정을 보여주는 흐름도이다.
도 2를 참조하면, 본 실시예에 따른 영상표현 방법은 먼저, 2D 맵 데이터 및 분포도 이미지(Pattern Control Map) 데이터를 불러온다(S100). 여기서, 2D 맵 데이터는 2D 벡터 엔진, 예컨대 OpneVG을 이용한 일반적인 2D 그래픽 영상 데이터로서, 현재 사용되고 있는 여러 2D 네비게이션에 적용되고 있다. 그러한 2D 맵 데이터는 3D 맵 데이터에 비해 현저하게 데이터 양이 적다.
한편, 분포도 이미지 데이터는 실제 지형이나 건물들에 대한 정보를 파악하기 위한 데이터들로서, 건물 분포, 건물 밀도, 건물 부지 크기, 건물 높이, 건물 종류 등에 대한 정보를 포함한다. 이러한 분포도 이미지 데이터는 항공사진이나 지적도 등을 통해 얻을 수 있다.
그러나 분포도 이미지 데이터가 건물의 외형 등에 대한 정확한 데이터를 제공하는 것은 아니다. 즉, 분포도 이미지 데이터는 본 발명의 3D 영상을 구현하는데 필요한 최소한의 데이터만을 포함한다. 만약 분포도 이미지 데이터가 각 건물들이나 지형 등에 대한 정확한 데이터를 포함한다면, 결국 데이터의 양이 기존 3D 그래픽 영상에서 사용하는 데이터와 거의 비슷하게 될 것이기 때문에 별 의미가 없다.
한편, 이러한 분포도 이미지 데이터에는 전술한 지표 건물에 대한 데이터를 포함할 수 있다. 지표 건물의 경우 사용자들이 그 외형을 알고 있는 경우가 많기 때문에, 지표 건물의 경우는 좀더 사실적으로 표현함으로써, 3D 영상을 좀더 현실 적인 세상으로 인식될 수 있도록 할 수 있다.
다음, 불러온 2D 맵 데이터를 분석한다(S200). 이러한 2D 맵 데이터를 분석하는 이유는 주로 도로 영역과 건물 블럭 영역을 구분하기 위함이다. 도로의 경우 자체로 2차원 구조이므로 3D 영상이 필요치 않고 다만 고가나 교차로 등에서만 3D 영상 표현이 필요하기 때문이다.
2D 맵 데이터 분석을 통해 도로 영역과 건물 영역으로 구별한 후, 각 영역에 대한 3D 영상 데이터를 생성한다. 이러한 3D 영상 데이터 생성에 대한 내용은 도 3a 이하에서 상세히 설명한다.
한편, 전체적인 지형에 대한 고도에 대한 표시도 이 단계에서 수행한다. 그에 대한 내용은 도 3a ~ 3c에서 설명한다. 그 외에 카메라에 위치 또는 보는 시각에 따라, 3D 영상, 예컨대 건물들이 달리 보일 것이므로 그에 대한 데이터 역시 생성한다.
이러한 데이터에 근거하여, 기존의 3D 그래픽 엔진, 예컨대 OpenGL이나 DirectX 등을 이용하여 LCD 화면 등의 디스플레이에 3D 그래픽 영상을 표현한다(S400).
본 발명에 따라 생성된 3D 영상 데이터들은 기존의 3D 영상 데이터에 비해 데이터 양이 현저히 작고, 그에 따라 적은 메모리를 차지하여 모바일에서도 3D 그래픽 엔진을 충분히 구동시킬 수 있다. 한편, 3D 그래픽 엔진으로 기존의 OpenGL이나 DirectX 등을 사용할 수 있지만, 본 발명의 3D 영상 데이터들만을 위한 전용 그래픽 엔진을 새롭게 도입할 수 있음은 물론이다.
왜냐하면, 기존의 OpenGL이나 DiretX의 경우, 고사양의 PC을 위해 고안되었기 때문에 3D 네비게이션 구현에는 불필요한 기능들까지 포함하고 있기 때문이다. 따라서, 효율적인 3D 네이게이션 구현을 위해서는 적은 데이터로 필요한 기능만을 수행할 수 있는 전용 그래픽 엔진을 채용하는 것이 좀더 바람직하다.
도 3a ~ 3c는 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 고도 표시를 하는 방법을 보여주는 사진들이다.
도 3a는 지도상의 고도를 표현된 등고선에 기초하여 2D 그레이-스케일(Gray-scale) 래스터(raster) 이미지로 나타낸 사진이다. 즉, 높이에 따른 흑백 정도로 가지고 표현한 이미지이다.
도 3b는 이러한 래스터 이미지에 기초하여 생성된 지형 메시(terrain mesh)에 대한 사진이고, 3c는 분할선들을 제거함으로써, 지형에 대한 고도 표현이 완성된 3D 그래픽 영상 사진이다.
지형 메시는 일반적으로 사용되는 ROAM(Real-Time Optimally-Adapting Mesh) 기법을 사용하여 생성하는데, 1 픽셀로 일정 영역의 높이 정보를 갖는 메시를 생성할 수 있다. 만약 동일 영역을 기존의 방법, 즉 폴리곤으로 표현한다면 32byte가 소요된다. 1픽셀은 1byte의 정보를 가지므로 32배 정도의 데이터를 줄일 수 있다. 한편, LOD(Level Of Detail)를 적용하면 렌더링 부하도 줄일 수 있다.
도 4a 및 4b는 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 건물 블럭 영역을 소 블럭으로 나누는 방법을 보여주는 평면도이다.
도 4a를 참조하면, 앞서 2D 맵 데이터 분석에서 도로 영역과 건물 블럭 영 역(100)을 구분하게 되는데, 일반적으로 도로를 사이로 건물 블럭들이 위치하게 된다. 이러한 건물 블럭들로는 적절한 건물들이 배치되게 된다. 건물들의 모양과 크기가 정해져 있겠지만 모든 건물을 모델링하는 것을 불가능하기 때문에 일부 블록 안에으로 배치되는 건물들은 실시간으로 자동적으로 생성하는 것이 바람직하다.
본 발명에서는 분포도 이미지로부터 그 블록 안의 건물 밀집도와 크기를 얻어내고 이를 바탕으로 블록을 실제와 유사하도록 나누는 방법을 제시한다.
맵 데이터 분석에서의 건물 블럭들은 도로와 구분된 영역으로서 매우 큰 영역이기 때문에, 건물들을 배치하기 위해서는 건물 사이즈 정도로 다시 분할을 해야할 필요가 있다. 도 4a는 그러한 건물 블럭 영역(100)을 소 블럭으로 나누는 방법을 보여주고 있다.
본 실시예에서의 건물 블럭 영역을 나누는 방법은 가장 긴 변을 택하여 소정 비율을 갖는 위치, 예컨대 선택된 변의 길이를 1이라 하면 0.3 ~ 0.7 사이의 임의의 점을 선택하여 수직선을 그어 대향하는 변과 연결한다. 도면상, A영역을 나누는 선이 바로 처음의 분할선이다. 다음, 다시 가장 긴 변을 택하여 앞서와 같은 과정을 통해 영역을 분할한다. 도면상 C영역을 분할한 선이 두 번째 분할선이다. 각 블럭 영역에 대해서 분포도 이미지에서 가져온 건물 최소 블록 크기에 도달할 때까지 같은 계산을 반복하여 건물 블럭 영역을 소 블럭으로 나눈다.
도 4b를 참조하면, 도 4a 같은 방법을 통해 분할된 소 블럭들로 적절한 건물들이 배치되게 되는데, 소 블럭 전체로 건물을 배치할 수도 있고, 참조번호 120의 해칭 부분과 같이 적절히 축소하여 건물을 배치할 수도 있다. 한편, 건물들은 외곽 변과 인접하는 부분으로 배치하는 것이 바람직하다.
외곽의 변과 접하지 않는 F와 같은 소 블럭은 차가 진입할 수 없고, 또한 외부에서도 시각적으로 드러나지 않는다. 따라서, 그러한 부분은 인접한 소 블럭 부분으로 합치거나 제거해도 무방하다. 이때, 합치게 되면, 보다 다양한 건물 평면도가 생성되며, 제거된다면 건물 내 주차장 혹은 녹지공간이 될 것이다.
도 4c는 본 발명의 일 실시예에 따른 건물 블럭 영역을 소 블럭으로 나누는 과정을 보여주는 흐름도이다.
도 4c를 참조하면, 먼저 블럭 나누기 규칙을 블럭 나누기 모듈로부터 호출한다(S120). 다음, 블록 나누기 규칙을 이용하여 건물 블록 영역을 소블럭으로 나눈다(S140). 그 후, 소블럭들을 제거 또는 통합 등을 통해 정리함으로써 최종적인 소블럭들을 형성한다(S160). 소블럭 나누기에 대한 내용은 앞서 도 4a 및 4b 설명부분에서 자세히 설명하였으므로 그에 대한 더 상세한 설명은 생략한다.
도 5a 및 5b는 복잡한 건물을 단순한 다각형의 조합으로 표시할 수 있음을 보여주는 도면들이다.
도 5a은 실제적인 빌딩 구조를 보여주고 있는데, 이러한 건물을 기존의 폴리곤을 통해 표현하려면 그 구조의 복잡성 때문에 매우 많은 데이터를 필요로 하게 된다.
즉, 빌딩과 같은 건물에 대한 일반적인 3D 오브젝트(object)는 수많은 정점(vertex)와 면(face)들이 필요하다. 그러나, 건물들의 기하학적인 모습을 살펴보면 복잡한 폴리곤은 없고, 보통 동일 모양의 평면도(Floor Plan)가 수직으로 세워져 있음을 알 수 있다. 또한, 이러한 평면도들은 다각형들의 조합으로 이루어져 있다. 따라서, 평면도와 높이값만(Height or Altitude)만 있으면 대부분의 건물을 간단한 3D로 표현할 수 있다.
5b는 그러한 복잡한 건물이라도 평면도를 수직으로 세운 각 기둥 형태로 표현될 수 있음을 예시하고 있다.
한편, 이러한 기둥들은 그 평면도에 높이를 줌으로써 쉽게 표현가능함을 이하의 도 6a ~ 6d가 예시하고 있다.
도 6a ~ 6d는 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 건물의 외형을 모델링하는 방법을 보여주는 도면들이다.
도 6a의 경우, 먼저 적절한 평면 도형을 선택한다. 여기서는 6각형(200) 및 4각형(300)이 선택하였다. 다음, 도 6b에서 각 도형을 적절히 변형한다. 6각형의 경우 좌우로 늘리고 시계 반대방향으로 약간 회전시키며, 4각형의 경우, 시계 방향으로 회전만을 시킨다. 그 다음, 도 6c에서 그 두 도형을 결합한다. 최종적으로, 도 6d에서 각 도형에 적절한 높이를 주어 늘임으로써, 원하는 건물의 외형을 완성한다.
이러한, '평면도로부터의 건물 모델링 방법'을 사용하는 경우의 데이터 크기를 비교해볼 때, 예를 들어 '도심공항타워'를 3D 폴리곤 데이터로 만들었을 때, 약 1Kbyte(텍스쳐 제외)가 필요하지만, 위의 방법으로 제작한다면, 다각형 종류, 이동 및 확대 정보, 높이정보만 있으면 되므로 약 200byte가 된다. 데이터 크기가 1/5로 줄어드는 셈이다.
한편, 아무리 데이터가 줄었다고 하지만 도시의 모든 건물의 평면도를 만들 기에는 시간도 많이 소요되며 데이터량도 크다. 이것에 대한 해결 방법은 다음과 같다.
네비게이션에서 이정표로 사용할 수 있는 중요한 건물들, 즉 지표건물들은 위의 방법을 적용할 평면도 데이터를 가지고 있으므로 제외하고, 그것들을 제외한 상가, 주택, 아파트 등의 수많은 건물들은 분포도 이미지로부터 평면도를 자동 생성하도록 한다.
이러한 분포도 이미지는 다수의 래스터 이미지 파일(raster image file)을 사용하며, 각 픽셀의 컬러 값은 일정한 영역 안의 건물정보를 포함하고 있는데, 예컨대 사무용 빌딩, 상가, 주택가, 녹지 등과 같은 건물 종류와 건물의 밀도를 포함하고 있다. 예컨대, 건물 분포도 상의 녹색은 녹지대를 의미하며, 회색은 상업빌딩, 노란색은 주택가, 검은색은 도로 등을 의미하는 것으로 사용할 수 있으며, 또한, 건물 밀집도 상의 빨간색은 건물이 20층 이상의 복합 빌딩을, 파란색은 1~2층의 단독 빌딩 등을 의미하는 것으로 사용할 수 있다. 이러한 분포도 이미지이 데이터를 바탕으로 평면도를 생성하게 된다.
이와 같이 분포도 이미지로부터 건물 평면도를 생성하는 경우, 각 픽셀이 일정한 영역의 건물 패턴 값들을 반영하고 있고, 그에 따라 한 픽셀로부터 약 10~20개의 건물 평면도를 생성할 수 있으므로 분포도에 따라 3~9byte 정도의 데이터만 가지고 일정영역의 건물 평면도를 생성할 수 있다.
도 6e는 본 발명의 일 실시예에 따른 건물의 외형을 모델링하는 과정을 보여주는 흐름도이다.
도 6e를 참조하면, 먼저, 건물에 대한 평면도를 생성한다(S220). 다음 그 건물의 평면도를 적절한 다각형을 조합 및 변형을 통해 나타낸다(S240). 마지막으로 다각형 조합에 소정의 높이 값을 적용하고 변형하여 실제와 비슷한 건물의 외형을 형성한다(S260). 건물의 외형의 모델링에 대한 내용은 앞서 도 6a ~6d의 설명부분에서 자세히 설명하였으므로 그에 대한 더 상세한 설명은 생략한다.
이하에서는 본 발명에 따른 건물의 외형에 대한 텍스쳐 데이터 형성에 대한 방법을 설명한다.
건물 텍스쳐 매핑 시 이미지를 너무 작게 하면 렌더링 품질이 좋지 않다. 필터링을 주어도 흐릿해 질뿐 선명해지지는 않는다. 예를 들어 건물당 텍스쳐 크기를 128 x 128 pixel라고 하고, 강남의 한 블록을 표현하려면 약 7Mbyte 가 필요하게 된다.
텍스쳐 데이터의 크기를 줄이려면 조합 방법이 필요하다. 국내 건물들의 외형을 보면 일정한 규칙을 보이는데, 주로 창문과 외벽이 연속된 패턴 그리드를 형성하고 있고, 1층은 정문이나 상가의 쇼윈도우로 이루어져 있다.
바꿔서 말하면, 창문색과, 외벽색을 행(row)과 열(column) 방향으로 적당히 조합(Logic Operation)하면 복잡한 건물의 외형 텍스쳐를 생성할 수 있다. 이러한 조합은 파형 함수(pulse function)로 단순화시킬 수 있다. 도 7a ~ 8c은 이러한 파형 함수 조합을 통해 건물의 텍스쳐를 형성하는 방법을 예시한다.
도 7a ~ 7c은 건물의 외관의 텍스쳐를 단순한 패턴의 조합으로 나타낼 수 있음을 보여주는 평면도들이다.
도 7a는 건물 외관의 텍스쳐를 보여주는데, 상부로 다수의 창문들과 하부로 쇼윈도우들이 배치되어 있다. 이와 같은 외관의 텍스쳐는 간단한 패턴들의 조합으로 분리할 수 있다. 즉, 도 7b와 같이 창문부분과 쇼윈도우 부분으로 나눌 수 있고, 각 부분들의 패턴은 열과 행 방향으로 몇 개의 컬러 레이어(colar layer)의 조 합으로서 구성할 수 있다. 여기서, 컬러 레이어는 편의상 컬러가 아닌 흑백으로 표시하고 있다.
도 7c를 참조하면, 창문 부분은 열과 행 방향의 복수의 얇은 띠들 형태의 수직 결합으로 표현할 수 있으며, 쇼윈도우 부분 역시 좀더 두꺼운 열과 행 방향의 띠들의 결합으로 표현할 수 있다. 결국, 그러한 창문 부분의 패턴과 쇼윈도우 부분의 패턴을 결합하여 전체 건물 외관의 텍스쳐를 형성할 수 있다. 한편, 컬러 레이어의 조합으로 이루어진 각 패턴들은 파형 함수의 조합 방법을 통해 구현할 수 있다.
도 7d는 본 발명의 일 실시예에 따른 건물 외관의 텍스쳐를 단순한 패턴의 조합으로 나타내는 과정을 보여주는 흐름도이다.
도 7d를 참조하면, 먼저 건물의 텍스쳐를 간단한 패턴들의 조합으로 분리한다(S320). 다음 각 패턴을 파형함수로 대응시킨다(S340). 각 파형함수를 조합함으로써 최종적인 건물의 텍스쳐를 생성한다(S360). 패턴의 조합에 대한 내용은 도 7a ~ 7c에 대한 설명부분에서 설명되었고, 파형함수 대응에 대한 내용은 이하 도 8a ~ 8c에 대한 설명부분에서 설명된다.
도 8a ~ 8c은 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 건물의 외형의 텍스쳐를 파형 함수의 조합으로 형성하는 것을 보여주는 도면들이다.
도 8a는 파형 함수를 보여주는데, 파형 함수는 색깔에 따라 대응되는 패턴을 갖는다. 즉, 어두운 부분은 높게, 그리고 밝은 부분은 낮게 표시된다. 여기서, 예시된 파형 함수와 같이 파형 함수는, 비율(ratio) 부분을 표현하는 데에 1 플롯(float), 옵셋(offset) 부분을 표현하는데 1 플롯, 그리고 스케일(scale), 즉 패턴의 개수를 표현하는 데에 1 플롯이 소요되어 전체 3 플롯으로 표현할 수 있다. 1 플롯이 4byte로 구성되므로 12byte로 파형 함수를 표현할 수 있다.
도 8b은 도 8a의 파형 함수의 개념을 가지고 창문 부분을 표시하고 있는데, 즉, 세로 패턴을 위해서 2개의 파형 함수, 그리고 가로 패턴을 위한 2개의 파형 함수가 필요함을 알 수 있다. 왼쪽 부분으로 배치된 3개의 파형 함수들 중 왼쪽 2개가 결합하여 오른쪽 최종적인 파형 함수가 된다. 하부 부분으로 배치된 파형 함수들도 하부의 2개의 파형 함수가 결합하여 상부의 최종적인 파형 함수가 된다.
따라서, 창문 부분을 표현하는데, 4개의 파형 함수 및 2개의 파형 함수들을 결합하는데, 각각 1개의 로직 함수가 필요하다. 전술한 바와 같이 파형 함수들은 12byte로 표현가능하고 로직 함수는 1byte로 표현 가능하므로 50 바이트로 창문 부분의 텍스쳐를 구현할 수 있다. 한편, 여기에 창문 색의 컬러가 적용되면, 각 컬러 레이어에 1바이트, 즉 3byte가 소요된다.
도 8c는 도 8a와 같이 계산하면, 열 방향의 1개의 파형 함수(12byte)와 행 방향으로 2개의 파형 함수(24byte)와 1개의 로직 함수(1byte)가 필요하다. 따라서, 컬러(3byte)까지 고려하면 전체 40byte가 소요된다.
결국, 도 7a의 최종적인 건물의 외형 텍스쳐를 형성하기 위하여 전체 91byte가 필요함을 알 수 있다. 한편, 건물의 외곽(벽)의 컬러를 건물마다 다르게 표현하려면 외곽 컬러 레이어를 위한 3byte가 더 필요하고, 따라서 총 96byte가 필요하다. 이는 기존 래스터 이미지를 이용하여 텍스쳐를 표현하는 경우에 49Kbyte(128pixel×128pixel*3color=49,152byte)를 소비되었던 것에 비해 거의 512 배 정도의 데이터 양을 줄일 수 있음을 알 수 있다.
한편, 각 컬러 레이어에 대하여 주간 야간을 다르게 지정하거나 컬러 대신 실제 이미지의 텍스쳐와 조합하면, 열려있는 창문이던지 창문에 반사된 효과 등의 다양한 이미지의 표현이 가능하다.
이러한 파동 함수의 조합 방식은 이미지 파일(image file)처럼 텍스쳐 크기에 제한 없이 사용할 수 있다. 즉, 기존 64x64, 128x182 등의 다양한 사이즈의 텍스쳐에 자유롭게 적용하여 사용할 수 있다.
한편, 이러한 방식은 최근에 나온 GPU에 탑재된 쉐이더(Shader)를 이용하면 보다 효과적으로 구현 가능하다. 프로그램은 파형 함수의 인자 값들만 픽셀 쉐이더(Fragment Shader)에 전달하고, 쉐이더가 이를 조합하여 텍스처를 생성하고 매핑하면, 보다 빠른 건물 텍스처를 생성할 수 있게 된다.
전술한 바와 같이 도로의 경우 2D 구조물이기 때문에 따로 3D 영상을 형성할 필요없이 종래의 2D 맵 데이터를 이용하면 충분하다. 따라서, 도로는 기존 2D 네비게이터의 2D 맵 데이터, 즉 도로 정보에 대한 벡터 데이터를 불러와, 이를 지형 폴리곤 위에 매핑함으로써, 쉽게 표현 가능하다.
그러나, 고가차도, 지하차도, 인터체인지 등 도로가 서로 교차하는 부분인 교차로의 경우는 3D 영상 표현이 필수적이고, 종래의 네비게이션의 경우에도 그 부분만 3D 영상으로 표현한 경우가 있었다. 그러나 그러한 3D 영상의 교차로를 표현하기 위해서는 많은 양의 데이터가 소비된다는 단점이 있다.
본 발명에서는 이러한 3D 교차로를 적은 데이터를 가지고 표현하고, 또한 다양한 유형의 교차로에 능동적으로 적용할 수 있는 방법을 제공한다.
도 9a 및 9b는 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 교차로에 대한 대표적인 모델링 형태들을 보여주는 도면들이다.
도 9a는, 트렘펫형의 교차로를 보여주고 있는데, 이와 같이 전형적인 몇 개의 교차로를 3D 모델링하여 교차로 모델로서 데이터 베이스에 저장해 두고, 또한, 그 연결 지점, 즉 교차점(작은 원)을 벡터 방식의 컨트롤 포인트로서 저장해 둔다.
한편, 2D 맵 데이터 상의 교차로를 종류별로 구분하고, 저장된 해당 교차로 모델을 컨트롤 포인트를 이용하여 대응되는 2D 맵 데이터 상의 교차로에 연결함으로써, 간단하게 3D 교차로 형성할 수 있다. 또한, 컨트롤 포인트를 조절하여 어느 정도 해당 교차로의 실제 모습과 유사한 형태로 교차로를 구성할 수 있음은 물론이다.
즉, 교차로의 형태, 교차되는 도로의 개수에 따라 몇 개만 교차로 모델로서 모델링을 해놓고, 컨트롤 포인트를 이용하여 실제의 교차로의 모양에 따라 이를 늘리거나 축소하고, 도로의 방향에 맞도록 회전시켜 맞춤으로써, 대부분의 교차로를 실제와 유사하게 3D 그래픽 영상으로서 표현할 수 있다.
도 9b는 다른 전형적인 교차로들을 보여준다. 즉, 상부의 왼쪽이 삼각분기형 교차로를, 그 오른쪽이 로터리형 교차로, 그리고 하부의 왼쪽이 사층입체형 교차로, 중앙이 다이아몬드형 교차로, 그리고 오른쪽이 클로버리프형 교차로이다.
본 발명에 따른 교차로 생성방법은 교차로 데이터로서 교차로 모델의 인덱스, 교차되는 도로의 방향과 각도만 가지고 있으면 되므로, 데이터 면에서 많은 절약 효과가 있고, 또한 모든 입체 교차로의 실시간 생성이 가능하고 생성 방법도 쉬 우므로 네비게이션의 성능 향상 측면에 있어서도 효과적이다.
현재, 전국의 교차로는 교차점의 관점에서 약 30개 내외의 교차로 모델로서 나눌 수 있다고 한다. 따라서, 그러한 30 개 정도의 교차로 모델을 컨트롤 포인트와 함께 저장시켜 놓음으로써, 적은 데이터를 가지고 전국의 대부분의 교차로를 용이하게 3D 영상으로 표현할 수 있다 하겠다.
도 10은 본 발명의 따른 3D 영상을 표현하기 위해 필요한 데이터 양을 종래 방법과 비교해 논 차트로서, Real 3D Data가 종래의 3D 그래픽 엔진에 이용되는 데이터 양이고 Virtual 3D Data가 본 발명에 따른 3D 그래픽 표현에 이용되는 데이터 양이다. 한편, 본 데이터는 600m × 800m 영역의 건물 140여 개를 단순 육면체로 형성한 경우를 가정한 데이터 양이다.
도 10을 참조하면, 고도를 가진 지형(terrain) 표시의 경우, 본 발명의 3D 영상의 경우 1byte의 데이터만 필요하지만 기존의 경우 32byte가 필요하여, 32배의 데이터 축소의 효과를 갖는다.
또한, 평면도로부터의 건물 외형을 형성하는 경우에는 기존에 비해 26.75배의 데이터 축소의 효과가 있으며, 이미지 분포도 데이터를 이용하여 일률적으로 건물을 생성하고 단지 RGB 색상만을 적용하는 경우에는 단지 144 byte만 필요하여 약 743배의 데이터 축소의 효과가 있다.
한편, 건물 외형의 텍스쳐의 경우, 앞서 도 8c에서 설명한 바와 같이 거의 164배 정도의 데이터 축소의 효과가 있음을 알 수 있다.
위와 같은 데이터에 근거하여, 본 발명의 3D 그래픽 영상표현 방법에 의해 전체 영상을 표현하는 경우에, 최소 30배 이상의 데이터 축소 효과가 있다. 따라서, 현실적으로 모바일 상에 3D 네비게이션을 충분히 구현시킬 수 있다.
도 11은 본 발명의 다른 실시예에 따른 3D 네비게이션을 위한 어플리케이션 프로세서를 포함한 모바일 장치를 개략적으로 보여주는 블럭도이다.
도 11을 참조하면, 본 실시예의 모바일 장치는 2D 맵 데이터 및 분포도 이미지 데이터가 저장된 저장매체(2000), 저장매체(2000)의 데이터를 이용하여 3D 건물 영상 데이터를 생성하는 3D 네비게이션용 어플리케이션 프로세서(1000) 및 3D 건물 영상을 디스플레이하는 디스플레이부(3000)를 포함한다.
한편, 3D 네비게이션용 어플리케이션 프로세서(1000)는 내부로 저장부에 저장된 2D 맵 데이터를 분석하여 맵 데이터 내에 도로 영역과 건물 블럭 영역을 구별하는 맵 데이터 분석부(1100), 상기 도로 영역에 도로 및 교차로에 대한 데이터를 생성하는 도로 생성부(1200), 및 상기 건물 블럭 영역을 해당 건물이 배치될 소 블럭 영역으로 분할하고, 상기 소 블럭 영역 내에 상기 저장부에 저장된 분포도 이미지 데이터를 이용하여 건물에 대한 데이터를 생성하는 건물 생성부(1300)를 포함한다.
이러한 도로 생성부(1200)이나 건물 생성부(1300) 내에는 앞서 도면들을 통해 설명한 여러 기능들을 수행하는 모듈들이 포함될 수 있다. 즉, 건물 생성부(1300)는 건물 블럭 영역을 각 건물 부지를 위한 다수의 소 블럭 영역으로 나누는 모듈, 소 블럭 영역 내에 각 건물의 외형을 생성하는 모듈, 및 건물 외형에 대한 텍스쳐(texture) 생성하는 모듈 등을 포함할 수 있다.
각 구성부분의 기능에 대해서는 앞서 여러 도면들을 통해 설명하였으므로 더 자세한 설명은 생략한다. 한편, 도시하지는 않았지만, 3D 네비게이션용 어플리케이션 프로세서(1000)는 카메라의 위치 또는 시각을 고려하여 상기 3D 건물 영상을 조정하는 영상 조절부, ROAM(Real-Time Optimally-Adapting Mesh) 기법을 이용하여 전체 지형에 대한 고도를 표현하는 고도 표현부 및 OpenGL 및 DirectX 등의 3D 그래픽 엔진들 중 어느 하나를 포함할 수 있다. 또한, 3D 그래픽 엔진으로 기존의 것이 아닌 본 발명의 여러 그래픽 생성 방법을 전용적으로 처리할 수 있는 전용 그래픽 엔진을 포함할 수 있음은 물론이다.
지금까지, 본 발명을 도면에 표시된 실시예를 참고로 설명하였으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
도 1a 및 1b는 본 발명에 따른 3D 영상 표현 방법을 통해 도시를 3D 그래픽 영상으로 모델링한 사진들이다.
도 2는 본 발명의 일 실시예에 따른 3D 네비게이션을 위한 영상표현 방법의 과정을 보여주는 흐름도이다.
도 3a ~ 3c는 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 고도 표시를 하는 방법을 보여주는 사진들이다.
도 4a 및 4b는 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 건물 블럭 영역을 소 블럭으로 나누는 방법을 보여주는 평면도이다.
도 4c는 본 발명의 일 실시예에 따른 건물 블럭 영역을 소 블럭으로 나누는 과정을 보여주는 흐름도이다.
도 5a 및 5b는 복잡한 건물을 단순한 다각형의 조합으로 표시할 수 있음을 보여주는 도면들이다.
도 6a ~ 6d는 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 건물의 외형을 모델링하는 방법을 보여주는 도면들이다.
도 6e는 본 발명의 일 실시예에 따른 건물의 외형을 모델링하는 과정을 보여주는 흐름도이다.
도 7a ~ 7c은 건물의 외관의 텍스쳐를 단순한 패턴의 조합으로 나타낼 수 있음을 보여주는 평면도들이다.
도 7d는 본 발명의 일 실시예에 따른 건물 외관의 텍스쳐를 단순한 패턴의 조합으로 나타내는 과정을 보여주는 흐름도이다.
도 8a ~ 8c은 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 건물의 외형의 텍스쳐(texture)를 파형 함수(Pulse Function)의 조합으로 형성하는 것을 보여주는 도면들이다.
도 9a ~ 9b는 본 발명의 일 실시예에 따른 3D 영상 표현 방법 중 교차로에 대한 대표적인 모델링 형태들을 보여주는 도면들이다.
도 10은 본 발명의 따른 3D 영상을 표현하기 위해 필요한 데이터 양을 종래 방법과 비교해 논 차트이다.
도 11은 본 발명의 다른 실시예에 따른 3D 네비게이션을 위한 어플리케이션 프로세서를 포함한 모바일 장치를 개략적으로 보여주는 블럭도이다.

Claims (33)

  1. 삭제
  2. 실제 지리정보 데이터를 이용하여 분포도 이미지 데이터를 생성하는 단계;
    2D 맵 데이터 및 상기 분포도 이미지 데이터를 불러오는 단계;
    상기 맵 데이터를 분석하는 단계;
    상기 맵 데이터 분석을 통해 3D 영상이 요구되는 부분에 대하여 상기 분포도 이미지 데이터를 이용하여 3D 영상 데이터를 생성하는 단계; 및
    상기 맵 데이터 및 상기 3D 영상 데이터를 이용하여 화면에 3D 영상을 표현하는 단계;를 포함하는 것을 특징으로 하는 3D 네비게이션을 위한 영상 표현 방법.
  3. 제2 항에 있어서,
    상기 맵 데이터 분석 단계는, 맵 내에서 도로 영역과 건물 블럭 영역을 구분하는 단계를 포함하고,
    상기 도로 영역인 경우에는 상기 3D 영상 데이터 생성 단계에서 데이터 베이스 상에 저장된 교차로 모델 및 컨트롤 포인트를 이용하여 도로 및 교차로에 대한 3D 영상 데이터를 생성하며,
    상기 건물 블럭 영역인 경우에는 상기 3D 영상 데이터 생성 단계에서 상기 분포도 이미지 데이터 및 건물 생성 모듈을 이용하여 건물에 대한 3D 영상 데이터를 생성하는 것을 특징으로 하는 3D 네비게이션을 위한 영상 표현 방법.
  4. 제3 항에 있어서,
    상기 교차로 모델은 실제 교차로에 대하여 대표적인 종류별로 하나씩 간단한 3D 구조로 모델링한 것이고, 상기 컨트롤 포인트는 상기 교차로 모델을 변형하기 위한 각 교차 지점에 설정된 포인트들이며,
    상기 도로 및 교차로에 대한 3D 영상 데이터를 생성하는 경우,
    상기 교차로에 대한 3D 영상은 상기 2D 맵 데이터 상의 교차로를 상기 종류별로 구분하고, 상기 컨트롤 포인트를 이용하여 상기 2D 맵 데이터 상의 교차로에 대응되는 상기 교차로 모델을 연결함으로써 생성하는 것을 특징으로 하는 3D 네비게이션을 위한 영상 표현 방법.
  5. 제3 항에 있어서,
    상기 분포도 이미지 데이터에는 건물 분포, 건물 밀도, 건물 부지 크기, 건물 높이, 건물 종류에 대한 데이터를 포함하며,
    상기 3D 영상 데이터 생성 단계는,
    상기 건물 생성 모듈은 상기 건물 블럭 영역을 각 건물 부지를 위한 다수의 소 블럭 영역으로 나누는 영역 나누기 단계;
    상기 소 블럭 영역 내에 각 건물의 외형을 생성하는 건물 외형 생성 단계;
    건물 외형에 대한 텍스쳐(texture) 생성하는 텍스쳐 생성단계;를 포함하는 것을 특징으로 하는 3D 네비게이션을 위한 영상 표현 방법.
  6. 제5 항에 있어서,
    상기 영역 나누기 단계는,
    상기 건물 블럭 영역을 각 건물 배치를 위한 소 블럭으로 나누는 단계; 및
    상기 3D 건물 영상을 나누어진 상기 소 블럭 내로 배치하는 단계;를 포함하는 것을 특징으로 하는 3D 네비게이션을 위한 영상 표현 방법.
  7. 제6 항에 있어서,
    상기 소 블럭으로 나누는 단계는,
    소정 규칙을 반복적으로 적용하여 상기 건물 블럭 영역을 다수의 소 블럭으로 분할하는 단계; 및
    다수의 상기 소 블럭 중 외각 변과 만나지 않는 소 블럭은 인접한 소 블럭과 합치거나 제거하는 단계;를 포함하고,
    상기 소정 규칙은 상기 해당 블럭 영역 중에 가장 긴 변을 찾아내어 소정 비율로 나눈 지점에서 대향하는 변으로 수직으로 선을 그어 상기 해당 블럭 영역을 2개의 영역으로 나누는 방법인 것을 특징으로 하는 3D 네비게이션을 위한 영상 표현 방법.
  8. 제5 항에 있어서,
    상기 건물 외형 생성 단계에서는,
    1개의 평면 다각형 또는 2개 이상의 평면 다각형을 복합한 복합 다각형에 소정 높이 값을 주고 변형함으로써 입체 건물을 형성하며,
    상기 건물 외형의 텍스쳐 생성 단계에서는,
    상기 텍스쳐를 파동함수로 표시하고 각 파동함수를 조합하여 상기 건물 외형의 텍스쳐를 생성하는 것을 특징으로 하는 3D 네비게이션을 위한 영상 표현 방법.
  9. 제5 항에 있어서,
    상기 소 블럭 영역 내에 배치되는 상기 건물이 지표 건물인 경우에는,
    상기 분포도 이미지 데이터 내에 포함된 상기 지표 건물에 대한 데이터에 근거하여 상기 지표 건물을 생성하고,
    상기 소 블럭 영역 내에 배치되는 상기 건물이 지표 건물이 아닌 경우에는,
    상기 분포도 이미지 데이터 내에 포함되어 있는 세팅된 소정 개수의 데이터들 중 어느 하나를 선택하여 자동으로 상기 건물을 생성하는 것을 특징으로 하는 3D 네비게이션을 위한 영상 표현 방법.
  10. 저장부에 저장된 2D 맵 데이터를 분석하여 맵 데이터 내에 도로 영역과 건물 블럭 영역을 구별하는 맵 데이터 분석부;
    상기 도로 영역에 도로 및 교차로에 대한 데이터를 생성하는 도로 생성부; 및
    상기 건물 블럭 영역을 해당 건물이 배치될 소 블럭 영역으로 분할하고, 상기 소 블럭 영역 내에 상기 저장부에 저장된 분포도 이미지 데이터를 이용하여 건물에 대한 데이터를 생성하는 건물 생성부;를 포함하는 3D 네비게이션을 위한 장치.
  11. 제10 항에 있어서,
    상기 분포도 이미지 데이터는 실제 지리정보 데이터에 근거하여 건물 분포, 건물 밀도, 건물 부지 크기, 건물 높이, 건물 종류에 대한 데이터를 포함하며,
    상기 도로 생성부는 상기 저장부에 저장된 교차로 모델 및 컨트롤 포인트를 이용하여 도로 및 교차로에 대한 3D 영상 데이터를 생성하며,
    상기 건물 생성부는 건물 생성 모듈을 이용하여 건물에 대한 3D 영상 데이터를 생성하는 것을 특징으로 하는 3D 네비게이션을 위한 장치.
  12. 제11 항 있어서,
    상기 교차로 모델은 실제 교차로에 대하여 종류별로 하나씩 간단한 3D 구조로 모델링한 것이고, 상기 컨트롤 포인트는 상기 교차로 모델을 변형하기 위한 각 교차 지점에 설정된 포인트들이며,
    상기 교차로에 대한 3D 영상은 상기 2D 맵 데이터 상의 교차로를 상기 종류별로 구분하고, 상기 컨트롤 포인트를 이용하여 상기 2D 맵 데이터 상의 교차로에 대응되는 상기 교차로 모델을 연결함으로써 생성하는 것을 특징으로 하는 3D 네비게이션을 위한 장치.
  13. 제11 항에 있어서,
    상기 건물 생성 모듈은 상기 건물 블럭 영역을 각 건물 부지를 위한 다수의 소 블럭 영역으로 나누는 소 블럭 나누기 모듈, 상기 소 블럭 영역 내에 각 건물의 외형을 생성하는 건물 외형 생성 모듈, 및 건물 외형에 대한 텍스쳐(texture) 생성하는 텍스쳐 생성 모듈을 포함하는 것을 특징으로 하는 3D 네비게이션을 위한 장치.
  14. 제13 항에 있어서,
    상기 건물 외형 생성 모듈은 1개의 평면 다각형 또는 2개 이상의 평면 다각형을 복합한 복합 다각형에 소정 높이 값을 주고 변형함으로써 입체 건물을 형성하는 방법을 이용하며,
    상기 건물 외형의 텍스쳐 생성 모듈은 상기 텍스쳐를 파동함수로 표시하고 각 파동함수를 조합하는 방법을 이용하는 것을 특징으로 하는 3D 네비게이션을 위한 장치.
  15. 제13 항에 있어서,
    상기 소 블럭으로 영역을 나누는 모듈은,
    소정 규칙을 반복적으로 적용하여 상기 건물 블럭 영역을 다수의 소 블럭으로 나누고, 다수의 상기 소 블럭 중 외각 변과 만나지 않는 소 블럭은 인접한 소 블럭과 합치거나 제거하는 방법이며,
    상기 소정 규칙은 상기 해당 블럭 영역 중에 가장 긴 변을 찾아내어 소정 비율로 나눈 지점에서 대향하는 변으로 수직으로 선을 그어 상기 해당 블럭 영역을 2개의 영역으로 나누는 방법인 것을 특징으로 하는 3D 네비게이션을 위한 장치.
  16. 제10 항에 있어서,
    상기 3D 네비게이션을 위한 장치는,
    카메라의 위치 또는 시각을 고려하여 상기 3D 건물 영상을 조정하는 영상 조절부; 및
    ROAM(Real-Time Optimally-Adapting Mesh) 기법을 이용하여 전체 지형에 대한 고도를 표현하는 고도 표현부;를 더 포함하는 것을 특징으로 하는 3D 네비게이션을 위한 장치.
  17. 삭제
  18. 2D 맵 데이터 및 분포도 이미지 데이터가 저장된 저장매체;
    상기 저장매체의 데이터를 이용하여 3D 건물 영상 데이터를 생성하는 3D 네비게이션용 어플리케이션 프로세서; 및
    상기 3D 건물 영상을 디스플레이하는 디스플레이부;를 포함하고,
    상기 3D 네비게이션용 어플리케이션 프로세서는,
    상기 맵 데이터를 분석하여 맵 데이터 내에 도로 영역과 건물 블럭 영역을 구별하는 맵 데이터 분석부;
    상기 도로 영역에 도로 및 교차로에 대한 데이터를 생성하는 도로 생성부; 및
    상기 건물 블럭 영역을 해당 건물이 배치될 소 블럭 영역으로 분할하고, 상기 소 블럭 영역 내에 상기 분포도 이미지 데이터를 이용하여 건물에 대한 데이터를 생성하는 건물 생성부;를 포함하는 것을 특징으로 하는 모바일 장치.
  19. 제18 항에 있어서,
    상기 분포도 이미지 데이터는 실제 지리정보 데이터에 근거하여 건물 분포, 건물 밀도, 건물 부지 크기, 건물 높이, 건물 종류에 대한 데이터를 포함하며,
    상기 도로 생성부는 상기 저장매체에 저장된 교차로 모델 및 컨트롤 포인트를 이용하여 도로 및 교차로에 대한 3D 영상 데이터를 생성하며,
    상기 건물 생성부는 상기 분포도 이미지 데이터 및 건물 생성 모듈을 이용하여 건물에 대한 3D 영상 데이터를 생성하는 것을 특징으로 하는 모바일 장치.
  20. 제19 항 있어서,
    상기 교차로 모델은 실제 교차로에 대하여 종류별로 하나씩 간단한 3D 구조로 모델링한 것이고, 상기 컨트롤 포인트는 상기 교차로 모델을 변형하기 위한 각 교차 지점에 설정된 포인트들이며,
    상기 교차로에 대한 3D 영상은 상기 2D 맵 데이터 상의 교차로를 상기 종류별로 구분하고, 상기 컨트롤 포인트를 이용하여 상기 2D 맵 데이터 상의 교차로에 대응되는 상기 교차로 모델을 연결함으로써 생성하는 것을 특징으로 하는 모바일 장치.
  21. 제19 항에 있어서,
    상기 건물 생성 모듈은 상기 건물 블럭 영역을 각 건물 부지를 위한 다수의 소 블럭 영역으로 나누는 소 블럭 나누기 모듈, 상기 소 블럭 영역 내에 각 건물의 외형을 생성하는 건물 외형 생성 모듈, 및 건물 외형에 대한 텍스쳐(texture) 생성하는 텍스쳐 생성 모듈을 포함하는 것을 특징으로 하는 모바일 장치.
  22. 제21 항에 있어서,
    상기 건물 외형 생성 모듈은 1개의 평면 다각형 또는 2개 이상의 평면 다각형을 복합한 복합 다각형에 소정 높이 값을 주고 변형함으로써 입체 건물을 형성하는 방법을 이용하며,
    상기 텍스쳐 생성 모듈은 상기 텍스쳐를 파동함수로 표시하고 각 파동함수를 조합하는 방법을 이용하는 것을 특징으로 하는 모바일 장치.
  23. 제21 항에 있어서,
    상기 소 블럭 나누기 모듈은,
    소정 규칙을 반복적으로 적용하여 상기 건물 블럭 영역을 다수의 소 블럭으로 나누고, 다수의 상기 소 블럭 중 외각 변과 만나지 않는 소 블럭은 인접한 소 블럭과 합치거나 제거하는 방법이며,
    상기 소정 규칙은 상기 해당 블럭 영역 중에 가장 긴 변을 찾아내어 소정 비율로 나눈 지점에서 대향하는 변으로 수직으로 선을 그어 상기 해당 블럭 영역을 2개의 영역으로 나누는 방법인 것을 특징으로 하는 모바일 장치.
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
KR1020080040722A 2008-04-30 2008-04-30 3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치 Expired - Fee Related KR101085390B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080040722A KR101085390B1 (ko) 2008-04-30 2008-04-30 3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치
US12/433,789 US8243065B2 (en) 2008-04-30 2009-04-30 Image presentation method and apparatus for 3D navigation and mobile device including the apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080040722A KR101085390B1 (ko) 2008-04-30 2008-04-30 3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치

Publications (2)

Publication Number Publication Date
KR20090114860A KR20090114860A (ko) 2009-11-04
KR101085390B1 true KR101085390B1 (ko) 2011-11-21

Family

ID=41256803

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080040722A Expired - Fee Related KR101085390B1 (ko) 2008-04-30 2008-04-30 3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치

Country Status (2)

Country Link
US (1) US8243065B2 (ko)
KR (1) KR101085390B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10900793B2 (en) 2017-01-26 2021-01-26 Samsung Electronics Co., Ltd. Vehicle path guiding apparatus and method

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011079241A1 (en) * 2009-12-23 2011-06-30 Tomtom International Bv Method of generating building facade data for a geospatial database for a mobile device
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
KR20120065182A (ko) * 2010-12-10 2012-06-20 한국전자통신연구원 시계열 정보의 3차원 공간 모델 매핑 및 시각화 방법과 이를 위한 장치
EP2543964B1 (en) * 2011-07-06 2015-09-02 Harman Becker Automotive Systems GmbH Road Surface of a three-dimensional Landmark
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US9965140B2 (en) * 2011-12-26 2018-05-08 TrackThings LLC Method and apparatus of a marking objects in images displayed on a portable unit
US20150009215A1 (en) * 2012-02-17 2015-01-08 Schlumberger Technology Corporation Generating a 3d image for geological modeling
DE102012206028A1 (de) 2012-04-13 2013-10-17 Robert Bosch Gmbh Verfahren zur dreidimensionalen Kartendarstellung für ein Navigationssystem für ein Fahrzeug und Informationssystem
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US9230556B2 (en) 2012-06-05 2016-01-05 Apple Inc. Voice instructions during navigation
US9418478B2 (en) * 2012-06-05 2016-08-16 Apple Inc. Methods and apparatus for building a three-dimensional model from multiple data sets
US9052197B2 (en) 2012-06-05 2015-06-09 Apple Inc. Providing navigation instructions while device is in locked mode
US9159153B2 (en) 2012-06-05 2015-10-13 Apple Inc. Method, system and apparatus for providing visual feedback of a map view change
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US8983778B2 (en) * 2012-06-05 2015-03-17 Apple Inc. Generation of intersection information by a mapping service
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
US9367959B2 (en) 2012-06-05 2016-06-14 Apple Inc. Mapping application with 3D presentation
US9269178B2 (en) 2012-06-05 2016-02-23 Apple Inc. Virtual camera for 3D maps
US9147286B2 (en) 2012-06-06 2015-09-29 Apple Inc. Non-static 3D map views
EP2973419B1 (en) 2013-03-14 2022-07-20 Robert Bosch GmbH Time and environment aware graphical displays for driver information and driver assistance systems
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US20160054132A1 (en) * 2013-04-05 2016-02-25 Harman Becker Automotive Systems Gmbh Navigation Device, Method of Outputting an Electronic Map, and Method of Generating a Database
US9418485B2 (en) 2013-05-31 2016-08-16 Apple Inc. Adjusting heights for road path indicators
US9678651B2 (en) 2013-06-08 2017-06-13 Apple Inc. Mapping application with interactive compass
US10127721B2 (en) * 2013-07-25 2018-11-13 Hover Inc. Method and system for displaying and navigating an optimal multi-dimensional building model
CN103593872B (zh) * 2013-09-24 2016-09-07 沈阳美行科技有限公司 一种导航地图展现真实实景空间的方法
KR102028637B1 (ko) * 2013-11-29 2019-10-04 현대엠엔소프트 주식회사 내비게이션 장치 및 이의 고가도로 표시방법
US9600930B2 (en) 2013-12-11 2017-03-21 Qualcomm Incorporated Method and apparatus for optimized presentation of complex maps
JP6305912B2 (ja) * 2014-12-17 2018-04-04 株式会社ジオ技術研究所 テクスチャ生成システム
US10553021B2 (en) 2014-12-22 2020-02-04 Robert Bosch Gmbh System and methods for interactive hybrid-dimension map visualization
KR102395022B1 (ko) 2015-06-30 2022-05-06 현대오토에버 주식회사 지도 축적 변화에 따른 웹 벡터 지도 표시 시스템 및 방법
US10032034B2 (en) 2015-10-06 2018-07-24 Microsoft Technology Licensing, Llc MPEG transport frame synchronization
JP6715200B2 (ja) * 2017-02-28 2020-07-01 株式会社小松製作所 地形情報処理装置、地形情報処理方法、およびプログラム
US10430987B1 (en) 2017-06-09 2019-10-01 Snap Inc. Annotating an image with a texture fill
US11403822B2 (en) * 2018-09-21 2022-08-02 Augmntr, Inc. System and methods for data transmission and rendering of virtual objects for display
US10955256B2 (en) * 2018-10-26 2021-03-23 Here Global B.V. Mapping system and method for applying texture to visual representations of buildings
US11681834B2 (en) 2019-01-30 2023-06-20 Augmntr, Inc. Test cell presence system and methods of visualizing a test environment
CN111694903B (zh) * 2019-03-11 2023-09-12 北京地平线机器人技术研发有限公司 地图构建方法、装置、设备以及可读存储介质
US11423610B2 (en) * 2019-11-26 2022-08-23 Applied Research Associates, Inc. Large-scale environment-modeling with geometric optimization
CN112179357B (zh) * 2020-09-25 2022-04-01 中国人民解放军国防科技大学 基于单目相机的平面运动目标视觉导航方法及系统
CN112991558B (zh) * 2021-05-10 2021-08-06 南京千目信息科技有限公司 一种地图编辑方法和地图编辑器
CN115661315A (zh) * 2022-09-30 2023-01-31 武汉光庭信息技术股份有限公司 基于高精度地图在三维空间中的立体桥柱生成方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1798706A2 (en) 1997-10-27 2007-06-20 Matsushita Electric Industrial Co., Ltd. Three-dimensional map display device and device for creating data used therein
US6744442B1 (en) * 2000-08-29 2004-06-01 Harris Corporation Texture mapping system used for creating three-dimensional urban models
US7612775B2 (en) * 2005-07-28 2009-11-03 The Boeing Company Real-time conformal terrain rendering
US8144161B2 (en) * 2006-12-08 2012-03-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Texture synthesis
JP4858197B2 (ja) * 2007-01-31 2012-01-18 ソニー株式会社 情報処理装置、画像表示装置、情報処理システム、情報処理方法およびプログラム
US8482558B2 (en) * 2007-11-16 2013-07-09 M.I.C. Industries, Inc. Systems and methods for computational design and modeling of buildings

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10900793B2 (en) 2017-01-26 2021-01-26 Samsung Electronics Co., Ltd. Vehicle path guiding apparatus and method

Also Published As

Publication number Publication date
US20090273601A1 (en) 2009-11-05
US8243065B2 (en) 2012-08-14
KR20090114860A (ko) 2009-11-04

Similar Documents

Publication Publication Date Title
KR101085390B1 (ko) 3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치
CN114219902B (zh) 气象数据的体绘制渲染方法、装置和计算机设备
CN104463948B (zh) 三维虚拟现实系统与地理信息系统的无缝可视化方法
CN1926558B (zh) 对任意成三角形的表面应用精确三维体纹理的系统和方法
KR100738500B1 (ko) 영상 기반 돌출 변위 매핑 방법과, 이를 이용한 이중 변위매핑 방법
EP2973423B1 (en) System and method for display of a repeating texture stored in a texture atlas
CN102044089A (zh) 一种三维模型的自适应化简、渐进传输和快速绘制的方法
McLaren et al. Visualisation of digital terrain models: techniques and applications
US7098915B2 (en) System and method for determining line-of-sight volume for a specified point
KR20080018404A (ko) 게임 제작을 위한 배경 제작 프로그램을 저장한 컴퓨터에서읽을 수 있는 기록매체
US20170372512A1 (en) System and Methods for Generating Procedural Window Lighting Effects
CN114138265B (zh) 一种基于数字孪生的可视化方法
CN107170040A (zh) 一种三维桥梁场景构建方法和装置
TW201537533A (zh) 三次元地圖顯示系統
TWI552120B (zh) 三次元地圖顯示系統
Yoo et al. Image‐Based modeling of urban buildings using aerial photographs and Digital Maps
CN117951426A (zh) 基于cim平台的城市级建筑日照量计算方法、系统
CN102117491A (zh) 一种三维建模中纹理数据的绘制方法及装置
CN113689515B (zh) 地图渲染系统、方法及介质
CN117934705A (zh) 建筑模型批量生成方法、装置、可读存储介质及电子设备
Kennie et al. Modelling for digital terrain and landscape visualisation
RU2295772C1 (ru) Способ генерирования текстуры в реальном масштабе времени и устройство для его реализации
Chang et al. Hierarchical simplification of city models to maintain urban legibility.
Döllner et al. Expressive virtual 3D city models
Yang et al. Game engine support for terrain rendering in architectural design

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20080430

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20091015

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20080430

Comment text: Patent Application

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20110315

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20111026

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20111115

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20111115

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20141007

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20141007

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20151207

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20151207

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20161019

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20161019

Start annual number: 6

End annual number: 6

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20180826