[go: up one dir, main page]

JP4210309B2 - Image data display system with map information and image data display program with map information - Google Patents

Image data display system with map information and image data display program with map information Download PDF

Info

Publication number
JP4210309B2
JP4210309B2 JP2007106460A JP2007106460A JP4210309B2 JP 4210309 B2 JP4210309 B2 JP 4210309B2 JP 2007106460 A JP2007106460 A JP 2007106460A JP 2007106460 A JP2007106460 A JP 2007106460A JP 4210309 B2 JP4210309 B2 JP 4210309B2
Authority
JP
Japan
Prior art keywords
image
information
shooting
display
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007106460A
Other languages
Japanese (ja)
Other versions
JP2008170930A (en
Inventor
和夫 織田
聡 中山
秀幸 兼原
信之 水谷
智康 太田
秀人 佐藤
淳 谷米
Original Assignee
株式会社ロケーションビュー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ロケーションビュー filed Critical 株式会社ロケーションビュー
Priority to JP2007106460A priority Critical patent/JP4210309B2/en
Priority to PCT/JP2007/071583 priority patent/WO2008072429A1/en
Publication of JP2008170930A publication Critical patent/JP2008170930A/en
Application granted granted Critical
Publication of JP4210309B2 publication Critical patent/JP4210309B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、地理的環境を把握するための画像データを、たとえば道路走行や上空飛行によって撮影して収集し、必要な地理的範囲や画像の解像度・画像データ量に応じて抽出・加工し、地理座標と関連付けて空間的および時間的に管理し、地図と連動させて表示させる地理情報関連付き画像データ表示システムに関するものである。   The present invention captures and collects image data for grasping a geographical environment, for example, by shooting on a road or flying over the sky, and extracting and processing according to a required geographical range, image resolution, and image data amount, The present invention relates to an image data display system associated with geographic information that is managed spatially and temporally in association with geographic coordinates and displayed in conjunction with a map.

情報技術の高度化および大容量通信網の整備に伴い、インターネット、カーナビゲーション、携帯電話などの表示媒体において写真や動画像などの大容量データベースが容易に扱えるようになった。  With the advancement of information technology and the development of large-capacity communication networks, large-capacity databases such as photographs and moving images can now be handled easily on display media such as the Internet, car navigation, and mobile phones.

これに伴い、地理情報システム(GIS)やインターネット上での地図検索サイトにおいて、地理属性として画像を利用することで、実際の風景をデフォルメなく正確に利用者に伝えるニーズが多くなってきている。  Along with this, there is a growing need to accurately convey the actual landscape to the user without deformation by using an image as a geographic attribute in a geographic information system (GIS) or a map search site on the Internet.

特定の道路から撮影した街並み映像を撮影し、道路や河川の維持管理に使用する技術は開発されている(例えば、特許文献1参照)。   A technique has been developed for taking a cityscape image taken from a specific road and using it for maintenance of roads and rivers (see, for example, Patent Document 1).

この技術では、道路等線上の地物で得られた画像は、道路中心線など1次元的な地物の上に、その地物上に指定された始点からの距離と関連付けて管理される。   In this technique, an image obtained from a feature on a road contour line is managed on a one-dimensional feature such as a road center line in association with a distance from a start point designated on the feature.

また、実際に撮影した画像ではなく、人工的に作成されたCG画像を、部分的にグラフ構造を持つ道路と関連させて管理する技術もある(例えば、特許文献2参照)。最近では、実際の画像を表示する技術が開発されている(例えば、特許文献3参照)。
特許3099103号公報 特開平6−83937号公報 特開2005−3752号公報
In addition, there is a technique for managing an artificially created CG image in association with a road having a graph structure in part, not an actually captured image (see, for example, Patent Document 2). Recently, a technique for displaying an actual image has been developed (see, for example, Patent Document 3).
Japanese Patent No. 3099103 Japanese Patent Laid-Open No. 6-83937 JP 2005-3752 A

本発明では、グラフ構造をした道路ネットワークの周辺環境を撮影して得られた画像データと周辺地図を含めた地理情報とを関連付けて構成されたデータを表示することを目的とするものである。 An object of the present invention is to display data configured by associating image data obtained by photographing a surrounding environment of a road network having a graph structure and geographic information including a surrounding map.

従来の技術では、1箇所の地図情報と関連付けて管理できる画像は1種類のみであったため、季節や時間帯が異なる複数の画像から選択して表示することができなかった。   In the conventional technique, only one type of image can be managed in association with one piece of map information, and therefore, it has been impossible to select and display from a plurality of images having different seasons and time zones.

つまり、季節や時間帯が異なる時期に撮影した画像を同時に管理したり、見たい季節や時間帯の画像をその中から選択して表示することができなかった。   In other words, it was impossible to simultaneously manage images taken in different seasons and time zones, and to select and display images of the seasons and time zones desired to be viewed.

したがって、1箇所の地図情報と複数の画像を関連付けて構成されたデータを用いて、条件指定や検索によって、閲覧したい条件を満たす最適な画像を地図と共に表示することが必要である。   Therefore, it is necessary to display an optimal image that satisfies the condition desired to be viewed together with a map by specifying conditions or searching using data configured by associating a single map information with a plurality of images.

また、画像の検索では、大規模なデータベースの中では大量の画像ファイルの中から探索を行うため、高速な検索方法が必要となる。既存の地理情報と組み合わせて利用することを可能とするため、たとえば任意の点(たとえばビル)を選んだとき、その点の座標の近傍の座標を属性として持つ周辺の画像を検索し、その画像の進行方向を基点に方位角を計算し、対象となるビルを前面に表示できることが必要である。   Further, in searching for images, a large-scale database is searched from a large number of image files, so a high-speed search method is required. In order to be able to use it in combination with existing geographic information, for example, when an arbitrary point (for example, a building) is selected, a surrounding image having coordinates near the coordinates of the point as an attribute is searched, and the image It is necessary to be able to calculate the azimuth angle based on the traveling direction of and to display the target building on the front.

さらに、高度な画像の検索方法として、場所による検索だけでなく、画像のもつ意味的な検索が行える、すなわち写っている対象の内容による検索が必要である。   Furthermore, as an advanced image search method, it is necessary to perform not only search by location but also semantic search of an image, that is, search based on the contents of an object being captured.

例えば、公園付近の画像・大店舗付近の画像等、地理的な内容に対応する画像を検索することが必要である。   For example, it is necessary to search for an image corresponding to geographical contents such as an image near a park or an image near a large store.

本発明は、移動体に全周囲撮影カメラ、GPSを有するハイブリット型の位置センサを搭載して進行路を移動したときに一定時間毎に撮影し、前記位置センサの情報を基にして得られた撮影位置、全周囲撮影カメラの撮影中心方向、撮影年月日及び撮影時間帯と共に得た複数の全周囲画像情報の中から撮影地点の全周囲画像を第1の全周囲画像として抽出し、この第1の全周囲画像を、所定の表示範囲でコンピュータグラフィックで画面に表示すると共に、前記撮影地点の範囲を含む地図とを前記画面に連動表示する地理情報関連付き画像データ表示システムにおいて、
前記地図上の前記進行路のID番号と該進行路の両端のノードのIDコードと進行路の始点、終点の座標及び方向を有するベクトル情報を含むリンク情報を有する路線ネットワーク並びに、該路線ネットワークにおける前記第1の全周囲画像と、該第1の全周囲画像毎に前記撮影位置と前記撮影中心方向と前記進行路における撮影順番と前記撮影位置に対応する前記進行路のID番号とを含む画像付属情報とが関連付けられて記憶され、かつ前記地図を記憶した記憶装置と、
前記第1の全周囲画像毎の画像付属情報を読み込み、これらの画像付属情報に含まれる前記撮影位置をそれぞれ抽出し、これらを前記地図上の対応する位置に表示する手段と、
前記地図上に前記撮影位置が指定されると、該指定された撮影位置を有する前記画像付属情報及び、該画像付属情報に関連付けている前記第1の全周囲画像を前記記憶装置から読み込む手段と、
前記読み込まれた第1の全周囲画像を前記地図の表示領域とは異なる画像表示領域に第2の全周囲画像として前記所定の表示範囲で前記コンピュータグラフィックにより表示する画像表示手段と、
連続表示の指示に伴って、前記読み込まれた画像付属情報の前記進行路のID番号を有する全ての画像付属情報の撮影順番を読み込み、これらの撮影順番に基づいて昇順又は逆順に、これらの画像付属情報に関連付けられている前記第1の全周囲画像を順次読み込んで、該読み込み毎にこれを前記画像表示領域に前記所定の表示範囲で前記コンピュータグラフィックにより第3の全周囲画像として連続表示させる撮像画像表示手段と、
前記撮影順番が前記両端のいずれかの端の番号の場合は、前記撮像画像表示手段の連続表示を停止させ、該停止させたときに表示されている前記第3の全周囲画像を第4の全周囲画像とし、この第4の全周囲画像に関連付けられている前記画像付属情報の前記ID番号を有する前記進行路の前記いずれかの端の前記ノードのIDコードを検索し、このIDコードに関連するノードに接続する全て進行路のID番号を検索し、該検索したこれらの進行路の道路中心の方向を読み込む手段と、
前記読み込んだ全ての進行路の道路中心の方向毎に、その方向と前記撮影中心方向とに基づいて前記第4の全周囲画像上における前記撮影中心方向からの、前記読み込んだ全ての進行路の道路中心の方向毎の方位を求め、前記第4の全周囲画像上に、これらの方位毎に前記進行路を選択させるための進行路選択ポリゴンの表示位置を道路上となる所定の高さで求め、これらの表示位置に前記進行路選択ポリゴンを前記第4の全周囲画像上に合成した第5の全周囲画像を得て、この第5の全周囲画像を前記所定の表示範囲で前記コンピュータグラフィックにより表示させる手段と、
前記前記進行路選択ポリゴンが選択されたとき、該進行路選択ポリゴンに関連付けられた前記リンク情報の前記ID番号を有する画像付属情報を前記撮像画像表示手段に読み込みさせる手段とを備えたことを要旨とする。
The present invention is obtained on the basis of the information of the position sensor, which is taken every fixed time when a moving body is equipped with a hybrid position sensor having an all-around photographing camera and a GPS and moves along a traveling path. An all-around image of the shooting point is extracted as a first all-around image from a plurality of all-around image information obtained together with the shooting position, the shooting center direction of the all-around shooting camera, the shooting date, and the shooting time zone. In the image data display system with associated geographic information, the first omnidirectional image is displayed on the screen in a computer graphic with a predetermined display range, and a map including the range of the shooting point is displayed in conjunction with the screen.
ID code and the traveling path start point of the both ends of the node ID number and該進path of said advancing path on the map, route network and having a link information including the vector information with coordinates and directions of the end point,該路-line network The first omnidirectional image at, and for each of the first omnidirectional images, the photographing position, the photographing center direction, the photographing order in the traveling path, and the ID number of the traveling path corresponding to the photographing position are included. A storage device that stores image associated information and stores the map; and
Means for reading image attachment information for each of the first omnidirectional images, extracting the shooting positions included in the image attachment information, and displaying them at corresponding positions on the map;
Means for reading, from the storage device, the image attachment information having the designated shooting position and the first omnidirectional image associated with the image attachment information when the shooting position is designated on the map; ,
Image display means for displaying the read first omnidirectional image as a second omnidirectional image in an image display area different from the map display area by the computer graphic in the predetermined display range;
Accompanying the instruction of continuous display, the imaging order of all the image auxiliary information having the ID number of the traveling path of the read image auxiliary information is read, and these images are arranged in ascending order or reverse order based on the imaging order. The first omnidirectional image associated with the attached information is sequentially read, and each time it is read, the first omnidirectional image is continuously displayed in the image display area as the third omnidirectional image by the computer graphic within the predetermined display range. Captured image display means;
When the photographing order is the number of either end of the both ends, the continuous display of the captured image display means is stopped, and the third omnidirectional image displayed when the stop is stopped is the fourth The ID code of the node at either end of the traveling path having the ID number of the image ancillary information associated with the fourth omnidirectional image is searched for as the omnidirectional image, and the ID code Means for retrieving the ID numbers of all the traveling paths connected to the related nodes, and reading the direction of the road center of the retrieved traveling paths;
For each direction of the road center of all the travel routes read, the direction of all the travel routes read from the photographing center direction on the fourth all-around image based on the direction and the photographing center direction. The azimuth for each direction of the road center is obtained, and the display position of the travel path selection polygon for selecting the travel path for each of these azimuths is displayed on the fourth all-around image at a predetermined height on the road. And obtaining a fifth omnidirectional image obtained by synthesizing the traveling path selection polygon on the fourth omnidirectional image at these display positions, and obtaining the fifth omnidirectional image within the predetermined display range in the computer. Means for graphic display;
And means for causing the captured image display means to read the image attached information having the ID number of the link information associated with the travel path selection polygon when the travel path selection polygon is selected. And

本発明では、グラフ構造をした道路ネットワーク(図17に示すような、交差点をノード・交差点間の道路中心線を示す連続線分をリンクとするネットワーク情報)の周辺環境を撮影して得られた複数の画像データと周辺地図を含めた地理情報とを関連付けて構成されたデータを用いて、地図と連動させながら、該当する地点に対応する画像を表示することができる。   In the present invention, it is obtained by photographing the surrounding environment of a road network having a graph structure (network information in which the intersection is a node and the continuous line segment indicating the road center line between the intersections is a link as shown in FIG. 17). Using data configured by associating a plurality of image data and geographic information including a surrounding map, an image corresponding to the corresponding point can be displayed while being linked with the map.

グラフ構造として道路ネットワークを利用する場合は、ノードとして交差点もしくはそれに類するもの(道路の末端・道路属性が変更される点(橋の末端やトンネルの末端))、リンクとしてノード間を結ぶ道路中心線と解釈してもよい。   When a road network is used as a graph structure, an intersection or the like as a node (a point at which a road end or road attribute is changed (a bridge end or a tunnel end)), a road center line connecting nodes as a link May be interpreted.

また、道路などの地図情報と画像を関連付け、場所を表す地理属性として画像を用いることで、現地のリアルな状況を利用者に視覚的に伝えることができる。   In addition, by associating map information such as roads with an image and using the image as a geographic attribute representing a place, it is possible to visually convey the actual local situation to the user.

さらに、季節や時間帯が異なる複数の画像を1箇所の地図情報と関連付けて管理できるため、利用者が必要とする時期や時間の状況に最も近い画像を提供することができる。   Furthermore, since a plurality of images having different seasons and time zones can be managed in association with one piece of map information, it is possible to provide an image closest to the time and time conditions required by the user.

本実施の形態は、道路などの地図情報と画像を関連付けることで、たとえば、不動産取引のためのマンションや店舗などの物件情報や、町の名所、駅から対象不動産物件や店舗への経路環境表示、商店街の広告活動、消防や警察など緊急通報における位置特定と周辺状況把握、道路河川管理における現地把握など、場所を表す地理属性として映像を用いることで、現地のリアルな状況を利用者に視覚的に伝えることができる地理情報関連付き画像データ表示システムである。   In this embodiment, map information such as roads is associated with an image, for example, property information such as apartments and stores for real estate transactions, and route environment display from a town landmark or station to a target real estate property or store. By using video as geographical attributes to represent places, such as advertising activities in shopping streets, location and surrounding situation in emergency notifications such as firefighting and police, and local situation in road river management, the local real situation can be made available to users This is an image data display system with geographic information that can be conveyed visually.

また、対象とする町を面的に、かつ広範囲でデータを取得してサービスを行えば、利用者は調べたい任意の場所を自由に選択することができる。また、たとえば季節別や多時期で撮影したもの画像を用意すれば、町の変遷・環境変化の提供も可能となる地理情報関連付き画像データ表示システムである。  In addition, if a target town is acquired in a wide area and data is provided for a service, the user can freely select an arbitrary place to be examined. Further, for example, if an image taken at different seasons or at different times is prepared, it is an image data display system with geographic information related that can provide changes in the town and changes in the environment.

これらのニーズに対して不特定多数の利用者に情報を提供する手段としては、ウェブ配信を利用することで、多くの活用が可能となる。  As means for providing information to a large number of unspecified users in response to these needs, many uses can be made by using web distribution.

映像データベースを地図に関連づけて表示検索するには、従来の2次元地理座標としての管理ではなく、映像の撮影された点(撮影地点)、撮影された方向、撮影された時間(季節)などの多次元時空間情報をメタデータとして管理することにより、利用者に必要な情報を検索し提供することが可能となる。  In order to display and search the video database in association with the map, it is not the conventional management as two-dimensional geographic coordinates, but the point where the video was shot (shooting point), the direction taken, the time taken (season), etc. By managing multidimensional spatio-temporal information as metadata, it becomes possible to search and provide necessary information to the user.

このような映像情報をあらかじめ広範囲かつ大量のデータを収集しておけば、利用者指定する範囲や位置に応じて、迅速に提供することができるというビジネスモデルが構築できる。また、新規に撮影する場合も、既に収集したデータと同様の管理を行えば、要求に応じて簡単に再利用することが可能となる。  If a large amount of such video information is collected in advance, a business model can be constructed that can be quickly provided according to the range and position designated by the user. Also, when a new image is taken, if it is managed in the same way as already collected data, it can be easily reused upon request.

更に、同じ箇所を1回の撮影だけでなく、複数の時期に撮影したものを利用することができれば、利用者の希望する状態の画像、たとえば季節や時刻などを指定した画像の提供が可能になる。たとえば、撮影年度の異なる画像が利用できれば、特定の地区の経年変化を調査することが可能となる。また、「桜の時期の画像がみたい」「紅葉時の画像がみたい」といった、街並みや観光道路などを利用者の見たい状態で見ることが可能となる。  Furthermore, if it is possible to use not only a single shooting of the same part but also a plurality of times, it is possible to provide an image in a state desired by the user, for example, an image specifying a season or time. Become. For example, if images with different shooting years can be used, it is possible to investigate secular changes in a specific district. In addition, it is possible to view the cityscape, sightseeing road, etc. in a state that the user wants to see, such as “I want to see the image at the time of cherry blossoms” or “I want to see the image at the time of autumn leaves”.

広い道路の場合は、走行路線に近い側の建物はよく映るが、対向車線側の建物はあまりよく映らない場合がある。すなわち、沿線の画像をよりよく表現するために往復撮影する必要が生じる。往復撮影した場合も、走行方向とともに上記複数時期撮影の場合と同様に管理すればよい。  In the case of wide roads, the buildings on the side close to the driving route appear well, but the buildings on the opposite lane may not appear well. In other words, it is necessary to perform reciprocal shooting in order to better express the image along the railway. Even in the case of reciprocal shooting, it may be managed in the same manner as in the case of the multi-period shooting as well as the traveling direction.

また、画像に付与された付属情報(撮影方位など)を利用して、特定の地物が写っている画像を、大量画像データの中から検索し、その位置を表示することが可能となるシステムである。  In addition, a system that uses ancillary information (such as a shooting direction) attached to an image to search an image in which a specific feature is captured from a large amount of image data and displays the position of the image. It is.

次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。ただし、図面は模式的なものであることに留意すべきである。   Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, it should be noted that the drawings are schematic.

本発明の実施の形態による地理情報関連付き画像データ表示システム100は、図1及び図22に示すように、地理表示手段101、撮影位置表示手段102、撮影画像表示手段103、経路探索連動手段104、画像検索手段105、及び地図データ108と切り出し画像データf4を格納する記憶装置106から構成される。   As shown in FIGS. 1 and 22, an image data display system 100 with a geographic information association according to an embodiment of the present invention includes a geographic display unit 101, a shooting position display unit 102, a shot image display unit 103, and a route search interlocking unit 104. , An image search means 105, and a storage device 106 for storing the map data 108 and the cut-out image data f4.

地理表示手段101は、記憶装置106に格納された地図データ108を読み込み、スクロール・縮尺切り替え・表示項目切り替え・表示色切替などを行いながら、地図を表示する。   The geographic display means 101 reads the map data 108 stored in the storage device 106, and displays the map while scrolling, switching scales, switching display items, switching display colors, and the like.

撮影位置表示手段102は、地理表示手段101によって表示した地図に、記憶装置106に格納された切り出し画像データf4(画像ファイル、画像ファイルの付属情報(画像取得座標・画像取得方位・画像取得リンクID・取得リンク内での順番・画像取得カメラ情報(撮影高等))・リンクのグラフ構造(各ノードに接続するリンクのIDのリストを含む)から、図23に示すように画像の撮影位置(地図上の画像取得座標)を描画する。ユーザはこの描画位置をマウスクリック等で指定し、所望の撮影地点の撮影画像を表示させる。   The shooting position display unit 102 displays the image data f4 (image file, attached information of the image file (image acquisition coordinates / image acquisition direction / image acquisition link ID) stored in the storage device 106 on the map displayed by the geographic display unit 101. -Order within acquisition link-Image acquisition camera information (photographing height, etc.)-From the link graph structure (including a list of link IDs connected to each node), as shown in FIG. The user draws the upper image acquisition coordinates), and the user designates the drawing position with a mouse click or the like, and displays a photographed image at a desired photographing point.

撮影画像表示手段103は、画像表示部と画像連続表示部から構成される。   The photographed image display unit 103 includes an image display unit and an image continuous display unit.

画像表示部は、図23に示すように、地理表示手段101に表示された撮影位置表示手段102の撮影位置のひとつをマウス操作等で指定したとき、その撮影位置に最も近い画像の切り出し画像データの画像ファイル付属情報の画像取得座標を用いて検索し、その最も近い画像ファイルを読み出して表示する。   As shown in FIG. 23, when one of the shooting positions of the shooting position display means 102 displayed on the geographic display means 101 is designated by a mouse operation or the like, the image display unit cuts out image data of the image closest to the shooting position. A search is performed using the image acquisition coordinates of the image file attached information, and the closest image file is read and displayed.

指定中の撮影位置のフレーム画像をそのまま表示する単純表示のほか、図25に示すように、格納されている画像が全周画像(周囲360度が撮影され、正距投影図法(縦が鉛直角・横が水平角に線形に投影される図法)で撮影された画像の場合は、撮影中心から任意のカメラパラメータ(カメラの向き・焦点距離(画角))で撮影した画像をCG処理等の手段によって合成して表示する。このような表示方法をカメラパラメータ指定表示を行う。   In addition to the simple display in which the frame image at the designated shooting position is displayed as it is, as shown in FIG. 25, the stored image is an all-round image (360 ° circumference is taken and equirectangular projection (vertical is vertical angle). In the case of an image photographed with a method in which the horizontal is projected linearly on a horizontal angle), an image photographed with arbitrary camera parameters (camera direction / focal length (angle of view)) from the photographing center is subjected to CG processing, etc. The display is synthesized by means of the camera parameter designation display.

さらに、地図データ108に注記データ(地図上の地物の名称・地物の種類、その地図上の位置座標の組合せからなるデータ)が含まれる場合は、図24に示すように、切り出し画像データf4に含まれる画像取得座標と画像取得方位、及び地図データ108)に含まれる注記表示位置から、画像取得座標からみた注記データを付与した対象物の方位を算出し、表示した画像内の対応する方位の位置に注記データを描画する。   Furthermore, when the map data 108 includes annotation data (data consisting of a combination of the feature name / feature type on the map and the position coordinates on the map), as shown in FIG. From the image acquisition coordinates and image acquisition azimuth included in f4 and the annotation display position included in the map data 108), the azimuth of the object to which the annotation data is viewed from the image acquisition coordinates is calculated, and the corresponding in the displayed image Draw annotation data at the azimuth position.

また、画像連続表示部は、同じリンクIDを持つ画像を、取得リンク内の撮影順番に従って昇順若しくは逆順に順次表示することにより、あたかも移動しているように連続して表示し、動画とする。連続表示は、移動方向指定ボタンと一時停止ボタンで制御することができる。移動方向指定ボタンは、同一経路と対応付けられた画像データの進行方向に応じた記号として表示される。また、移動速度を移動速度指定ボックスで指定することが可能である。   The continuous image display unit displays images having the same link ID sequentially in ascending or reverse order according to the shooting order in the acquired link, thereby continuously displaying the images as if they were moving, and creating a moving image. Continuous display can be controlled with a movement direction designation button and a pause button. The movement direction designation button is displayed as a symbol corresponding to the traveling direction of the image data associated with the same route. In addition, the moving speed can be designated by a moving speed designation box.

上記画像連続表示で取得リンク内の順番の最初もしくは最後になった場合は、連続表示を打ち切り、経路選択を行う。経路選択では、ます画像データに含まれる画像ファイルの付属情報から最後に表示した側のノードIDを調べる。次に切り出し画像データに含まれるグラフ構造を調べ、そのノードに接続するリンクを検索する。さらに、切り出し画像データに含まれる画像取得リンクIDを調べることにより、そのリンクを撮影した画像データが存在する場合は、画像に表示されている各経路上に矢印やクリックボタン等を描画し、次にどの経路の画像を表示するかを指定させる。   If the order in the acquisition link is the first or last in the continuous image display, the continuous display is discontinued and the route is selected. In route selection, the node ID of the last displayed side is checked from the attached information of the image file included in the image data. Next, the graph structure included in the cut-out image data is examined, and a link connected to the node is searched. Further, by examining the image acquisition link ID included in the cut-out image data, if there is image data obtained by capturing the link, an arrow, a click button, or the like is drawn on each path displayed in the image, and the next To specify which route image to display.

経路探索連動手段104は、地図データ108に含まれる道路ネットワークを用い、指定された起点座標から終着点座標までの経路を探索し、地理表示手段101によって表示した地図に経路を表示するとともに、その経路に対応する切り出し画像データf4が存在する部分については、地理表示手段101によって表示した地図に画像の画像取得座標の撮影位置も描画する。   The route search interlocking means 104 uses the road network included in the map data 108 to search for a route from the designated start point coordinates to the end point coordinates, and displays the route on the map displayed by the geographic display means 101. For the portion where the cut-out image data f4 corresponding to the route exists, the shooting position of the image acquisition coordinates of the image is also drawn on the map displayed by the geographic display means 101.

なお、経路探索連動手段104は、経路探索のときは、経路上の全ての画像取得座標の撮影位置のみを描画し、それ以外は描画しない。このとき、経路上の撮影位置が選択された場合は、他の撮影位置は他とは異なる色で描画する。   The route search interlocking unit 104 draws only the shooting positions of all image acquisition coordinates on the route during the route search, and does not draw the rest. At this time, when a shooting position on the route is selected, the other shooting positions are drawn in a color different from the others.

前述の道路ネットワークとは、例えば走行軌跡パターン、道路の形状、幅等を含む。   The above-described road network includes, for example, a travel locus pattern, a road shape, a width, and the like.

グラフ構造のネットワークは、道路、線路、海路、管路、空路、坑道等があり、総称して路線ネットワークと称する場合もある。   A network having a graph structure includes a road, a track, a sea route, a pipeline, an air route, a mine shaft, and the like, and may be collectively referred to as a route network.

さらに、起点から終着点までの画像を順次描画する。   In addition, images from the start point to the end point are sequentially drawn.

画像検索手段105は、地図データ108に含まれる施設名等を含む注記データを用いて、撮影されている対象物の画像を検索する。注記データには地図に描画する注記文字列・注記表示位置・注記種類が含まれているものとする。   The image search means 105 searches for an image of the object being photographed using the annotation data including the facility name included in the map data 108. It is assumed that the note data includes a note character string to be drawn on the map, a note display position, and a note type.

画像検索は、図26のフローチャートに示した手順で行う。   The image search is performed according to the procedure shown in the flowchart of FIG.

ステップS200:注記データと画像の照合
各注記データについて、その注記が最もよく映っていると判定される撮影されている画像を探索しておく。典型的には、注記データの注記表示位置に最も近い撮影位置座標を有する画像ファイルを引当て、この画像ファイルを有する切り出し画像データの画像ファイル付属情報を用いて検索し、選択しておく。ただし、定められた基準(たとえば距離のしきい値)を満たす画像がない場合は、注記データに対応する画像なしとする。
Step S200: Matching of note data and image For each piece of note data, a photographed image for which it is determined that the note is best reflected is searched. Typically, an image file having a shooting position coordinate closest to the note display position of the note data is allocated, and the image file attached information of the cut-out image data having this image file is searched and selected. However, if there is no image satisfying a predetermined criterion (for example, a distance threshold), there is no image corresponding to the annotation data.

ステップS201:キーワード入力
検索したい対象の名称や種類などを含むキーワードを入力する。地物の種類としては、公共施設・公園・交差点名などが挙げられる。また、キーワードは地物名称の全部もしくは一部(新宿駅を調べたい場合は、「新宿」など)を指定する。
Step S201: Keyword input A keyword including the name and type of an object to be searched is input. The types of features include public facilities, parks, and intersection names. The keyword specifies all or part of the feature name (such as “Shinjuku” if you want to check Shinjuku Station).

ステップS202:注記データ検索
上記のキーワードに対応する注記データを検索する。このとき、ステップS200で対応する画像が選択された注記のみを対象とする。キーワードとの照合は注記文字列もしくは注記種類を対象に行う。
Step S202: Note data search The note data corresponding to the keyword is searched. At this time, only the note for which the corresponding image has been selected in step S200 is targeted. Matching with keywords is done for note strings or note types.

ステップS203:注記候補選択
複数の注記がキーワードと照合した場合は、それらを画面に表示し、ユーザが選択する。
Step S203: Candidate candidate selection When a plurality of notes are matched with keywords, they are displayed on the screen and selected by the user.

ステップS204:画像表示
ユーザが選択した注記に対応した画像を、画像ファイルを切り出し画像データから読み出し、コンピュータ画面の画像表示部に表示する。
Step S204: Image Display An image corresponding to the note selected by the user is cut out from the image data and displayed on the image display unit of the computer screen.

つづいて、記憶装置106に格納される地図データ108と切り出し画像データf4について説明する。   Next, the map data 108 and the cutout image data f4 stored in the storage device 106 will be described.

地図データ108には、道路等のネットワークデータf0と、背景地図と、地図上に存在する対象物に付与された注記データと、地図記号データが含まれる。   The map data 108 includes network data f0 such as roads, background maps, annotation data given to objects existing on the map, and map symbol data.

地図データ108は、専用に作成したデータではなく、ナビゲーションシステム用などに用いるために作成された一般的なデータであって構わない。   The map data 108 may be general data created for use in a navigation system or the like, not data created exclusively.

一方、切り出し画像データf4には、画像ファイルと、画像ファイル付属情報、およびグラフ構造情報からなる。画像ファイル付属情報は、各画像ファイルについて画像取得座標と、画像取得方位と、画像取得リンクIDと、撮影開始側のノードIDと、撮影終了がわのノードIDと、撮影開始側から数えた撮影順番と、取得した画像に対応付けられるグラフ構造情報及び画像取得カメラ情報(撮影高など)が含まれる。   On the other hand, the cut-out image data f4 includes an image file, image file attached information, and graph structure information. The image file attached information includes image acquisition coordinates, image acquisition orientation, image acquisition link ID, shooting start side node ID, shooting end side node ID, and shooting count counted from the shooting start side for each image file. The order, graph structure information associated with the acquired image, and image acquisition camera information (such as shooting height) are included.

リンクのグラフ構造は、画像が取得されたリンクの接続関係を示すもので、データに含まれる各ノードについて、ノードIDと、そのノードに接続するリンクのリンクIDのリストからなる。   The link graph structure indicates the connection relation of the link from which the image is acquired, and includes a node ID and a list of link IDs of links connected to the node for each node included in the data.

また、画像の取得方位とは、撮影時のカメラの中心軸の方位である。   The image acquisition direction is the direction of the central axis of the camera at the time of shooting.

画像が全周画像の場合は、撮影地点から見た全周囲画像の中心が対応する方位である。   When the image is an all-around image, the center of the all-around image viewed from the shooting point is the corresponding orientation.

画像取得リンクIDとは、グラフ構造として道路ネットワークを利用する場合は、画像を撮影した道路中心のIDに対応する。 The image acquisition link ID corresponds to the ID of the center of the road where the image was taken when the road network is used as the graph structure.

また、ノードとは、例えば道路の交差点、行き止まり等を特定するための座標点のことであり、リンクは各ノードを繋いだベクトルでリンクの始点の座標、終点の座標、リンクの方向、リンクの道路幅等のデータを含んでいる。   A node is a coordinate point for specifying, for example, an intersection of roads, a dead end, and the like. A link is a vector connecting each node, the coordinates of the start point of the link, the coordinates of the end point, the direction of the link, and the link direction. Includes data such as road width.

切り出し画像データf4は、後述する地理情報関連付き画像データ管理システム10によって作成されるデータである。   The cut-out image data f4 is data created by the geographic data-related image data management system 10 described later.

地理情報関連付き画像データ表示システム100は、コンピュータ上で単独で動作するプログラムでもよい。また、切り出し画像データf4をデータサーバ、地図データ108をクライアントもしくはデータサーバに配したインターネット上でのシステムとして実現してもよい。   The image data display system 100 associated with geographic information may be a program that operates independently on a computer. Further, the cut-out image data f4 may be realized as a system on the Internet in which the data server and the map data 108 are arranged on a client or a data server.

次に、地理情報関連付き画像データ表示システム100で利用する切り出し画像データf4を作成する地理座標関連付き画像データ管理システム10について説明する。   Next, the geographic data-related image data management system 10 that creates the cut-out image data f4 used in the geographic information-related image data display system 100 will be described.

地理座標関連付き画像データ管理システム10は、図1に示すように、画像撮影サブシステム20、画像データ編集サブシステム30、画像データ管理サブシステム40、及び画像データ管理サブシステム40に接続された記憶装置50から構成される。   As shown in FIG. 1, the image data management system with geographic coordinates 10 includes an image capturing subsystem 20, an image data editing subsystem 30, an image data management subsystem 40, and a storage connected to the image data management subsystem 40. The apparatus 50 is comprised.

まず、画像撮影サブシステム20は、画像センサ22を接続し、地図リンクに沿った周辺環境を撮影した画像を撮影時刻とともに収集画像データd1として収集する画像データ収集手段24と、ハイブリッド型位置センサ23を接続し、画像の撮影位置座標を座標計測時刻とともに収集画像属性情報d2として収集する位置データ収集手段25とを搭載した移動手段を含む。   First, the image capturing subsystem 20 is connected to the image sensor 22, and an image data collecting unit 24 that collects an image of the surrounding environment along the map link as the collected image data d1 together with the photographing time, and the hybrid position sensor 23. , And a moving means equipped with a position data collecting means 25 for collecting the photographing position coordinates of the image as the collected image attribute information d2 together with the coordinate measurement time.

ここで地図リンクとは、たとえば、図17に示したグラフ構造を持つ2点間(1つの交差点から次の交差点まで)の道路をいう。便宜上、1点を始点、もう1点を終点と記すが、始点から終点というリンクの方向性を意味するものではない。   Here, the map link means a road between two points (from one intersection to the next intersection) having the graph structure shown in FIG. For convenience, one point is referred to as a start point and the other point is referred to as an end point, but this does not mean the directionality of the link from the start point to the end point.

また、移動手段とは、地図リンクに沿って飛行して上空から撮影するための航空機や、地図リンクの道路を走行する車両21をいう。   The moving means refers to an aircraft for flying along a map link and shooting from above, or a vehicle 21 traveling on a road of the map link.

つづいて、画像データ編集サブシステム30は、地図リンクを表示する地図データ表示手段31と、画像データ収集手段24によって収集した画像データを表示する画像データ表示手段32と、撮影時刻及び座標計測時刻(GPS時刻)から地図リンクの始点及び終点の通過時刻を記録するリンク始終点通過時刻登録手段33と、画像データから一定間隔ごとにデータを間引く画像間引き手段34と、実撮影管理情報登録手段35とを含む。   Subsequently, the image data editing subsystem 30 includes a map data display unit 31 that displays a map link, an image data display unit 32 that displays image data collected by the image data collection unit 24, a photographing time and a coordinate measurement time ( Link start and end point passage time registration means 33 for recording the start time and end point of the map link from GPS time), image thinning means 34 for thinning out the data from the image data at regular intervals, and actual photographing management information registration means 35; including.

さらに、画像データ管理サブシステム40は、画像撮影サブシステム20による撮影計画を管理する撮影計画手段41と、画像データ編集サブシステム30により編集された収集画像データd1と収集画像属性情報d2を取り込む撮影情報取り込み手段42と、記憶装置50に記録された情報から、指定された条件に適合した情報を抽出するデータ抽出手段44と、記憶装置50への情報の登録、記憶装置50からの情報の削除、及び記憶装置50の情報の印刷を行う管理手段43を含む。   Further, the image data management subsystem 40 is a photographing plan means 41 for managing a photographing plan by the image photographing subsystem 20, and a photographing that captures the collected image data d1 and the collected image attribute information d2 edited by the image data editing subsystem 30. Information capturing means 42, data extracting means 44 for extracting information that meets the specified conditions from information recorded in the storage device 50, registration of information in the storage device 50, and deletion of information from the storage device 50 And management means 43 for printing information in the storage device 50.

記憶装置50は、地図リンクの情報を記録するグラフ構造データベース51と、画像センサ22の情報を記録するカメラ情報データベース52と、撮影計画の情報を記録する計画・実撮影情報データベース53と、撮影情報取り込み手段42によって取り込まれた収集画像データd1及び収集画像属性情報d2をそれぞれ記録する収集画像データベース55及び収集画像属性情報データベース56と、図15に示すように地図リンクごとに各データベースの情報を関連付ける管理情報を記録するリンク関連情報データベース54とを含む。   The storage device 50 includes a graph structure database 51 that records map link information, a camera information database 52 that records image sensor 22 information, a plan / actual shooting information database 53 that records shooting plan information, and shooting information. The collected image database 55 and the collected image attribute information database 56 for recording the collected image data d1 and the collected image attribute information d2 captured by the capturing unit 42 are associated with the information of each database for each map link as shown in FIG. And a link related information database 54 for recording management information.

画像撮影サブシステム20、画像データ編集サブシステム30、及び画像データ管理サブシステム40の各サブシステム間のデータのやり取りは、ディスクなどの携帯型記憶媒体を介して行うものとするが、各サブシステムにデータ通信手段を設けて、有線または無線データ通信によって行うことができる。   Data exchange between the image capturing subsystem 20, the image data editing subsystem 30, and the image data management subsystem 40 is performed via a portable storage medium such as a disk. The data communication means can be provided in the wireless communication using wired or wireless data communication.

(画像撮影サブシステム20)
次に、画像撮影サブシステム20の各手段について詳細に説明する。なお、ここでは、移動手段の例として車両21をあげて説明するが、車両21に限るものではない。
(Image capture subsystem 20)
Next, each unit of the image capturing subsystem 20 will be described in detail. Here, the vehicle 21 will be described as an example of the moving means, but is not limited to the vehicle 21.

画像撮影サブシステム20は、図12に示したように、本発明の実施の形態で用いる地図リンクに沿った周辺画像を撮影することを目的としたサブシステムである。   As shown in FIG. 12, the image capturing subsystem 20 is a subsystem intended to capture a peripheral image along the map link used in the embodiment of the present invention.

まず、画像データ収集手段24は、画像センサ22として車両21に取り付けられた1台ないし同期をとった複数台のカメラを使って、地図リンクである道路を走行しながら画像を撮影する。この際、次に説明する位置情報との同期を取るため、ハイブリッド型位置センサ23で検知される全地球無線測位システム(GPS)から送信される時刻を、時系列で得られる各画像フレームに付与して、収集画像データd1として一時メモリ26に記録していく。   First, the image data collection means 24 uses one or a plurality of synchronized cameras attached to the vehicle 21 as the image sensor 22 to capture an image while traveling on a road that is a map link. At this time, in order to synchronize with the position information described below, the time transmitted from the global radio positioning system (GPS) detected by the hybrid position sensor 23 is assigned to each image frame obtained in time series. Then, it is recorded in the temporary memory 26 as the collected image data d1.

なお、時刻は、検知したGPS時刻と画像撮影サブシステム20が搭載されているコンピュータのクロックを利用し、1/1000秒単位で各画像フレームに付与される。   The time is assigned to each image frame in units of 1/1000 second using the detected GPS time and the clock of the computer on which the image capturing subsystem 20 is mounted.

次に、位置データ収集手段25は、同じ車両21に取り付けられたGPSとその他のセンサ(ジャイロ・車速センサ)と組み合わせたハイブリッド型位置センサ23を使って、GPSから得られる位置情報(座標)、車速センサから得られる車速情報、ジャイロから得られる加速度情報や方位情報を収集する。さらに、これらの情報にGPS時刻を付与して収集画像属性情報d2として一時メモリ26に記録していく。   Next, the position data collection means 25 uses the hybrid position sensor 23 combined with GPS and other sensors (gyro / vehicle speed sensor) attached to the same vehicle 21 to obtain position information (coordinates) obtained from the GPS, Vehicle speed information obtained from a vehicle speed sensor, acceleration information obtained from a gyro, and direction information are collected. Further, the GPS time is given to these pieces of information and recorded in the temporary memory 26 as the collected image attribute information d2.

位置データ収集手段25に、ハイブリッド型位置センサ23から得られる車速が0のときは、画像データ収集手段24に対して画像データ収集を行わないように命令する処理を設けて、停止中の撮影をやめることもできる。これにより、信号や渋滞などで停止状態になった場合に、画像データの記録を一時停止し、データ収集容量を節約することができる。   When the vehicle speed obtained from the hybrid type position sensor 23 is 0, the position data collecting unit 25 is provided with a process for instructing the image data collecting unit 24 not to collect image data to perform shooting during stoppage. You can also quit. As a result, when a stop state occurs due to a signal or traffic jam, the recording of image data can be temporarily stopped to save the data collection capacity.

収集された収集画像データd1と収集画像属性情報d2は、図16に示すようにそれぞれ共通のGPS時刻を利用した時刻情報を付与しているため、付与された時刻を媒介として位置と画像を対応付けることができる。   Since the collected image data d1 and the collected image attribute information d2 are given time information using a common GPS time as shown in FIG. 16, the position and the image are associated with each other using the given time as a medium. be able to.

またカメラの方位は、車両21に相対的なカメラの相対方位と車両21方位から求めることができる。相対方位はあらかじめ計測しておくものとする。普通は画像データの収集周期の方が短いため、各画像フレームにおける位置・速度・方位などは前後の時刻の位置・速度・方位を内挿することによって得られる。   The camera orientation can be obtained from the camera relative orientation relative to the vehicle 21 and the vehicle 21 orientation. The relative orientation is measured in advance. Since the image data collection cycle is usually shorter, the position / velocity / orientation, etc. in each image frame can be obtained by interpolating the position / velocity / orientation at the previous and subsequent times.

一時メモリ26に記録された収集画像データd1と収集画像属性情報d2は、一次撮影情報インポートファイルf1として、ディスクなどの携帯型記憶媒体に出力して、次の画像データ編集サブシステム30に入力される。   The collected image data d1 and the collected image attribute information d2 recorded in the temporary memory 26 are output to a portable storage medium such as a disk as a primary shooting information import file f1 and input to the next image data editing subsystem 30. The

なお、位置データ収集手段25は、後述する画像データ管理サブシステム40の撮影計画手段41によって作成され、後述する撮影情報エクスポートファイルf3として携帯型記憶媒体に出力された撮影計画情報d0に含まれるリンクの形状及び情報を読み込み、ハイブリッド型位置センサ23から得られる位置情報をコンピュータの画面に重畳表示する。これにより、作業者が収集対象のどの地図リンクのデータ収集を行ったかがわかる。   The position data collection unit 25 is a link included in the shooting plan information d0 created by the shooting plan unit 41 of the image data management subsystem 40 described later and output to the portable storage medium as a shooting information export file f3 described later. The position information obtained from the hybrid type position sensor 23 is superimposed and displayed on the computer screen. Thereby, it can be understood which map link of the collection target the operator has collected.

(画像データ編集サブシステム30)
次に、画像データ編集サブシステム30の各手段について詳細に説明する。
(Image data editing subsystem 30)
Next, each unit of the image data editing subsystem 30 will be described in detail.

画像データ編集サブシステム30は、図3に示したように、画像撮影サブシステム20によって収集され、一次撮影情報インポートファイルf1として出力された収集画像データd2を、本発明の実施の形態で用いるために編集し、後述する画像データ管理サブシステム40の撮影計画手段41によって作成され、撮影情報エクスポートファイルf3として出力されたリンク情報の形状情報を用いて、道路ネットワークなどグラフ構造を持つ地図情報との関係付けを行い、最適化することを目的としたサブシステムである。   As shown in FIG. 3, the image data editing subsystem 30 uses the collected image data d2 collected by the image photographing subsystem 20 and output as the primary photographing information import file f1 in the embodiment of the present invention. The map information such as a road network is used for map information having a graph structure using the shape information of the link information that is edited and created by the shooting plan means 41 of the image data management subsystem 40 described later and output as the shooting information export file f3. It is a subsystem that aims to correlate and optimize.

まず、地図データ表示手段31は、図4に示すように、入力情報として、画像撮影サブシステム20にから出力される一次撮影情報インポートファイルf1は後述する物理画像データベースと同じ構造を有する。一次撮影情報インポートファイルf1を構成する収集画像属性情報d2に含まれる時系列位置情報と、撮影情報エクスポートファイルf3に含まれる地図情報からリンク形状を表示する。時系列位置情報は点列として、またリンク形状は連続線分として表示される。   First, as shown in FIG. 4, the map data display means 31 has the same structure as a physical image database, which will be described later, as a primary image information import file f1 output from the image capturing subsystem 20 as input information. The link shape is displayed from the time-series position information included in the collected image attribute information d2 constituting the primary shooting information import file f1 and the map information included in the shooting information export file f3. The time series position information is displayed as a point sequence, and the link shape is displayed as a continuous line segment.

次に、画像データ表示手段32は、図5に示すように、一次撮影情報インポートファイルf1の収集画像データd1を表示する。画像を表示すると、画像収集位置が地図データ表示手段31で表示された地図の中に、記号で表示される。また、画像データは時系列的に前後に順次表示を切り替えることができる。   Next, the image data display means 32 displays the collected image data d1 of the primary imaging information import file f1 as shown in FIG. When the image is displayed, the image collection position is displayed as a symbol in the map displayed by the map data display means 31. Further, the display of image data can be sequentially switched back and forth in time series.

次に、リンク始終点通過時刻登録手段33は、地図データ表示手段31により表示された図4に示す地図上でマウス選択したリンク、もしくは順次的に選択された選択中のリンクの始点および終点に対応する通過時刻を指定し、登録する。通過時刻は、一次撮影情報インポートファイルf1の収集画像属性情報d2に含まれる時系列位置情報を用いて、その始点もしくは終点に対応する時系列位置の時刻から指定する方法と、一次撮影情報インポートファイルf1の収集画像データd1に付与された画像撮影時刻から指定する方法がある。リンクの始点および終点の通過時刻は、撮影日時、撮影に使用したカメラ情報キーID、および格納する画像の物理保管場所(ハードディスクのボリューム名など)等の各情報とともに撮影計画エクスポートファイルと同様の形式で実撮影結果情報d3に保存される。   Next, the link start / end point passage time registration unit 33 sets the start point and end point of the link selected by the mouse on the map shown in FIG. Specify and register the corresponding transit time. The passing time is specified from the time of the time series position corresponding to the start point or the end point using the time series position information included in the collected image attribute information d2 of the primary shooting information import file f1, and the primary shooting information import file. There is a method of designating from the image capturing time given to the collected image data d1 of f1. The start time and end time of the link are in the same format as the shooting plan export file, together with information such as the shooting date and time, the camera information key ID used for shooting, and the physical storage location (such as the hard disk volume name) of the image to be stored. Is saved in the actual photographing result information d3.

時系列位置から指定する方法には、リンクの始点もしくは終点に対応する時系列位置をマウス等で指定するマニュアル指定方法と、自動的に指定する自動指定方法がある。   As a method of designating from the time series position, there are a manual designation method for designating a time series position corresponding to the start point or end point of the link with a mouse or the like, and an automatic designation method for automatically designating.

自動指定方法では、リンクの始点もしくは終点に最も近い時系列位置を探索するということで達成される。自動車のナビゲーションシステムに使われているマップマッチング技術、すなわち位置だけでなく進行方向やスピードなどを勘案して自分の進んでいる経路に自動的に対応付ける技術を用いてもよい。この際は、必ずしも最も近い点を選択するとは限らない。   The automatic designation method is achieved by searching for the time series position closest to the start point or end point of the link. A map matching technique used in an automobile navigation system, that is, a technique of automatically associating with a route along which the user is traveling in consideration of not only the position but also the traveling direction and speed may be used. In this case, the closest point is not necessarily selected.

画像撮影時刻から指定する方法では、リンクの始点は終点の時刻に対応する収集画像データd1を画像表示画面に表示する。画像に撮影されている道路や交差点の様子を見て、オペレータが交差点などで位置がずれていると判断された場合は、時系列画面を操作することによって時系列的に前もしくは後の画像を表示させ、オペレータが判断した交差点の位置の画像の撮影時刻をリンクの始点もしくは終点の通過時刻として修正登録できる。   In the method of designating from the image shooting time, the collected image data d1 corresponding to the start time of the link is displayed on the image display screen. By looking at the roads and intersections captured in the image, if it is determined that the operator is misaligned at the intersection, etc., the previous or next image is displayed in time series by operating the time series screen. The photographing time of the image at the intersection position determined by the operator can be corrected and registered as the link start point or end point passage time.

リンク始終点通過時刻登録手段33で登録されたリンクの始点通過時刻が終点通過時刻よりも前の場合は、画像が該当のリンク上を始点から終点に向かって走行しながら撮影されたと判断される。逆に始点通過時刻が終点通過時刻よりも後の場合は、該当のリンク上を終点から始点に向かって走行しながら撮影された画像であると判断される。   If the start point passage time of the link registered by the link start / end point passage time registration means 33 is earlier than the end point passage time, it is determined that the image was taken while traveling from the start point to the end point on the corresponding link. . Conversely, if the start point passage time is later than the end point passage time, it is determined that the image is taken while traveling from the end point toward the start point on the corresponding link.

リンク始終点通過時刻登録手段33で登録されたリンクの始点および終点の通過時刻は、二次撮影情報インポートファイルf2に出力される。   The link start and end passage times registered by the link start / end point passage time registration means 33 are output to the secondary imaging information import file f2.

最後に、画像間引き手段34は、データ容量を少なくすることを目的として、一次撮影情報インポートファイルf1の収集画像データd1を移動距離などに応じて間引く。間引きの方法の一例として、図6に示すように、次のような方法がある。一つのフレームを起点に、起点フレームからi番目のフレームの距離を、各フレームごとに次の式で計算する。   Finally, the image thinning unit 34 thins the collected image data d1 of the primary photographing information import file f1 according to the movement distance or the like for the purpose of reducing the data capacity. As an example of the thinning method, there is the following method as shown in FIG. Starting from one frame, the distance from the starting frame to the i-th frame is calculated for each frame by the following formula.

〔数1〕
L[0]=0.0;
L[i]=L[i−1] + (v[i−1]+v[i])/2*(t[i]−t[i−1]);
ここで、v[i]:i番目のフレームの速度(メートル/秒)
t[i]:i番目のフレームの時刻(秒)
間引き間隔をdとして、dのn倍(nは整数)に最も近い距離をL[jn]とする。jn以外のフレームは間引く。間引き後の画像フレームも時刻情報をつけておけば、データベースの他の部分に影響を与えず画像を間引くことができる。
[Equation 1]
L [0] = 0.0;
L [i] = L [i-1] + (v [i-1] + v [i]) / 2 * (t [i] -t [i-1]);
Where v [i]: speed of i-th frame (meter / second)
t [i]: Time of the i-th frame (second)
Let d be the thinning interval, and let L [jn] be the distance closest to n times d (n is an integer). Frames other than jn are thinned out. If the time information is also attached to the image frame after thinning, the image can be thinned without affecting other parts of the database.

例えば、時速10kmで走行する車から毎秒15フレームで撮影する場合、10kmの区間で54000枚の画像が取得される。これを1m置きに間引くとすると、10000枚となり、データ量を5分の1以下に抑えることができる。   For example, when shooting at 15 frames per second from a car traveling at 10 km / h, 54,000 images are acquired in a 10 km section. If this is thinned out every 1 m, it becomes 10,000 sheets, and the data amount can be suppressed to 1/5 or less.

このように、人間の視覚上問題のない程度まで画像フレーム数を間引くことで、データ量を削減することができ、保存するのに必要なメモリ量が少なく済むため、システムを安価にできる。さらに、画像表示処理すべきデータ量が少なければ、表示処理速度も向上し、コンピュータなどの表示装置の負担が軽減できる。   In this way, the amount of data can be reduced by thinning out the number of image frames to such an extent that there is no human visual problem, and the amount of memory necessary for storage can be reduced, so that the system can be made inexpensive. Furthermore, if the amount of data to be subjected to image display processing is small, the display processing speed can be improved and the burden on a display device such as a computer can be reduced.

メモリの低価格化やコンピュータの処理能力向上によって、データ量を削減する必要がない場合には、画像間引き手段34は、特に具備する必要はない。   In the case where it is not necessary to reduce the amount of data due to the low cost of the memory or the improvement of the processing capacity of the computer, the image thinning means 34 is not particularly required.

実撮影管理情報登録手段35は、後述する計画・実撮影情報データベースに登録する実撮影時の属性情報(撮影地区情報・作業実施者等)を入力し、実撮影管理情報d4に入力する。   The actual shooting management information registration means 35 inputs attribute information (shooting area information / worker, etc.) at the time of actual shooting registered in a plan / real shooting information database, which will be described later, and inputs it into the actual shooting management information d4.

(画像データ管理サブシステム40)
次に、画像データ管理サブシステム40の各手段について詳細に説明する。
(Image data management subsystem 40)
Next, each unit of the image data management subsystem 40 will be described in detail.

画像データ管理サブシステム40は、図7に示したように、撮影すべき場所や撮影に使用する機材などの計画・進捗管理から、実際に撮影され、編集された収集画像データd1の管理、及び利用者の要求条件にあった収集画像データd1を切り出して提供するまでに必要なデータ群を一括管理することを目的としたサブシステムである。   As shown in FIG. 7, the image data management subsystem 40 manages the collected image data d1 actually shot and edited from the plan / progress management of the place to be shot and the equipment used for shooting, and the like. This subsystem is intended to collectively manage a data group necessary for extracting and providing the collected image data d1 that meets the user's requirements.

まず、撮影計画手段41は、図8に示すように、画面表示部411、リンク選択部412、カメラ情報入力部414、撮影計画情報入力部413、及び撮影情報エクスポートファイル作成部415から構成される。   First, as shown in FIG. 8, the shooting plan means 41 includes a screen display unit 411, a link selection unit 412, a camera information input unit 414, a shooting plan information input unit 413, and a shooting information export file creation unit 415. .

画面表示部411は、記憶装置50に記録されているグラフ構造データベース51のノードおよびリンクをコンピュータの画面に表示する。   The screen display unit 411 displays the nodes and links of the graph structure database 51 recorded in the storage device 50 on the computer screen.

リンク選択部412は、画面表示部411によって表示されたリンクの内、撮影を計画するリンクを選択し、決定させる。リンクの選択方法としては、画面上のマウス操作による矩形領域指定、ポリゴン領域指定など位置による選択、道路幅や種別などグラフ構造情報に含まれる属性情報による選択、および位置と属性情報による複合選択がある。   The link selection unit 412 selects and determines a link for which shooting is planned from among the links displayed by the screen display unit 411. Link selection methods include rectangular area specification by mouse operation on the screen, selection by position such as polygon area specification, selection by attribute information included in graph structure information such as road width and type, and composite selection by position and attribute information is there.

例えば、ある市町村の県道を抽出する場合、県道のみを予め属性情報による選択で抽出しておき、その後に市町村境をポリゴン指定で指定すれば目的が達成される。   For example, when a prefectural road of a certain municipality is extracted, only the prefectural road is extracted in advance by selection based on attribute information, and then the municipality boundary is designated by polygon designation, thereby achieving the purpose.

カメラ情報入力部414は、入力された撮影に用いるカメラの情報を、カメラ情報データベース52として記憶装置50に記録する。この際、自動または任意に指定したカメラ情報キーIDを付与して、個々のカメラ情報を識別できるようにする。   The camera information input unit 414 records the input camera information used for shooting in the storage device 50 as the camera information database 52. At this time, a camera information key ID that is automatically or arbitrarily designated is assigned so that individual camera information can be identified.

撮影計画情報入力部413は、撮影地区(リンク選択部412で選択されたリンク群)、撮影開始予定日、撮影作業者、使用するカメラのカメラ情報キーIDなど、入力された撮影計画の情報を計画・実撮影情報データベース53として記憶装置50に記録する。この際、自動または任意に指定した撮影計画キーIDを付与して、個々の撮影計画を識別できるようにする。   The shooting plan information input unit 413 receives input shooting plan information such as a shooting area (a group of links selected by the link selection unit 412), a shooting start date, a shooting operator, and a camera information key ID of a camera to be used. The plan / actual shooting information database 53 is recorded in the storage device 50. At this time, an imaging plan key ID designated automatically or arbitrarily is assigned so that each imaging plan can be identified.

撮影計画IDを自動的に生成する場合は、作成日時とカメラ情報キーIDを組み合わせたものなどにして、IDの重複が起こらないようにする。   When the shooting plan ID is automatically generated, a combination of the creation date and the camera information key ID is used so that the IDs do not overlap.

撮影情報エクスポートファイル作成部415は、リンク選択部412で選択されたリンクと撮影計画情報入力部413で入力された情報を組合せ、図15に示す形式でリンク関連情報として、記憶装置50内のリンク関連情報データベース54に記録する。この段階では、さらにリンク関連情報と、グラフ構造データベースに記録されたリンク形状を撮影情報エクスポートファイルf3として、携帯型記憶媒体に出力する。   The shooting information export file creation unit 415 combines the link selected by the link selection unit 412 and the information input by the shooting plan information input unit 413, and links in the storage device 50 as link related information in the format shown in FIG. Record in the related information database 54. At this stage, the link related information and the link shape recorded in the graph structure database are further output to the portable storage medium as a photographing information export file f3.

次に、撮影情報取り込み手段42は、図9に示すように、実撮影管理情報記録部421と画像データ記録部422からなる。   Next, as shown in FIG. 9, the photographing information capturing unit 42 includes an actual photographing management information recording unit 421 and an image data recording unit 422.

実撮影管理情報記録部421は、画像データ編集サブシステム30から二次撮影情報インポートファイルf2として入力された、撮影時の撮影者などの実撮影管理情報d3を、実撮影キーIDを付与して計画・実撮影情報データベース53に記録する。   The actual shooting management information recording unit 421 assigns the actual shooting key ID to the actual shooting management information d3 such as the photographer at the time of shooting, which is input from the image data editing subsystem 30 as the secondary shooting information import file f2. Record in the plan / actual imaging information database 53.

実撮影IDは、撮影日時と使用したカメラ情報キーIDを組み合わせたものなどにして、IDの重複が起こらないようにする。   The actual shooting ID is a combination of the shooting date / time and the camera information key ID used so that the IDs do not overlap.

さらに、撮影されたリンクに関する撮影情報、すなわち撮影日時、撮影に使用したカメラ情報キーID、リンクの始点および終点の通過時刻、および格納する画像の物理保管場所(ハードディスクのボリューム名など)等の各情報を格納した実撮影結果情報d3を、撮影情報エクスポートファイル作成部415によってリンクキーIDごとに作成され保存されているリンク関連情報データベース54の、該当するリンクキーIDの部分に更新する。   Further, the shooting information related to the shot link, that is, the shooting date and time, the camera information key ID used for shooting, the passage time of the start and end points of the link, and the physical storage location (such as the volume name of the hard disk) of the stored image, etc. The actual photographing result information d3 storing the information is updated to the corresponding link key ID portion of the link related information database 54 created and stored for each link key ID by the photographing information export file creation unit 415.

また、画像データ記録部422は、画像データ編集サブシステム30から二次撮影情報インポートファイルf2として入力された収集画像データd1と収集画像属性情報d2を、それぞれ収集画像データベース55と収集画像属性情報データベース56に記録する。   In addition, the image data recording unit 422 receives the collected image data d1 and the collected image attribute information d2 input from the image data editing subsystem 30 as the secondary shooting information import file f2, and the collected image database 55 and the collected image attribute information database, respectively. 56.

管理手段43は、図10に示すように、ネットワーク登録部431、印刷部432、メンテナンス部433から構成される。   As shown in FIG. 10, the management unit 43 includes a network registration unit 431, a printing unit 432, and a maintenance unit 433.

ネットワーク登録部431は、外部で作成・配布される道路ネットワークデータを読み込んで、グラフ構造データベース51に登録する。   The network registration unit 431 reads road network data created and distributed externally and registers it in the graph structure database 51.

印刷部432は、記憶装置50に記録されている各データベースの情報をプリンタにて印刷する。   The printing unit 432 prints information of each database recorded in the storage device 50 with a printer.

メンテナンス部433は、記憶装置50に記録されている各データベースの定期的なバックアップを実施したり、不要データ(撮影を行わなくなった撮影計画情報など)の削除などを行う。また、撮影計画情報d0と実撮影管理情報d3が反映されているリンク関連情報データベース54内の作業進捗コードを検索することで、撮影がどの程度進んでいるかを集計する。   The maintenance unit 433 periodically backs up each database recorded in the storage device 50, deletes unnecessary data (such as shooting plan information that is no longer shot), and the like. In addition, by searching for the work progress code in the link related information database 54 in which the shooting plan information d0 and the actual shooting management information d3 are reflected, the degree of shooting progress is totaled.

最後に、データ抽出手段44は、図11に示すように、抽出条件入力部441、グラフ構造情報抽出部442、リンク関連情報抽出部443、収集画像データ抽出部444、及び収集画像属性情報抽出部554からなる。   Finally, as shown in FIG. 11, the data extraction unit 44 includes an extraction condition input unit 441, a graph structure information extraction unit 442, a link related information extraction unit 443, a collected image data extraction unit 444, and a collected image attribute information extraction unit. 554.

抽出条件入力部441は、データベースから抽出するための条件を入力する。条件としては、位置的条件とリンク属性的条件と撮影属性条件がある。位置的条件には、画面上のマウス操作やファイル読み込みから得られるによる矩形領域やポリゴン領域等がある。   The extraction condition input unit 441 inputs conditions for extraction from the database. The conditions include a positional condition, a link attribute condition, and a shooting attribute condition. The positional conditions include a rectangular area, a polygon area, and the like obtained from a mouse operation on the screen and file reading.

また、リンク属性的条件とは、道路幅や種別などグラフ構造情報に含まれる属性情報の指定がある。また、撮影属性条件は撮影日や撮影時間帯などの指定がある。   The link attribute condition includes designation of attribute information included in the graph structure information such as road width and type. The shooting attribute condition includes designation of a shooting date and a shooting time zone.

グラフ構造情報抽出部442は、グラフ構造データベース51から、抽出条件入力部441で入力された位置的条件及びリンク属性的条件に適合するリンクを抽出する。   The graph structure information extraction unit 442 extracts, from the graph structure database 51, a link that matches the positional condition and the link attribute condition input by the extraction condition input unit 441.

さらに、抽出されたリンクIDとその両端のノードIDを調べ、各ノードに接続するリンクIDをリストアップし、切り出し画像データのリンクのグラフ構造情報として格納する。   Further, the extracted link ID and the node IDs at both ends thereof are checked, the link IDs connected to each node are listed, and stored as the graph structure information of the link of the cut-out image data.

リンク関連情報抽出部443は、上記で抽出されたリンクのIDに対応するリンクについて、リンク関連情報データベース54から抽出する。さらに、その中から抽出条件入力部441で入力された撮影属性条件に適合するリンクの情報を抽出する。   The link related information extraction unit 443 extracts the link corresponding to the link ID extracted above from the link related information database 54. Further, link information that matches the photographing attribute condition input by the extraction condition input unit 441 is extracted from the information.

収集画像データ抽出部444は、収集画像データベース55から、抽出条件入力部441で入力された条件に適合する情報を抽出する。   The collected image data extraction unit 444 extracts information that meets the conditions input by the extraction condition input unit 441 from the collected image database 55.

つまり、収集画像データ抽出部444は、収集画像データベースから上記で抽出された各リンク関連情報に記憶されている撮影年月日に、カメラ情報キーIDで撮影された画像を検索する。さらにその中から、視点通過時刻と終点通過時刻の間に撮影された画像を抽出し、画像ファイルとして切り出し画像データ内の画像ファイルとして格納する。   That is, the collected image data extraction unit 444 searches for an image photographed with the camera information key ID on the photographing date stored in each link related information extracted from the collected image database. Further, an image photographed between the viewpoint passage time and the end point passage time is extracted from the image, cut out as an image file, and stored as an image file in the image data.

また、画像取得リンクID、撮影開始側のノードID、撮影集両側のノードID、撮影順番を切り出し画像データ内の画像ファイル属性情報として格納する。   Further, the image acquisition link ID, the node ID on the shooting start side, the node IDs on both sides of the shooting collection, and the shooting order are cut out and stored as image file attribute information in the image data.

収集画像属性情報抽出部445は、収集画像属性情報データベース56から、抽出条件入力部441で入力された条件に適合する情報を抽出する。   The collected image attribute information extraction unit 445 extracts information that meets the conditions input by the extraction condition input unit 441 from the collected image attribute information database 56.

つまり、上記で抽出された画像ファイルに対応する画像取得座標、画像取得方位などの情報を抽出し、切り出し画像データ内の画像ファイル属性情報として格納する。 That is, the image acquisition coordinate corresponding to the image files extracted above, extracts information such as an image acquisition orientation, and stores the image file attributes information in the cutout image data.

以上によって切り出された情報は切り出し画像データf4として出力される。これには、画像ファイル・画像ファイル付属情報、リンクのグラフ構造が含まれる。   The information cut out as described above is output as cut-out image data f4. This includes image file / image file attached information and link graph structure.

なお、リンクの切り出しに当たっては、次の方法で切り出すことができる。   Note that the link can be cut out by the following method.

・位置的条件の指定(地理メッシュや行政区域による切り出し):コンピュータ画面インターフェース上のマウス指定もしくはマウスによる領域指定で、切り出すリンクを選択することができる。また、あらかじめ行政区域等の外周多角形内を登録しておき、ユーザが指定する区域に対応する外周多角形内のリンクを抽出してもよい。   Specification of positional conditions (extraction by geographic mesh or administrative area): The link to be extracted can be selected by specifying a mouse on the computer screen interface or specifying an area with the mouse. Also, the inside of the outer polygon such as the administrative area may be registered in advance, and the link in the outer polygon corresponding to the area designated by the user may be extracted.

例えば、東京都の区市町村境をポリゴンとして別途作成しておき、それを外部ファイルとして磁気ディスク上に保存しておき、必要時にそのファイルを指定してポリゴンを読み出せば、マウスでポリゴン入力する代替として利用することが可能である。   For example, the Tokyo Metropolitan City / Municipal border is created separately as a polygon, saved as an external file on the magnetic disk, and when the polygon is read when necessary, the polygon is input with the mouse. It can be used as an alternative.

・リンク属性的条件の指定(道路種別・道路幅等):撮影に必要なリンクの種別を指定し、グラフ構造データベース51に格納されている情報を参照すれば、そのリンクの種別に該当するものを抽出することができる。   -Specifying link attribute conditions (road type, road width, etc.): If you specify the type of link required for shooting and refer to the information stored in the graph structure database 51, it corresponds to the type of link Can be extracted.

・撮影属性的条件の指定:リンク関連情報データベース54に含まれる撮影日・撮影時刻情報を参照することにより、画像の撮影時期を指定し、抽出することができる。   Specification of shooting attribute condition: By referring to shooting date / time information included in the link related information database 54, it is possible to specify and extract the shooting time of the image.

一方、各リンクに対応する画像は、リンク関連情報データベース54に記述されている情報に基づいて抽出される。すなわち、抽出するリンクのリンクキーIDに対応するレコードに記述されている記憶装置50の保管場所に記録されている収集画像データベース55から、カメラ情報キーIDに記述されているカメラで撮影し、且つ画像フレームについている時刻が始点通過時刻から終点通過時刻の間のものを抽出すればよい。   On the other hand, an image corresponding to each link is extracted based on information described in the link related information database 54. That is, from the collected image database 55 recorded in the storage location of the storage device 50 described in the record corresponding to the link key ID of the link to be extracted, the camera described in the camera information key ID is photographed, and What is necessary is just to extract the time which is attached to the image frame between the start point passage time and the end point passage time.

切り出された画像データには、次のものを含むことが可能である。   The cut out image data can include the following.

・ 画像ファイル
・ 画像ファイル属性情報
・画像取得座標(各フレームの緯度経度)
・画像取得方位(画像中心の方位)
・ 画像取得リンクID(画像を撮影した道路中心線のID)
・ 撮影開始側のノードID
・ 撮影終了側のノードID
・ 撮影順番
・ 画像取得カメラ情報(撮影高等)
・リンクのグラフ構造
・ 各ノードIDについて、そのノードに接続するリンクIDのリスト
(記憶装置50内の各データベース)
つづいて、記憶装置50内に記録される各データベースについて説明する。
-Image file-Image file attribute information-Image acquisition coordinates (latitude and longitude of each frame)
-Image acquisition direction (image center direction)
-Image acquisition link ID (ID of the road centerline that captured the image)
・ Node ID on the shooting start side
・ Node ID at the end of shooting
・ Shooting order ・ Image acquisition camera information (shooting height etc.)
-Link graph structure-For each node ID, a list of link IDs connected to that node (each database in the storage device 50)
Next, each database recorded in the storage device 50 will be described.

本発明の実施の形態で用いられるデータベースは、図1に示したように、大別すると、グラフ構造を持つ地物情報と撮影された画像の関係を管理する画像情報データベース50aと、実際に撮影した画像とその付属情報を格納する物理画像データベース50bの2つのグループに分けられる。   As shown in FIG. 1, the database used in the embodiment of the present invention is roughly classified into an image information database 50a for managing the relationship between feature information having a graph structure and a photographed image, and an actual photographing. Divided into two groups, a physical image database 50b for storing the captured images and their associated information.

画像情報データベース50aには、グラフ構造を格納するグラフ構造データベース51、撮影に使用するカメラ等撮影に付属的な情報を格納するカメラ情報データベース52、撮影計画や実際に撮影したときの情報を格納する各リンクに対応する計画・実撮影情報データベース53、リンクごとに上記の情報及び撮影された画像を関連付けるリンク関連情報データベース54の4つが属する。   The image information database 50a stores a graph structure database 51 for storing a graph structure, a camera information database 52 for storing information attached to shooting such as a camera used for shooting, a shooting plan, and information at the time of actual shooting. The plan / actual shooting information database 53 corresponding to each link and the link related information database 54 for associating the above information and the shot image for each link belong.

グラフ構造データベース51は、図12に示すようなグラフ構造を持つ地物情報を格納するものである。地理情報として道路ネットワークを使用する場合は、グラフ構造のノードとして交差点、リンクとして交差点をつなぐ道路中心線が対応する。   The graph structure database 51 stores feature information having a graph structure as shown in FIG. When a road network is used as geographic information, a road center line connecting the intersection as a node of the graph structure and the intersection as a link corresponds.

グラフ構造データベース51内では、図12に示すように、各ノードは地理座標によって定義され、ノードキーIDで識別される。各リンクは両端の地理座標(またはノードキーID)とリンクの形状によって定義され、リンクキーIDで識別される。なお、リンク(道路中心線)の両端はノード(交差点)につながっており、リンクの始点と終点の交差点を示すノードキーIDが各リンクに付与されている。これによって、ノードとリンクの接合関係、すなわちネットワーク構造が明らかになる。   In the graph structure database 51, as shown in FIG. 12, each node is defined by geographic coordinates and identified by a node key ID. Each link is defined by the geographical coordinates (or node key ID) at both ends and the link shape, and is identified by the link key ID. Note that both ends of the link (road center line) are connected to nodes (intersections), and a node key ID indicating the intersection of the start point and end point of the link is assigned to each link. As a result, the connection relationship between the node and the link, that is, the network structure becomes clear.

グラフ構造データベース51内では、ノードやリンクには付属情報をつけることができる。たとえば、道路ネットワークの場合、交差点であれば交差点名、リンクであれば道路幅や規制情報(一方通行など)の情報を付与することができる。   In the graph structure database 51, attached information can be attached to nodes and links. For example, in the case of a road network, it is possible to give information such as an intersection name if it is an intersection, and information on road width and regulation information (such as one-way traffic) if it is a link.

次に、カメラ情報データベース52には、図13に示すように、撮影するカメラや搭載する車、カメラ高さなどの機器情報が格納され、カメラ情報キーIDで識別される。   Next, as shown in FIG. 13, the camera information database 52 stores device information such as a camera to be photographed, a mounted vehicle, and a camera height, and is identified by a camera information key ID.

計画・実撮影情報データベース53には、図14に示すように、各リンクに対応する撮影計画情報d0や実撮影管理情報が記録される。すなわち、作業者、作業に使われたカメラのカメラ情報キーID,画像の撮影日などである。各撮影計画や実撮影管理情報は、それぞれ撮影計画キーID,実撮影キーIDで識別される。   In the plan / actual shooting information database 53, shooting plan information d0 and actual shooting management information corresponding to each link are recorded as shown in FIG. That is, the operator, the camera information key ID of the camera used for the work, and the date of image capture. Each shooting plan and actual shooting management information are identified by a shooting plan key ID and an actual shooting key ID, respectively.

リンク関連情報データベース54は、図15に示すように、リンクキーID、撮影計画キーID、実撮影キーID、撮影状況を示す作業進捗コード(計画済み、撮影済、編集済、撮影不可等)、撮影日、撮影に使用したカメラ情報キーID、リンクの始点および終点の通過時刻、および格納する画像の物理保管場所(ハードディスクのボリューム名など)等の一連の情報を有するテーブル構造を持つ。   As shown in FIG. 15, the link related information database 54 includes a link key ID, a shooting plan key ID, an actual shooting key ID, a work progress code indicating a shooting status (planned, shot, edited, not shot, etc.), It has a table structure having a series of information such as a shooting date, a camera information key ID used for shooting, a passage start time of a link start point and an end point, and a physical storage location (such as a hard disk volume name) of an image to be stored.

撮影計画後は、撮影が予定されるリンクに対して、リンクキーID,撮影計画キーID,使用が予定されるカメラ情報キーIDなど、実撮影に関連しない項目のみが設定されたレコードが記録される。この際、作業進捗コードは未撮影となる。   After the shooting plan, a record in which only items not related to actual shooting, such as a link key ID, a shooting plan key ID, and a camera information key ID scheduled to be used, are set is recorded for a link scheduled to be shot. The At this time, the work progress code is not photographed.

撮影後は、実撮影キーID,撮影日時、撮影に使用したカメラ情報キーIDが格納され、作業進捗コードが更新される。   After shooting, the actual shooting key ID, shooting date and time, and camera information key ID used for shooting are stored, and the work progress code is updated.

リンク関連情報データベース54は、図15の斜線部に示すように、同じリンクキーIDを持つレコードを複数持つことができるテーブルになっている。このため、一つのリンクキーIDに対して複数の撮影結果を格納することが可能である。   The link related information database 54 is a table that can have a plurality of records having the same link key ID, as indicated by the hatched portion in FIG. For this reason, it is possible to store a plurality of photographing results for one link key ID.

物理画像データベースには、図16に示すように、収集画像データベース55と収集画像属性情報データベース56が属する。   As shown in FIG. 16, the collected image database 55 and the collected image attribute information database 56 belong to the physical image database.

収集画像データベース55は、実際に時系列的に撮影された一連の画像とともに、各画像の収集に使われた撮影カメラ情報(カメラ情報キーID)と、撮影年月日、撮影時刻も記録される。   The collected image database 55 records a series of images actually taken in time series, as well as shooting camera information (camera information key ID) used for collecting each image, shooting date, and shooting time. .

収集画像属性情報データベース56は、撮影時の位置、撮影時の速度、撮影方向、撮影年月日、撮影時刻(GPS時刻)、撮影カメラなどの情報が格納される。   The collected image attribute information database 56 stores information such as the shooting position, shooting speed, shooting direction, shooting date, shooting time (GPS time), and shooting camera.

収集画像データベース55の情報と収集画像属性情報データベース56の情報は、それぞれ時刻情報を持つので、その時刻情報によって、互いに関連付けられる。   Since the information in the collected image database 55 and the information in the collected image attribute information database 56 each have time information, they are associated with each other according to the time information.

なお、本発明の実施の形態では、上記のデータベースを記憶する記憶装置50を1台のみ図示しているが、記憶装置50を1台に限定するものではない。物理画像データベース50bは、大量の画像データを格納するために、画像情報データベース50aとは物理的に異なる記憶媒体に格納しても構わない。実際には、100ギガバイト以上の大容量ハードディスクに分割して格納される。   In the embodiment of the present invention, only one storage device 50 for storing the database is illustrated, but the storage device 50 is not limited to one. The physical image database 50b may be stored in a storage medium physically different from the image information database 50a in order to store a large amount of image data. Actually, it is divided and stored in a large-capacity hard disk of 100 gigabytes or more.

本発明の実施の形態におけるデータベース構造では、一つのリンクに対して複数時期の画像を同時に蓄積することができる。   In the database structure according to the embodiment of the present invention, images of a plurality of periods can be simultaneously stored for one link.

次に、本発明の実施の形態による地理情報関連付き画像データ管理システムにおける手順を図18〜21図を用いて説明する。   Next, a procedure in the image data management system with a geographic information association according to the embodiment of the present invention will be described with reference to FIGS.

(データの登録)
ステップS100:画像データ管理サブシステム40の管理手段43によって、外部の道路ネットワークデータf0からリンク情報をグラフ構造データベース51に登録する。
(Data registration)
Step S100: The link information from the external road network data f0 is registered in the graph structure database 51 by the management means 43 of the image data management subsystem 40.

(撮影計画)
ステップS101:画像データ管理サブシステム40の撮影計画手段41の画面表示部411によって、グラフ構造データベース51のリンク情報から、リンクのグラフ構造を表示する。
(Shooting plan)
Step S101: The graph structure of the link is displayed from the link information of the graph structure database 51 by the screen display unit 411 of the photographing plan means 41 of the image data management subsystem 40.

ステップS102:画像データ管理サブシステム40の撮影計画手段41のリンク選択部412によって、表示されたリンクのグラフ構造から、撮影対象とするリンクを選択する。   Step S102: The link selection unit 412 of the photographing plan means 41 of the image data management subsystem 40 selects a link to be photographed from the displayed link graph structure.

ステップS103:画像データ管理サブシステム40の撮影計画手段41のカメラ情報入力部414によって、撮影に使用するカメラに関する情報をカメラ情報データベース52に登録する。   Step S103: Information relating to the camera used for shooting is registered in the camera information database 52 by the camera information input unit 414 of the shooting plan means 41 of the image data management subsystem 40.

ステップS104:画像データ管理サブシステム40の撮影計画手段41の撮影計画情報入力部413によって、抽出した撮影対象リンクについて、撮影計画を立案し、計画・実撮影情報データベース53に入力する。   Step S104: The shooting plan information input unit 413 of the shooting plan means 41 of the image data management subsystem 40 draws a shooting plan for the extracted shooting target link and inputs it to the plan / actual shooting information database 53.

ステップS105:画像データ管理サブシステム40の撮影計画手段41の撮影情報エクスポートファイル作成部415によって、撮影計画情報d0を撮影情報エクスポートファイルf3に出力する。   Step S105: The shooting plan information d0 is output to the shooting information export file f3 by the shooting information export file creation unit 415 of the shooting plan means 41 of the image data management subsystem 40.

(撮影実施)
ステップS106:画像撮影サブシステム20に撮影情報エクスポートファイルf3の情報の中のリンク形状を読み込み、撮影すべきリンクを表示する。
(Shooting)
Step S106: The link shape in the information of the shooting information export file f3 is read into the image shooting subsystem 20, and the link to be shot is displayed.

ステップS107:実際に移動手段(車両21)によってリンクの道路を走行しながら、画像を撮影し、画像撮影サブシステム20の画像データ収集手段24によって、撮影時刻を付与した収集画像データd1を収集する。   Step S107: The image is taken while actually traveling on the road of the link by the moving means (vehicle 21), and the collected image data d1 to which the photographing time is given is collected by the image data collecting means 24 of the image photographing subsystem 20. .

ステップS108:また、画像撮影サブシステム20の位置データ収集手段25によって、GPS時刻を付与した収集画像属性情報d2を収集する。   Step S108: Collected image attribute information d2 to which the GPS time is added is collected by the position data collecting means 25 of the image capturing subsystem 20.

ステップS109:画像撮影サブシステム20は、収集画像データd1と収集画像属性情報d2を実撮影結果情報とともに一次撮影情報インポートファイルf1に出力する。   Step S109: The image capturing subsystem 20 outputs the collected image data d1 and the collected image attribute information d2 together with the actual shooting result information to the primary shooting information import file f1.

(画像データ編集)
ステップS110:画像データ編集サブシステム30に、撮影情報エクスポートファイルf3と一次撮影情報インポートファイルf1を入力する。
(Image data editing)
Step S110: The photographing information export file f3 and the primary photographing information import file f1 are input to the image data editing subsystem 30.

ステップS111:実撮影管理情報を登録する。   Step S111: Register actual photographing management information.

ステップS112:画像データ編集サブシステム30の地図データ表示手段31によって、地図データを表示する。   Step S112: Map data is displayed by the map data display means 31 of the image data editing subsystem 30.

ステップS113:画像データ編集サブシステム30の画像データ表示手段32によって、地図データ上で指定したリンクについて収集された画像を表示する。   Step S113: The image data display means 32 of the image data editing subsystem 30 displays the images collected for the link specified on the map data.

ステップS114:表示された収集画像データd1や、その収集画像属性情報d2から時刻情報を得て、画像データ編集サブシステム30のリンク始終点通過時刻登録手段33によって、該当リンクの始点と終点の通過時刻を記録する。   Step S114: Time information is obtained from the displayed collected image data d1 and the collected image attribute information d2, and the link start and end point passage time registration means 33 of the image data editing subsystem 30 passes the start and end points of the corresponding link. Record the time.

ステップS115:さらに、画像データ編集サブシステム30の画像間引き手段34によって、必要に応じて、収集画像データd1から画像を間引き、データ量を削減する。   Step S115: Further, the image thinning means 34 of the image data editing subsystem 30 thins out the image from the collected image data d1 as necessary to reduce the data amount.

ステップS116:編集を終えた情報を二次撮影情報インポートファイルf2に出力する。   Step S116: The edited information is output to the secondary shooting information import file f2.

(情報記録・更新)
ステップS117:画像データ管理サブシステム40に、二次撮影情報インポートファイルf2の情報を入力する。
(Information recording / update)
Step S117: The information of the secondary shooting information import file f2 is input to the image data management subsystem 40.

ステップS118:画像データ管理サブシステム40の撮影情報取り込み手段42によって、実撮影情報データを計画・実撮影情報データベース53に記録する。   Step S118: The actual photographing information data is recorded in the plan / actual photographing information database 53 by the photographing information capturing means 42 of the image data management subsystem 40.

ステップS119:画像データ管理サブシステム40の撮影情報取り込み手段42によって、リンク関連情報データベース54の情報を更新する。   Step S119: The information in the link related information database 54 is updated by the photographing information capturing means 42 of the image data management subsystem 40.

(データ抽出)
ステップS120:画像データ管理サブシステム40のデータ抽出手段44によって、利用者の要求条件に従って、リンク関連情報データベース54の情報を元に収集画像データベース55からデータを抽出し、リンク情報とともに、切り出し画像データf4として出力する。
(Data extraction)
Step S120: The data extraction means 44 of the image data management subsystem 40 extracts data from the collected image database 55 based on the information in the link related information database 54 in accordance with the user's request conditions. Output as f4.

(表示)
ステップS121:本発明の地理情報関連付き画像データ表示システム100は、切り出し画像データf4と市販の地図データによって、地図と指定したリンク(道路)の周辺画像を表示する。
(display)
Step S121: The image data display system with geographic information association 100 of the present invention displays a map and a peripheral image of a link (road) designated by a cut-out image data f4 and commercially available map data.

以上に説明した地理情報関連付き画像データ管理システムによって、以下の効果が得られ、作成された切り出し画像データを地理情報関連付き画像データ表示システム100で読み込むことで、利用者の要求に対応した現地の画像を表示することができる。   The following effects can be obtained by the image data management system with geographic information described above, and the created cut-out image data is read by the image data display system with geographic information 100 to meet the user's request. Images can be displayed.

すなわち、画像撮影サブシステム20と連携していることで、どの地区が未撮影であるか、どの程度撮影が進んでいるかといった情報を管理することができる。   In other words, by cooperating with the image capturing subsystem 20, it is possible to manage information such as which district has not been captured and how much shooting has progressed.

また、道路などのグラフ構造データから必要な部分を切り出した撮影計画を作成できるので、その撮影計画に基づいて、複数の車両21を用いて撮影作業を平行して行えるようになり、広域の画像を大量に収集することができる。   In addition, since a shooting plan in which a necessary part is cut out from graph structure data such as a road can be created, shooting work can be performed in parallel using a plurality of vehicles 21 based on the shooting plan. Can be collected in large quantities.

カメラ情報データベース52として撮影に使用したカメラ情報(カメラの撮影高さやカメラそのものの識別番号、各識別番号のカメラのキャリブレーション情報)を一元的に管理しているので、撮影した画像を用いて後から計測を行うことができる。   Since the camera information (camera shooting height, camera identification number, camera calibration information of each identification number) used for shooting is centrally managed as the camera information database 52, it is later used using the shot images. Can be measured from.

リンク関連情報データベース54のデータ構造により、実際に撮影した画像を、Y字路や5差路以上の交差点、立体交差などがある複雑な道路ネットワークなどのグラフ構造を持つ地図情報と関連付けて管理することができる。   Based on the data structure of the link-related information database 54, an actually captured image is managed in association with map information having a graph structure such as a complex road network including a Y-junction, an intersection of five or more roads, and a three-dimensional intersection. be able to.

また、同じリンクに複数の種類の画像を関連付けて管理することができるため、撮影した季節や時間帯が異なる画像を利用者の要求に合わせて提供できる。   In addition, since a plurality of types of images can be managed in association with the same link, images taken in different seasons and time zones can be provided according to the user's request.

さらに、実際に画像データを利用者に提供する場合、広域にわたり撮影された画像データ全体から必要なデータを、次の条件を指定して切り出すことができる。   Furthermore, when actually providing image data to a user, necessary data can be extracted from the entire image data photographed over a wide area by specifying the following conditions.

・地理空間的な切り出し(地理メッシュや行政区域による切り出し)
・リンクの種別による切り出し(道路種別・道路幅等)
・画像の撮影時期による切り出し
本発明の実施の形態を説明するために各図において示した各サブシステムの手段や保持するデータの配置は、あくまでも例示であって、本発明の機能を実現するために限定したものでない。よって、本発明の機能が実現可能な範囲において、種々の処理手段の配置の組み合わせが考え得ることは言うまでもない。
・ Geospatial segmentation (segmentation by geographic mesh or administrative area)
・ Cut out by link type (road type, road width, etc.)
-Extraction of image according to photographing time The means of each subsystem and the arrangement of data held in the drawings for explaining the embodiment of the present invention are merely examples, and are for realizing the functions of the present invention. It is not limited to. Therefore, it goes without saying that various combinations of arrangements of processing means are conceivable within a range in which the functions of the present invention can be realized.

以下に地理情報関連付き画像データ表示システム100について詳細に説明するが前段として、一次撮影情報インポートファイルf1、二次撮影情報インポートファイルf2、切り出し画像データf4等について説明を補充する。   Hereinafter, the image data display system 100 with geographic information will be described in detail, but as a first stage, the description will be supplemented with respect to the primary shooting information import file f1, the secondary shooting information import file f2, the cutout image data f4, and the like.

図1、図2、図3、図7の一次撮影情報インポートファイルf1には、時刻付きの画像収集データd1及び収集画像属性情報d2が含まれている。この収集画像属性情報d2は、GPSから得られる位置情報(座標)、車速センサから得られる車速情報、ジャイロから得られる加速度情報や方位情報、GPSの時刻等からなる。   The primary shooting information import file f1 in FIGS. 1, 2, 3, and 7 includes time-collected image collection data d1 and collected image attribute information d2. The collected image attribute information d2 includes position information (coordinates) obtained from GPS, vehicle speed information obtained from a vehicle speed sensor, acceleration information and direction information obtained from a gyro, GPS time, and the like.

撮影位置表示手段102は、切り出しデータf4の収集画像属性情報d2を読み込み、この時系列情報(画像取得座標)を、図28に示すように記号(例えば丸印:以下撮影位置)で表示することが可能である。   The shooting position display means 102 reads the collected image attribute information d2 of the cut-out data f4, and displays this time-series information (image acquisition coordinates) as a symbol (for example, a circle: a shooting position hereinafter) as shown in FIG. Is possible.

図31を用いて説明する。図31(a)は、車が速くなったりおそくなったりしながら一定時間間隔で撮影されたとき撮影位置を示している。   This will be described with reference to FIG. FIG. 31A shows the shooting position when the vehicle is shot at regular time intervals while being accelerated or slowed down.

図31(b)は、このときの一次撮影情報インポートファイルf1に記憶されている一定間隔で撮影された収集画像データd1(撮影時刻付き)を距離軸(座標)に配列したことを示している。 FIG. 31 (b) shows that collected image data d1 (with shooting time) captured at a fixed interval stored in the primary shooting information import file f1 at this time is arranged on the distance axis (coordinates). .

この配列は、図1の地図データ表示手段31が例えば収集画像データd1の時刻を有する収集画像属性情報d2の画像取得座標を読み込み、この画像取得座標を距離軸(X−Y座標系で定義されたメモリ)に割付ける。   The map data display means 31 in FIG. 1 reads the image acquisition coordinates of the collected image attribute information d2 having the time of the collected image data d1, for example, and the image acquisition coordinates are defined in the distance axis (XY coordinate system). Allocated memory).

このとき、画像間引き手段34が関与している。   At this time, the image thinning means 34 is involved.

画像間引き手段34は、図31(c)に示すように、人間の視覚上問題のない程度の間引き間隔d(距離)を撮影開始点から順次、距離軸に設定し、この間引き間隔d毎に、図31(b)の距離軸に対して垂線を引いたときに、収集画像データd1の画像取得座標(撮影位置)が存在するかどうかを判断し、存在する場合はその画像取得座標(撮影位置)を図31(d)に示すように距離軸に代表撮影地点(単純に撮影位置ともいう)として割付けると共に、この割付けられた画像取得座標(撮影位置)に関連する収集画像データd1及び収集画像属性情報d2のみを抽出して二次撮影情報インポートファイルf2に記憶する。   As shown in FIG. 31 (c), the image thinning means 34 sequentially sets the thinning interval d (distance) that does not cause human visual problems to the distance axis in order from the shooting start point, and for each thinning interval d. When a perpendicular is drawn with respect to the distance axis in FIG. 31B, it is determined whether or not the image acquisition coordinates (shooting position) of the collected image data d1 exist. 31 (d) is assigned to the distance axis as a representative photographing point (also simply referred to as a photographing position) as shown in FIG. 31 (d), and the collected image data d1 related to the assigned image acquisition coordinates (photographing position) and Only the collected image attribute information d2 is extracted and stored in the secondary shooting information import file f2.

この抽出は例えば時刻をキーとして抽出する。すなわち、図31(b)の太線(代表撮影地点)の個所を撮影した時刻の収集画像データd1及び収集画像属性情報d2のみが抽出される。   In this extraction, for example, time is extracted as a key. That is, only the collected image data d1 and the collected image attribute information d2 at the time when the portion of the thick line (representative photographing point) in FIG.

一方、リンク始終点通過時刻登録手段33は距離軸に代表撮影地点が定義されると、これらの代表撮影地点の位置情報を有する収集画像属性データd2の時刻を有する実撮影結果情報d3を撮影情報エクスポートファイルf3から抽出して二次撮影情報インポートファイルf2に記憶する。   On the other hand, when the representative photographing points are defined on the distance axis, the link start / end point passage time registration unit 33 obtains the actual photographing result information d3 having the time of the collected image attribute data d2 including the position information of these representative photographing points. Extracted from the export file f3 and stored in the secondary shooting information import file f2.

さらに、実撮影管理情報登録手段35は、代表撮影地点が定義されると、これらの代表撮影地点の画像取得座標(撮影位置)を有する収集画像属性データd2の時刻を有する実撮影管理情報d4(撮影地区情報、作業実施者情報等)を撮影情報エクスポートファイルf3から抽出して二次撮影情報インポートファイルf2に記憶する。   Further, when the representative photographing points are defined, the actual photographing management information registering means 35 performs actual photographing management information d4 (with the time of the collected image attribute data d2 having image acquisition coordinates (photographing positions) of these representative photographing points. Shooting area information, operator information, etc.) are extracted from the shooting information export file f3 and stored in the secondary shooting information import file f2.

つまり、二次撮影情報インポートファイルf2には、各代表撮影地点の収集画像データd1、収集画像属性情報d2、実撮影結果情報d3、実撮影管理情報d4等が記憶される。   That is, the secondary shooting information import file f2 stores the collected image data d1, the collected image attribute information d2, the actual shooting result information d3, the actual shooting management information d4, and the like of each representative shooting point.

そして、画像データ管理サブシステム40の撮影情報取り込み手段42の実撮影管理情報記録部421は、二次撮影情報インポートファイルf2の実撮影管理情報d3に実撮影キーIDを付与して計画・実撮影情報データベース53に記録する。   Then, the actual shooting management information recording unit 421 of the shooting information capturing unit 42 of the image data management subsystem 40 assigns an actual shooting key ID to the actual shooting management information d3 of the secondary shooting information import file f2 to plan / actual shooting. Record in the information database 53.

さらに、画像データ記録部422は、二次撮影情報インポートファイルf2の収集画像データd1と収集画像属性情報d2を、それぞれ収集画像データベース55と収集画像属性情報データベース56に記録する。また、実撮影管理情報d4は計画・実撮影情報データベース53に記憶される。   Further, the image data recording unit 422 records the collected image data d1 and the collected image attribute information d2 of the secondary shooting information import file f2 in the collected image database 55 and the collected image attribute information database 56, respectively. The actual photographing management information d4 is stored in the plan / actual photographing information database 53.

また、データ抽出手段44は、図11に示すように、抽出条件入力部441、グラフ構造情報抽出部442、リンク関連情報抽出部443、収集画像データ抽出部444、及び収集画像属性情報抽出部554からなり、
抽出条件入力部441は、データベースから抽出するための条件を入力する。条件としては、位置的条件とリンク属性的条件と撮影属性条件がある。位置的条件は空間的な切り出し条件とも称し、画面上のマウス操作やファイル読み込みから得られるによる矩形領域やポリゴン領域等があり、この領域内の各種情報(画像ファイル、属性情報等)を切り出し画像データと称している。
Further, as shown in FIG. 11, the data extraction unit 44 includes an extraction condition input unit 441, a graph structure information extraction unit 442, a link related information extraction unit 443, a collected image data extraction unit 444, and a collected image attribute information extraction unit 554. Consists of
The extraction condition input unit 441 inputs conditions for extraction from the database. The conditions include a positional condition, a link attribute condition, and a shooting attribute condition. Positional conditions are also referred to as spatial clipping conditions. There are rectangular areas and polygonal areas obtained from mouse operations on the screen and file reading, and various information (image files, attribute information, etc.) in these areas are clipped images. It is called data.

また、リンク属性的条件とは、道路幅や種別などグラフ構造情報に含まれる属性情報の指定がある。また、撮影属性条件は撮影日や撮影時間帯などの指定がある。   The link attribute condition includes designation of attribute information included in the graph structure information such as road width and type. The shooting attribute condition includes designation of a shooting date and a shooting time zone.

グラフ構造情報抽出部442は、グラフ構造データベース51から、抽出条件入力部441で入力された位置的条件及びリンク属性的条件に適合するリンクを抽出する。   The graph structure information extraction unit 442 extracts, from the graph structure database 51, a link that matches the positional condition and the link attribute condition input by the extraction condition input unit 441.

さらに、抽出されたリンクIDとその両端のノードIDを調べ、各ノードに接続するリンクIDをリストアップし、切り出し画像データのリンクのグラフ構造情報として格納する。   Further, the extracted link ID and the node IDs at both ends thereof are checked, the link IDs connected to each node are listed, and stored as the graph structure information of the link of the cut-out image data.

リンク関連情報抽出部443は、上記で抽出されたリンクのIDに対応するリンクについて、リンク関連情報データベース54から抽出する。さらに、その中から抽出条件入力部441で入力された撮影属性条件に適合するリンクの情報を抽出する。   The link related information extraction unit 443 extracts the link corresponding to the link ID extracted above from the link related information database 54. Further, link information that matches the photographing attribute condition input by the extraction condition input unit 441 is extracted from the information.

収集画像データ抽出部444は、収集画像データベース55から、抽出条件入力部441で入力された条件に適合する情報を抽出する。   The collected image data extraction unit 444 extracts information that meets the conditions input by the extraction condition input unit 441 from the collected image database 55.

収集画像データ抽出部444は、収集画像データベースから上記で抽出された各リンク関連情報に記憶されている撮影年月日に、カメラ情報キーIDで撮影された画像を検索する。さらにその中から、視点通過時刻と終点通過時刻の間に撮影された画像を抽出し、画像ファイルとして切り出し画像データ内の画像ファイルとして格納する。   The collected image data extraction unit 444 searches for an image taken with the camera information key ID on the shooting date stored in each link related information extracted from the collected image database. Further, an image photographed between the viewpoint passage time and the end point passage time is extracted from the image, cut out as an image file, and stored as an image file in the image data.

また、画像取得リンクID、撮影開始側のノードID、撮影集両側のノードID、撮影順番を切り出し画像データ内の画像ファイル属性情報として格納する。   Further, the image acquisition link ID, the node ID on the shooting start side, the node IDs on both sides of the shooting collection, and the shooting order are cut out and stored as image file attribute information in the image data.

収集画像属性情報抽出部445は、収集画像属性情報データベース56から、抽出条件入力部441で入力された条件に適合する情報を抽出する。   The collected image attribute information extraction unit 445 extracts information that meets the conditions input by the extraction condition input unit 441 from the collected image attribute information database 56.

つまり、上記で抽出された画像ファイルに対応する画像取得座標、画像取得方位などの情報を抽出し、切り出し画像データ内の画像ファイル属性情報画像ファイル属性として格納する。   That is, information such as image acquisition coordinates and image acquisition orientation corresponding to the image file extracted above is extracted and stored as image file attribute information image file attributes in the cut-out image data.

すなわち、データ抽出手段44は切り出し条件(領域:エリア)の図31(d)に示す代表撮影地点に対応する全ての切り出し画像データf4(グラフ構造情報、リンク関連情報、画像ファイル、画像ファイル属性情報・・)を記憶装置106に記憶する(図31(f)参照)。   That is, the data extraction unit 44 extracts all the cut-out image data f4 (graph structure information, link related information, image file, image file attribute information) corresponding to the representative shooting point shown in FIG. 31D of the cut-out condition (area: area). ..) Is stored in the storage device 106 (see FIG. 31F).

この切り出し画像データf4を用いて以下に説明するようにして、地図、画像ファイルを地理情報関連付き画像データ表示システム100が表示する。   As described below, the cut-out image data f4 is used to display a map and an image file by the image data display system with geographic information association 100.

図27は地理情報関連付き画像データ表示システム100をより具体的にした構成図である。   FIG. 27 is a more specific configuration diagram of the image data display system 100 with geographic information association.

図27に示すように、地理情報関連付き画像データ表示システム100は、記憶装置106、地理表示手段101、撮影位置表示手段102、撮影画像表示手段103の他に、進行方向印表示手段107、地図上撮影方向表示手段110、注記データ・登録表示手段109等を備えている。   As shown in FIG. 27, an image data display system 100 with a geographic information association includes a traveling direction mark display means 107, a map, in addition to a storage device 106, a geographical display means 101, a photographing position display means 102, and a photographed image display means 103. An upper photographing direction display unit 110, an annotation data / registration display unit 109, and the like are provided.

前述の記憶装置106には地図データ108及び切り出し画像データf4の他に注記データ関連情報f6等が記憶されている。   The storage device 106 stores note data related information f6 and the like in addition to the map data 108 and the cutout image data f4.

この注記データ関連情報f6は注記データ・登録表示手段109によって予め登録しておくことが好ましい。   The note data related information f6 is preferably registered in advance by the note data / registration display means 109.

前述の地図データ108は、階層構造にされているのが好ましい。例えば背景地図の界、ネットワーク情報の界、注記データの界、地図記号データの界等の階層構造とされている。そして、注記データは、地物の名称であり、この名称が注記データの界の座標に関連付けられている。   The aforementioned map data 108 preferably has a hierarchical structure. For example, a hierarchical structure including a background map field, network information field, annotation data field, map symbol data field, and the like. The annotation data is the name of the feature, and this name is associated with the coordinates of the annotation data field.

さらに、記憶装置106には切り出し条件の領域内の複数の切り出し画像データf4が記憶されている。これらの切り出し画像データf4にはIDコードが付与されているのが好ましい。また、より具体的には、図29に示すデータの構成となっている。   Further, the storage device 106 stores a plurality of pieces of cut-out image data f4 within the cut-out condition area. It is preferable that an ID code is given to these cut-out image data f4. More specifically, the data structure shown in FIG.

さらに、物理画像データベースは、より具体的には図30に示すデータ構成となっている。   Furthermore, the physical image database has a data configuration shown in FIG. 30 more specifically.

地理表示手段101は、切り出し条件の領域(表示範囲)が入力されると、この領域内の背景地図、ネットワーク情報、注記データ、地図記号を重ね表示する。このとき、ネットワークデータの道路の近傍の注記データのみを抽出して表示させてもよい。   When the region (display range) of the clipping condition is input, the geographic display unit 101 displays the background map, network information, note data, and map symbol in this region in an overlapping manner. At this time, only the note data in the vicinity of the road of the network data may be extracted and displayed.

注記データ・登録表示手段109は、図24に示すように、注記データをコンピュータ画面の画像に表示する機能を有している。   The annotation data / registration display means 109 has a function of displaying the annotation data on an image of a computer screen as shown in FIG.

この注記データの表示を実現させるために注記データ・登録表示手段109は、地図データの注記データの座標(例えば注記データの中央の文字の座標)から一定距離内に存在する画像取得座標を検索し、これらの画像取得座標のうちで、注記データに最も近い画像取得座標を検索する。そして、この画像取得座標を有する切り出し画像データのIDを、その注記データ及び注記データの座標等と共に注記データ関連情報f6として記憶装置106に予め登録する。   In order to realize the display of the annotation data, the annotation data / registration display means 109 searches for the image acquisition coordinates existing within a certain distance from the coordinates of the annotation data of the map data (for example, the coordinates of the center character of the annotation data). Among these image acquisition coordinates, an image acquisition coordinate closest to the note data is searched. Then, the ID of the cut-out image data having the image acquisition coordinates is registered in advance in the storage device 106 as the annotation data related information f6 together with the annotation data, the coordinates of the annotation data, and the like.

例えば、図33(a)に示すように、ネットワークデータf0が道路の場合に、画像取得座標がGa、Gb・・・と存在し、注記データがCa、Cb・・・と存在する場合は、注記データCa、Gb・・・の座標に最も近い距離にある画像取得座標を有する切り出し画像データを順次検索する。そして、検索した切り出し画像データの画像取得座標から注記データの座標に対する方位を、それぞれ求める。この方位はカメラ中心から何度(この角度をθkとする)になるかで示す。   For example, as shown in FIG. 33A, when the network data f0 is a road, the image acquisition coordinates exist as Ga, Gb... And the note data exists as Ca, Cb. The cut-out image data having the image acquisition coordinates at the closest distance to the coordinates of the annotation data Ca, Gb. Then, the direction with respect to the coordinates of the note data is obtained from the image acquisition coordinates of the retrieved cut-out image data. This azimuth is indicated by how many times (this angle is θk) from the camera center.

そして、注記データ、Gb・・・毎に、最も近い画像取得座標を有する切り出し画像データのIDを対応させると共に、方位θk及び画像取得座標等を対応させる(図33(b))。   For each piece of note data, Gb..., The ID of the cut-out image data having the closest image acquisition coordinates is made to correspond, and the azimuth θk and the image acquisition coordinates are made to correspond (FIG. 33B).

このIDにリンク付けされている画像ファイルの画像は、360度のパノラマ画像であり、カメラ中心に対応する画像の中心位置はカメラ中心(0度)である。このカメラ中心からθkの方位で、目線の高さとなる位置に注記データの画像上の座標を求める。つまり、注記データを表示させるための界(X−Y座標系:パノラマ画像の座標系に対応する)を定義したメモリを備え、このメモリ上の注記データの座標(画像上の注記データ表示位置という)を定義する。   The image of the image file linked to this ID is a 360-degree panoramic image, and the center position of the image corresponding to the camera center is the camera center (0 degree). The coordinates of the annotation data on the image are obtained at the position corresponding to the height of the line of sight in the direction of θk from the camera center. That is, a memory defining a field (XY coordinate system: corresponding to the coordinate system of the panoramic image) for displaying the note data is provided, and the coordinates of the note data on this memory (referred to as the note data display position on the image). ) Is defined.

すなわち、注記データ関連情報f6は、近接の切り出し画像データのIDと注記データ表示位置と方向(θk)と注記データの文字等からなる。   That is, the note data related information f6 includes the ID of the adjacent clipped image data, the note data display position, the direction (θk), the characters of the note data, and the like.

地理情報手段101は、入力された切り出し条件の領域に対応する地図データを記憶装置106から読み出して、コンピュータ画面に表示する。この地図データは、背景地図、注記データ、地図記号データ等からなる。   The geographic information unit 101 reads out map data corresponding to the input region of the extraction condition from the storage device 106 and displays it on the computer screen. This map data includes a background map, annotation data, map symbol data, and the like.

撮影位置表示手段102は、記憶装置106に保存されている全ての切り出し画像データf4の画像取得座標を抽出し、この座標に対応する画面の地図上の位置(例えば道路上の撮影地点)に画像取得座標(撮影位置)を示す記号(撮影位置記号という)を表示させる(図23、図24を参照)。   The shooting position display means 102 extracts the image acquisition coordinates of all the clipped image data f4 stored in the storage device 106, and images are displayed at positions on the map (for example, shooting points on the road) corresponding to these coordinates. A symbol (referred to as an imaging position symbol) indicating the acquired coordinates (imaging position) is displayed (see FIGS. 23 and 24).

すなわち、切り出し条件の領域に存在する全ての撮影位置記号が表示されることになるからオペレータは、地図上のどこに画像があるかを一目で判断できる。   That is, since all the shooting position symbols existing in the region for the cutout condition are displayed, the operator can determine at a glance where the image is on the map.

そして、これらの撮影位置記号のいずれかをオペレータがマウス等で指定すると、撮影位置表示手段102は、その指定された撮影位置記号を別の記号で表示する(例えば十字、二重丸、異なる色)。   When the operator designates any of these photographing position symbols with a mouse or the like, the photographing position display means 102 displays the designated photographing position symbol with another symbol (for example, cross, double circle, different color). ).

地図上進行方向印表示手段107は、画面の地図上の撮影位置記号が指定されると、この撮影位置記号に対応する座標を有する画像の撮影順番が、同一リンク内の開始番号もしくは終了番号になっているかどうかを判定する。   When the shooting position symbol on the map on the screen is designated, the map traveling direction mark display means 107 sets the shooting order of images having coordinates corresponding to the shooting position symbol to the start number or end number in the same link. Determine whether or not.

開始番号もしくは終了番号になっている場合は、交差点と判定する。交差点と判定した場合は、そのリンクの交差点IDに関連付けられている接続リンクIDを読み込む。   If it is the start number or end number, it is determined as an intersection. When it is determined as an intersection, the connection link ID associated with the intersection ID of the link is read.

そして、交差点の座標から検索した接続リンクID上にある交差点近傍の画像の座標を読み込み、交差点に接続する全てのリンクの方位Hi(3差路又は4差路、・・)を求め、これらの方位に従って、リンクに矢印を表示する(図28参照)。   Then, the coordinates of the image in the vicinity of the intersection on the connection link ID searched from the coordinates of the intersection are read, and the orientations Hi (3 or 4 differences,...) Of all the links connected to the intersection are obtained. According to the direction, an arrow is displayed on the link (see FIG. 28).

一方、撮影画像表示手段103は、コンピュータ画面の撮影位置記号が選択されると、この撮影位置記号の画像取得座標を有する切り出し画像データの画像ファイルを抽出し、この画像ファイルからオペレータが入力した表示範囲の画像を画面に表示する。   On the other hand, when a shooting position symbol on the computer screen is selected, the shot image display means 103 extracts an image file of cut-out image data having image acquisition coordinates of the shooting position symbol, and displays the operator input from this image file. Display the range image on the screen.

前述の切り出し画像データの画像ファイルは、360度のパノラマ画像である。このため、オペレータは、例えば撮影方向を中心として左右50度程度の表示範囲を指定する。   The image file of the cutout image data described above is a 360-degree panoramic image. For this reason, the operator designates a display range of about 50 degrees on the left and right, for example, with the photographing direction as the center.

この表示範囲の画像ファイルの画像をコンピュータ画面に表示(図28参照)すると共に、表示範囲及び撮影方向を地図上撮影方向表示手段110に知らせる。   The image of the image file in the display range is displayed on the computer screen (see FIG. 28), and the display range and the shooting direction are notified to the on-map shooting direction display means 110.

地図上画像表示方向表示手段110は、撮影方向と表示範囲が知らせられると、コンピュータ画面の地図上の画像取得座標(撮影位置)から撮影方向を中心として表示範囲(撮影方向から現在の表示範囲、上記の場合は左右50度)の角度方向にポリゴンを生成し、このポリゴンをコンピュータ画面の地図に重ね表示させる(図28の地図表示範囲の扇形参照)。   When the shooting direction and the display range are notified, the on-map image display direction display unit 110 displays the display range (from the shooting direction to the current display range, from the image acquisition coordinates (shooting position) on the map on the computer screen). In the above case, polygons are generated in an angle direction of 50 degrees on the left and right, and these polygons are displayed on a map on the computer screen (see the sector in the map display range in FIG. 28).

また、画像上進行方向印表示手段107は、交差点からの撮影方向の撮影範囲に含まれる接続リンク(道路)の方位を求める。   Further, the on-image traveling direction mark display means 107 obtains the direction of the connection link (road) included in the shooting range in the shooting direction from the intersection.

この接続リンクの方位は、角度で定義される。例えば、図32(a)に示すように、撮影方位をカメラ中心(0度)にした場合は、カメラ中心から道路kaの中心線の方位はθpであり、道路kbの中心線の方位はθiで定義できる。   The direction of this connecting link is defined by an angle. For example, as shown in FIG. 32A, when the shooting direction is the camera center (0 degree), the direction of the center line of the road ka from the camera center is θp, and the direction of the center line of the road kb is θi. Can be defined.

このθpの方位とθiの方位を表示範囲の中心(0度)から定め、道路上の位置当たりとなる画面上の位置に三角形のポリゴン(透けている)を三次元的に表示する(図32(c))。   The direction of θp and the direction of θi are determined from the center (0 degree) of the display range, and triangular polygons (through) are displayed three-dimensionally at positions on the screen corresponding to positions on the road (FIG. 32). (C)).

このポリゴンが選択すると、その選択方向の道路の撮影位置の画像ファイルを撮影画像表示手段103が順次抽出して表示範囲に従って表示する。   When this polygon is selected, the captured image display means 103 sequentially extracts the image file of the shooting position of the road in the selected direction and displays it according to the display range.

一方、注記データ登録・表示手段109は、指定の注記(○○マンション、○○病院、○○市役所・・)を読み、表示中の画像のIDと、注記データ関連情報f6に登録されている画像データのIDが一致するとき、その近い注記データを地図データから抽出する。   On the other hand, the note data registration / display means 109 reads the specified note (XX apartment, XX hospital, XX city hall,...), And is registered in the ID of the image being displayed and the note data related information f6. When the image data IDs match, the close note data is extracted from the map data.

次に、抽出した注記データをコンピュータ画面の画像に表示する。   Next, the extracted note data is displayed on an image on a computer screen.

この注記データの表示は、コンピュータ画面の道路上の撮影位置記号が撮影位置に移動してきたとき、この画像取得座標(撮影位置)を有する注記データ関連情報f6を引当てる。そして、引き当てた注記データ関連情報f6の注記データ表示位置及び方向に従ってコンピュータ画面上に注記データの文字列を表示する(図24参照)。   The display of the note data reserves the note data related information f6 having the image acquisition coordinates (shooting position) when the shooting position symbol on the road on the computer screen has moved to the shooting position. Then, the character string of the note data is displayed on the computer screen according to the note data display position and direction of the assigned note data related information f6 (see FIG. 24).

従って、コンピュータ画面を見ているだけで、目的のものを直ぐに見つけることができる。   Therefore, the target object can be found immediately by simply looking at the computer screen.

なお、上記実施の形態では、切り出し画像データfiが生成されると、この切り出し画像データfiを表示するとしたが、画像には顔、ナンバープレート等のプライバシイにかかわる画像も存在している。このようなプライバシイに関わる画像に対して、ガウスフィルタ等でぼかす処理を施して切り出し画像データfiとし記憶装置106に記憶させてもよい。これによって、表示部には、プライバシィに関わる画像はぼやけて表示されることになる。   In the above-described embodiment, when the cut-out image data fi is generated, the cut-out image data fi is displayed. However, the image includes images related to privacy such as a face and a license plate. Such an image related to privacy may be subjected to a blurring process using a Gaussian filter or the like, and stored in the storage device 106 as cut-out image data fi. As a result, privacy-related images are displayed in a blurred manner on the display unit.

地図情報関連付け画像データ管理システムと表示システムの構成図である。It is a block diagram of a map information correlation image data management system and a display system. 画像撮影サブシステムの構成図である。It is a block diagram of an image photographing subsystem. 画像データ編集サブシステムの構成図である。It is a block diagram of an image data editing subsystem. 地図データ表示手段により表示される地図である。It is a map displayed by a map data display means. 画像データ表示手段路面により表示される画像である。The image data display means is an image displayed on the road surface. 画像間引き手段による画像間引きの方法を示す図である。It is a figure which shows the method of the image thinning-out by an image thinning means. 画像データ管理サブシステムの構成図である。It is a block diagram of an image data management subsystem. 撮影計画手段の構成図である。It is a block diagram of a photography plan means. 撮影情報取り込み手段の構成図である。It is a block diagram of an imaging | photography information acquisition means. 管理手段の構成図である。It is a block diagram of a management means. データ抽出手段の構成図である。It is a block diagram of a data extraction means. グラフ構造データベースの構造図である。It is a structure figure of a graph structure database. カメラ情報データベースの構造図である。It is a structural diagram of a camera information database. 計画・実撮影情報データベースの構造図である。It is a structure figure of a plan and real imaging | photography information database. リンク関連情報データベースの構造図である。It is a structural diagram of a link related information database. 物理画像データベースの構造図である。It is a structure figure of a physical image database. グラフ構造を持つ地物を示す図である。It is a figure which shows the feature with a graph structure. 実施の形態による地理情報関連付き画像データ管理システムにおける手順を説明するフローチャートである。It is a flowchart explaining the procedure in the image data management system with a geographic information association by embodiment. 実施の形態による地理情報関連付き画像データ管理システムにおける手順を説明するフローチャートである。It is a flowchart explaining the procedure in the image data management system with a geographic information association by embodiment. 実施の形態による地理情報関連付き画像データ管理システムにおける手順を説明するフローチャートである。It is a flowchart explaining the procedure in the image data management system with a geographic information association by embodiment. 実施の形態による地理情報関連付き画像データ管理システムにおける手順を説明するフローチャートである。It is a flowchart explaining the procedure in the image data management system with a geographic information association by embodiment. 地図情報関連付け画像データ表示システムの構成図である。It is a block diagram of a map information correlation image data display system. 地図情報関連付け画像データ表示システムの表示画面例である。It is an example of a display screen of a map information correlation image data display system. 地図情報関連付け画像データ表示システムの表示画面の注記オーバレイ表示例である。It is an example of a note overlay display of a display screen of a map information association image data display system. 地図情報関連付け画像データ表示システムの表示画面例である。It is an example of a display screen of a map information correlation image data display system. 地図情報関連付け画像データ表示システムの画像検索のフローチャートである。It is a flowchart of the image search of a map information correlation image data display system. 地理情報関連付き画像データ表示システム100をより具体的にした構成図である。It is the block diagram which made more concrete the image data display system 100 with a geographic information relation. 撮影位置及び対応する画像を同時表示する説明図である。It is explanatory drawing which displays an imaging | photography position and a corresponding image simultaneously. 切り出し画像データのより具体的な構成を説明図である。It is explanatory drawing about the more specific structure of clipped image data. 物理画像データベースのより具体的な構成を説明する説明図である。It is explanatory drawing explaining the more specific structure of a physical image database. 本実施の形態の間引きと、撮影位置の表示、切り出しデータの登録の説明図である。It is explanatory drawing of the thinning-out of this Embodiment, a display of an imaging | photography position, and registration of cut-out data. 進行方向印表示手段を説明する説明図である。It is explanatory drawing explaining a traveling direction mark display means. 注記データの画像への表示を説明する説明図である。It is explanatory drawing explaining the display to the image of annotation data.

符号の説明Explanation of symbols

10 地理座標関連付き画像データ管理システム
20 画像撮影サブシステム
21 車両(移動手段)
22 画像センサ
23 ハイブリッド型位置センサ
24 画像データ収集手段
25 位置データ収集手段
30 画像データ編集サブシステム
31 地図データ表示手段
32 画像データ表示手段
33 リンク始終点通過時刻登録手段
34 画像間引き手段
40 画像データ管理サブシステム
41 撮影計画手段
42 撮影情報取り込み手段
43 管理手段
44 データ抽出手段
50 記憶装置
50a 画像情報データベース
50b 物理画像データベース
51 グラフ構造データベース
52 カメラ情報データベース
53 計画・実撮影情報データベース
54 リンク関連情報データベース
55 収集画像データベース
56 収集画像属性情報データベース
100 地理情報関連付き画像データ表示システム
101 地図表示手段
102 撮影位置表示手段
103 撮影画像表示手段
104 経路探索連動手段
105 画像検索手段
106 記憶装置
108 地図データ
d0 撮影計画情報
d1 収集画像データ
d2 収集画像属性情報
d3 実撮影結果情報
f1 一次撮影情報インポートファイル
f2 二次撮影情報インポートファイル
f3 撮影情報エクスポートファイル
f4 切り出し画像データ
DESCRIPTION OF SYMBOLS 10 Geographic coordinate related image data management system 20 Image capturing subsystem 21 Vehicle (moving means)
22 Image sensor 23 Hybrid type position sensor 24 Image data collection means 25 Position data collection means 30 Image data editing subsystem 31 Map data display means 32 Image data display means 33 Link start / end point passage time registration means 34 Image thinning means 40 Image data management Subsystem 41 Imaging plan means 42 Imaging information fetch means 43 Management means 44 Data extraction means 50 Storage device 50a Image information database 50b Physical image database 51 Graph structure database 52 Camera information database 53 Plan / actual imaging information database 54 Link related information database 55 Collected image database 56 Collected image attribute information database 100 Image data display system 101 with geographic information association Map display means 102 Shooting position display means 103 Photographed image display hand 104 route search interlocking means 105 image search means 106 storage device 108 map data d0 shooting plan information d1 collected image data d2 collected image attribute information d3 actual shooting result information f1 primary shooting information import file f2 secondary shooting information import file f3 shooting information export File f4 Cutout image data

Claims (18)

移動体に全周囲撮影カメラ、GPSを有するハイブリット型の位置センサを搭載して進行路を移動したときに一定時間毎に撮影し、前記位置センサの情報を基にして得られた撮影位置、全周囲撮影カメラの撮影中心方向、撮影年月日及び撮影時間帯と共に得た複数の全周囲画像情報の中から撮影地点の全周囲画像を第1の全周囲画像として抽出し、この第1の全周囲画像を、所定の表示範囲でコンピュータグラフィックで画面に表示すると共に、前記撮影地点の範囲を含む地図とを前記画面に連動表示する地理情報関連付き画像データ表示システムにおいて、
前記地図上の前記進行路のID番号と該進行路の両端のノードのIDコードと進行路の始点、終点の座標及び方向を有するベクトル情報を含むリンク情報を有する路線ネットワーク並びに、該路線ネットワークにおける前記第1の全周囲画像と、該第1の全周囲画像毎に前記撮影位置と前記撮影中心方向と前記進行路における撮影順番と前記撮影位置に対応する前記進行路のID番号とを含む画像付属情報とが関連付けられて記憶され、かつ前記地図を記憶した記憶装置と、
前記第1の全周囲画像毎の画像付属情報を読み込み、これらの画像付属情報に含まれる前記撮影位置をそれぞれ抽出し、これらを前記地図上の対応する位置に表示する手段と、
前記地図上に前記撮影位置が指定されると、該指定された撮影位置を有する前記画像付属情報及び、該画像付属情報に関連付けている前記第1の全周囲画像を前記記憶装置から読み込む手段と、
前記読み込まれた第1の全周囲画像を前記地図の表示領域とは異なる画像表示領域に第2の全周囲画像として前記所定の表示範囲で前記コンピュータグラフィックにより表示する画像表示手段と、
連続表示の指示に伴って、前記読み込まれた画像付属情報の前記進行路のID番号を有する全ての画像付属情報の撮影順番を読み込み、これらの撮影順番に基づいて昇順又は逆順に、これらの画像付属情報に関連付けられている前記第1の全周囲画像を順次読み込んで、該読み込み毎にこれを前記画像表示領域に前記所定の表示範囲で前記コンピュータグラフィックにより第3の全周囲画像として連続表示させる撮像画像表示手段と、
前記撮影順番が前記両端のいずれかの端の番号の場合は、前記撮像画像表示手段の連続表示を停止させ、該停止させたときに表示されている前記第3の全周囲画像を第4の全周囲画像とし、この第4の全周囲画像に関連付けられている前記画像付属情報の前記ID番号を有する前記進行路の前記いずれかの端の前記ノードのIDコードを検索し、このIDコードに関連するノードに接続する全て進行路のID番号を検索し、該検索したこれらの進行路の道路中心の方向を読み込む手段と、
前記読み込んだ全ての進行路の道路中心の方向毎に、その方向と前記撮影中心方向とに基づいて前記第4の全周囲画像上における前記撮影中心方向からの、前記読み込んだ全ての進行路の道路中心の方向毎の方位を求め、前記第4の全周囲画像上に、これらの方位毎に前記進行路を選択させるための進行路選択ポリゴンの表示位置を道路上となる所定の高さで求め、これらの表示位置に前記進行路選択ポリゴンを前記第4の全周囲画像上に合成した第5の全周囲画像を得て、この第5の全周囲画像を前記所定の表示範囲で前記コンピュータグラフィックにより表示させる手段と、
前記前記進行路選択ポリゴンが選択されたとき、該進行路選択ポリゴンに関連付けられた前記リンク情報の前記ID番号を有する画像付属情報を前記撮像画像表示手段に読み込みさせる手段と
を有することを特徴とする地理情報関連付き画像データ表示システム。
When a moving body is equipped with an all-around shooting camera and a GPS-type hybrid position sensor and moves along a traveling path, images are taken at regular intervals, and the shooting position obtained based on the information of the position sensor, all An all-around image of the shooting point is extracted as a first all-around image from a plurality of all-around image information obtained together with the shooting center direction, the shooting date, and the shooting time zone of the surrounding shooting camera. In the image data display system with associated geographic information, the surrounding image is displayed on the screen with a computer graphic in a predetermined display range, and the map including the range of the shooting point is displayed in conjunction with the screen.
ID code and the traveling path start point of the both ends of the node ID number and該進path of said advancing path on the map, route network and having a link information including the vector information with coordinates and directions of the end point,該路-line network The first omnidirectional image at, and for each of the first omnidirectional images, the photographing position, the photographing center direction, the photographing order in the traveling path, and the ID number of the traveling path corresponding to the photographing position are included. A storage device that stores image associated information and stores the map; and
Means for reading image attachment information for each of the first omnidirectional images, extracting the shooting positions included in the image attachment information, and displaying them at corresponding positions on the map;
Means for reading, from the storage device, the image attachment information having the designated shooting position and the first omnidirectional image associated with the image attachment information when the shooting position is designated on the map; ,
Image display means for displaying the read first omnidirectional image as a second omnidirectional image in an image display area different from the map display area by the computer graphic in the predetermined display range;
Accompanying the instruction of continuous display, the imaging order of all the image auxiliary information having the ID number of the traveling path of the read image auxiliary information is read, and these images are arranged in ascending order or reverse order based on the imaging order. The first omnidirectional image associated with the attached information is sequentially read, and each time it is read, the first omnidirectional image is continuously displayed in the image display area as the third omnidirectional image by the computer graphic within the predetermined display range. Captured image display means;
When the photographing order is the number of either end of the both ends, the continuous display of the captured image display means is stopped, and the third omnidirectional image displayed when the stop is stopped is the fourth The ID code of the node at either end of the traveling path having the ID number of the image ancillary information associated with the fourth omnidirectional image is searched for as the omnidirectional image, and the ID code Means for retrieving the ID numbers of all the traveling paths connected to the related nodes, and reading the direction of the road center of the retrieved traveling paths;
For each direction of the road center of all the travel routes read, the direction of all the travel routes read from the photographing center direction on the fourth all-around image based on the direction and the photographing center direction. The azimuth for each direction of the road center is obtained, and the display position of the travel path selection polygon for selecting the travel path for each of these azimuths is displayed on the fourth all-around image at a predetermined height on the road. And obtaining a fifth omnidirectional image obtained by synthesizing the traveling path selection polygon on the fourth omnidirectional image at these display positions, and obtaining the fifth omnidirectional image within the predetermined display range in the computer. Means for graphic display;
And a means for causing the captured image display means to read image ancillary information having the ID number of the link information associated with the travel path selection polygon when the travel path selection polygon is selected. Image data display system with geographic information.
前記読み込まれた画像付属情報の撮影順番の撮影位置に関連する前記第1の全周囲画像が読み込まれる毎に、この撮影位置に該当する前記地図上の位置に、現在表示している前記第2、第3又は第4の全周囲画像の表示位置を知らせるための識別記号を表示する撮影位置表示手段と
を有することを特徴とする請求項1記載の地理情報関連付き画像データ表示システム。
Each time the first omnidirectional image related to the shooting position in the shooting order of the read image ancillary information is read, the second currently displayed at the position on the map corresponding to the shooting position. The image data display system with associated geographic information according to claim 1, further comprising a photographing position display means for displaying an identification symbol for informing a display position of the third or fourth omnidirectional image.
前記記憶装置に記憶された前記第1の全周囲画像及び画像付属情報は、指定の領域、指定の撮影年月日・撮影時間帯又は指定の進行路の種別のいずれかの切り出し条件で前記複数の全周囲画像情報から抽出した第1の全周囲画像及び画像付属情報であることを特徴とする請求項1又は2記載の地理情報関連付き画像データ表示システム。   The plurality of first surrounding images and image ancillary information stored in the storage device may be selected according to any one of a specified region, a specified shooting date / time, or a specified traveling route type. 3. The image data display system with associated geographic information according to claim 1, wherein the first all-around image extracted from the all-around image information and the image attached information. 前記第1の全周囲画像は、予め設定された視野方向の視野角の画像を繋げたパノラマ画像であり、
前記画像表示領域に表示される前記第2、第3、第4又は第5の全周囲画像は、予め設定された視野方向の視野角の画像を繋げた第2、第3、第4又は第5のパノラマ画像であり、
前記画像付属情報の撮影順番が前記進行路の前記両端のいずれかの端の番号を示している場合は前記ノードの位置にいると判定し、そのノードに関連する前記ノード情報を読み込み、これらのノード情報の前記ID番号の前記リンク情報の全ての進行路の方向を求める手段と、
前記読み込んだこれらの進行路に該当する地図上の位置に、前記求めた方向に対応した矢印を表示する手段と、
前記視野角の画像を繋げた第2、第3、第4又は第5のパノラマ画像の前記所定の表示範囲に対応した角度を中心角とした扇型ポリゴンの中心を前記矢印同士の交点にして、前記地図上に表示することで視野方向を前記扇型ポリゴンの中心軸が示す方向から知らせる手段と
を有することを特徴とする請求項1乃至3のいずれか一項に記載の地理情報関連付き画像データ表示システム。
The first omnidirectional image is a panoramic image obtained by connecting images with a viewing angle in a preset viewing direction,
The second, third, fourth, or fifth omnidirectional image displayed in the image display area is a second, third, fourth, or fifth image in which images of viewing angles in a preset viewing direction are connected. 5 panoramic images,
When the shooting order of the image ancillary information indicates the number of either end of the traveling path, it is determined that the node is located, reads the node information related to the node, and Means for determining the direction of all travel paths of the link information of the ID number of node information;
Means for displaying an arrow corresponding to the obtained direction at a position on the map corresponding to the read travel path;
The center of the fan-shaped polygon whose center angle is the angle corresponding to the predetermined display range of the second, third, fourth, or fifth panoramic image connecting the images of the viewing angles is the intersection of the arrows. And a means for notifying a visual field direction from a direction indicated by a central axis of the fan-shaped polygon by displaying the map on the map. Image data display system.
前記進行路選択矢印ポリゴン及び前記扇型ポリゴンは、透過処理が施されていることを特徴とする請求項1又は4記載の地理情報関連付き画像データ表示システム。 5. The geographic data-related image data display system according to claim 1, wherein the travel path selection arrow polygon and the fan-shaped polygon are subjected to a transmission process. 前記記憶装置に記憶された前記第1の全周囲画像は、
前記撮影年月日、撮影日時帯が付加され、
前記記憶装置に記憶された画像付属情報は、
前記前記撮影位置と前記撮影中心方向と前記進行路における撮影順番と前記撮影位置に対応する前記進行路のID番号と前記撮影年月日と撮影日時帯とが関連付けられ、
予め設定されている一定距離間隔毎に、この距離毎の座標地点に最も近接する撮影位置を有する前記第1の全周囲画像及び画像付属情報を、前記前記撮影年月日、撮影日時帯、前記進行路のIDをキーとして抽出して前記記憶手段に記憶する手段と
を有することを特徴とする請求項1乃至5のいずれか一項に記載の地理情報関連付き画像データ表示システム。
The first omnidirectional image stored in the storage device is:
The shooting date, shooting date and time zone are added,
The image attached information stored in the storage device is:
The shooting position, the shooting center direction, the shooting order in the traveling path, the ID number of the traveling path corresponding to the shooting position, the shooting date and the shooting date and time band are associated with each other,
For each predetermined distance interval set in advance, the first omnidirectional image having the shooting position closest to the coordinate point for each distance and the image attached information are the shooting date, shooting date and time, 6. The image data display system with associated geographic information according to claim 1, further comprising: means for extracting an ID of a traveling path as a key and storing the extracted information in the storage unit.
前記記憶装置の前記地図は、地物及び注記データを含み、該注記データは地物に座標で関連付けられており、
前記注記データ毎に、該注記データの座標に最も近い前記撮影位置を有する画像付属情報を前記記憶装置から検索して、この注記データと関連付けて記憶する手段と、
この画像付属情報が引き当てられたとき、この画像付属情報の前記全周囲画像にこの画像付属情報の注記データを重ね表示させる手段と
を有する請求項1乃至6のいずれか一項に記載の地理情報関連付き画像データ表示システム。
The map of the storage device includes features and annotation data, the annotation data being associated with the features by coordinates,
Means for retrieving, from the storage device, image ancillary information having the photographing position closest to the coordinates of the annotation data for each of the annotation data, and storing it in association with the annotation data;
The geographical information according to any one of claims 1 to 6, further comprising means for displaying the annotation data of the image attachment information on the all-around image of the image attachment information when the image attachment information is allocated. Related image data display system.
前記注記データは、前記表示した第2、第3、第4又は第5の全周囲画像に関連する前記画像付属情報の撮影位置から前記注記データまでの方位を求め、この方位でかつ予め設定されている目線高さに前記重ね表示する
ことを特徴とする請求項7に記載の地理情報関連付き画像データ表示システム。
The annotation data is obtained by obtaining an orientation from the shooting position of the image ancillary information related to the displayed second, third, fourth, or fifth omnidirectional image to the annotation data. The image data display system with associated geographic information according to claim 7, wherein the overlapping display is performed at a certain eye level.
前記第2、第3、第4又は第5の全周囲画像の表示は、前記引き当てられた画像付属情報に関連する全周囲画像をそのまま表示する単純表示或いは、この全周囲画像を、前記撮影中心から任意の方向で、かつ所定の視野角で撮影した画像をコンピュータグラフィックで表示するカメラパラメータ指定表示を行うことを特徴とする請求項1乃至8のいずれか一項に記載の地図情報関連付け画像データ表示システム。   The display of the second, third, fourth, or fifth omnidirectional image may be a simple display in which the omnidirectional image related to the assigned image attached information is displayed as it is, or the omnidirectional image may be displayed at the photographing center. 9. The map information association image data according to claim 1, wherein camera parameter designation display is performed to display, as a computer graphic, an image taken in an arbitrary direction and at a predetermined viewing angle. Display system. 移動体に全周囲撮影カメラ、GPSを有するハイブリット型の位置センサを搭載して進行路を移動したときに一定時間毎に撮影し、前記位置センサの情報を基にして得られた撮影位置、全周囲撮影カメラの撮影中心方向、撮影年月日及び撮影時間帯と共に得た複数の全周囲画像情報の中から撮影地点の全周囲画像を第1の全周囲画像として抽出し、この第1の全周囲画像を、所定の表示範囲でコンピュータグラフィックで画面に表示すると共に、前記撮影地点の範囲を含む地図とを前記画面に連動表示するための地理情報関連付き画像データ表示のプログラムにおいて、
コンピュータに、
前記地図上の前記進行路のID番号と該進行路の両端のノードのIDコードと進行路の始点、終点の座標及び方向を有するベクトル情報を含むリンク情報及び前記ノードに繋がる前記進行路のID番号を含むノード情報を有する路線ネットワーク並びに、該路線ネットワークにおける前記第1の全周囲画像と、該第1の全周囲画像毎に前記撮影位置と前記撮影中心方向と前記進行路における撮影順番と前記撮影位置に対応する前記進行路のID番号とを含む画像付属情報と関連付けて記憶手段に記憶すると共に、かつ前記地図を記憶する手段、
前記第1の全周囲画像毎の画像付属情報を読み込み、これらの画像付属情報に含まれる前記撮影位置をそれぞれ抽出し、これらを前記地図上の対応する位置に表示する手段、
前記地図上に前記撮影位置が指定されると、該指定された撮影位置を有する前記画像付属情報及び、該画像付属情報に関連付けている前記第1の全周囲画像を前記記憶装置から読み込む手段、
前記読み込まれた第1の全周囲画像を前記地図の表示領域とは異なる画像表示領域に第2の全周囲画像として前記所定の表示範囲で前記コンピュータグラフィックにより表示する画像表示手段、
連続表示の指示に伴って、前記読み込まれた画像付属情報の前記進行路のID番号を有する全ての画像付属情報の撮影順番を読み込み、これらの撮影順番に基づいて昇順又は逆順に、これらの画像付属情報に関連付けられている前記第1の全周囲画像を順次読み込んで、該読み込み毎にこれを前記画像表示領域に前記所定の表示範囲で前記コンピュータグラフィックにより第3の全周囲画像として連続表示させる撮像画像表示手段、
前記撮影順番が前記両端のいずれかの端の番号の場合は、前記撮像画像表示手段の連続表示を停止させ、該停止させたときに表示されている前記第3の全周囲画像を第4の全周囲画像とし、この第4の全周囲画像に関連付けられている前記画像付属情報の前記ID番号を有する前記進行路の前記いずれかの端の前記ノードのIDコードを検索し、このIDコードに関連するノードに接続する全て進行路のID番号を検索し、該検索したこれらの進行路の道路中心の方向を読み込む手段、
前記読み込んだ全ての進行路の道路中心の方向毎に、その方向と前記撮影中心方向とに基づいて前記第4の全周囲画像上における前記撮影中心方向からの、前記読み込んだ全ての進行路の道路中心の方向毎の方位を求め、前記第4の全周囲画像上に、これらの方位毎に前記進行路を選択させるための進行路選択ポリゴンの表示位置を道路上となる所定の高さで求め、これらの表示位置に前記進行路選択ポリゴンを前記第4の全周囲画像上に合成した第5の全周囲画像を得て、この第5の全周囲画像を前記所定の表示範囲で前記コンピュータグラフィックにより表示させる手段、
前記前記進行路選択ポリゴンが選択されたとき、該進行路選択ポリゴンに関連付けられた前記リンク情報の前記ID番号を有する画像付属情報を前記撮像画像表示手段に読み込みさせる手段
として能させるための地理情報関連付き画像データ表示のプログラム。
When a moving body is equipped with an all-around shooting camera and a GPS-type hybrid position sensor and moves along a traveling path, images are taken at regular intervals, and the shooting position obtained based on the information of the position sensor, all An all-around image of the shooting point is extracted as a first all-around image from a plurality of all-around image information obtained together with the shooting center direction, the shooting date, and the shooting time zone of the surrounding shooting camera. In a program for displaying image data with associated geographic information for displaying a surrounding image on a screen with a computer graphic in a predetermined display range, and displaying a map including the range of the shooting point on the screen,
On the computer,
ID code and the traveling path start point of the both ends of the node ID number and該進path of said advancing path on the map, the advancing path leading to the link information and said node and a vector information with coordinates and directions of the end point A route network having node information including an ID number, the first omnidirectional image in the route network, the photographing position, the photographing center direction, and the photographing order in the traveling route for each of the first omnidirectional images; means for storing stores the association only in storage means the image accompanying information, and the map including the ID number of the traveling path corresponding to the photographing position,
Means for reading image attachment information for each of the first omnidirectional images, extracting the shooting positions included in the image attachment information, and displaying them at corresponding positions on the map;
Means for reading, from the storage device, the image attached information having the designated taken position and the first omnidirectional image associated with the image attached information when the taken position is designated on the map;
Image display means for displaying the read first omnidirectional image as a second omnidirectional image in an image display area different from the map display area by the computer graphic in the predetermined display range;
Accompanying the instruction of continuous display, the imaging order of all the image auxiliary information having the ID number of the traveling path of the read image auxiliary information is read, and these images are arranged in ascending order or reverse order based on the imaging order. The first omnidirectional image associated with the attached information is sequentially read, and each time it is read, the first omnidirectional image is continuously displayed in the image display area as the third omnidirectional image by the computer graphic within the predetermined display range. Captured image display means,
When the photographing order is the number of either end of the both ends, the continuous display of the captured image display means is stopped, and the third omnidirectional image displayed when the stop is stopped is the fourth The ID code of the node at either end of the traveling path having the ID number of the image ancillary information associated with the fourth omnidirectional image is searched for as the omnidirectional image, and the ID code Means for retrieving ID numbers of all the traveling paths connected to the related nodes and reading the direction of the road center of the retrieved traveling paths;
For each direction of the road center of all the travel routes read, the direction of all the travel routes read from the photographing center direction on the fourth all-around image based on the direction and the photographing center direction. The azimuth for each direction of the road center is obtained, and the display position of the travel path selection polygon for selecting the travel path for each of these azimuths is displayed on the fourth all-around image at a predetermined height on the road. And obtaining a fifth omnidirectional image obtained by synthesizing the traveling path selection polygon on the fourth omnidirectional image at these display positions, and obtaining the fifth omnidirectional image within the predetermined display range in the computer. Means for graphic display,
Wherein when said traveling path selected polygon is selected, in order to function as a means for reading the image auxiliary information having the ID number of the link information associated with the該進path selection polygon on the captured image display means A program for displaying image data with geographic information.
前記コンピュータに、
前記読み込まれた画像付属情報の撮影順番の撮影位置に関連する前記第1の全周囲画像が読み込まれる毎に、この撮影位置に該当する前記地図上の位置に、現在表示している前記第2、第3又は第4の全周囲画像の表示位置を知らせるための識別記号を表示する撮影位置表示手段
として能させるための請求項10記載の地理情報関連付き画像データ表示のプログラム。
In the computer,
Each time the first omnidirectional image related to the shooting position in the shooting order of the read image ancillary information is read, the second currently displayed at the position on the map corresponding to the shooting position. , third or fourth claim 10 geographic information associated with the image data display program according to which functions as a shooting position display means for displaying the identification symbol for informing the display position of the omnidirectional image.
前記記憶装置に記憶された前記第1の全周囲画像及び画像付属情報は、
指定の領域、指定の撮影年月日・撮影時間帯又は指定の進行路の種別のいずれかの切り出し条件で前記複数の全周囲画像情報から抽出した第1の全周囲画像及び画像付属情報であることを特徴とする請求項10又は11記載の地理情報関連付き画像データ表示のプログラム。
The first omnidirectional image and image attached information stored in the storage device are:
The first omnidirectional image and image ancillary information extracted from the plurality of omnidirectional image information under a cutout condition of any one of a designated area, a designated shooting date / time, a shooting time zone, or a specified traveling route type. 12. The program for displaying image data associated with geographic information according to claim 10 or 11.
前記第1の全周囲画像は、予め設定された視野方向の視野角の画像を繋げたパノラマ画像であり、
前記コンピュータに、
前記画像表示領域に表示される前記第2、第3、第4又は第5の全周囲画像は、予め設定された視野方向の視野角の画像を繋げた第2、第3、第4又は第5のパノラマ画像であり、
前記画像付属情報の撮影順番が前記進行路の前記両端のいずれかの端の番号を示している場合は前記ノードの位置にいると判定し、そのノードに関連する前記ノード情報を読み込み、これらのノード情報の前記ID番号の前記リンク情報の全ての進行路の方向を求める手段、
前記読み込んだこれらの進行路に該当する地図上の位置に、前記求めた方向に対応した矢印を表示する手段、
前記視野角の画像を繋げた第2、第3、第4又は第5のパノラマ画像の前記所定の表示範囲に対応した角度を中心角とした扇型ポリゴンの中心を前記矢印同士の交点にして、前記地図上に表示することで視野方向を前記扇型ポリゴンの中心軸が示す方向から知らせる手段
として能させるための請求項10乃至12のいずれか一項に記載の地理情報関連付き画像データ表示のプログラム。
The first omnidirectional image is a panoramic image obtained by connecting images with a viewing angle in a preset viewing direction,
In the computer,
The second, third, fourth, or fifth omnidirectional image displayed in the image display area is a second, third, fourth, or fifth image in which images of viewing angles in a preset viewing direction are connected. 5 panoramic images,
When the shooting order of the image ancillary information indicates the number of either end of the traveling path, it is determined that the node is located, reads the node information related to the node, and Means for obtaining directions of all traveling paths of the link information of the ID number of node information;
Means for displaying an arrow corresponding to the obtained direction at a position on the map corresponding to the read travel path;
The center of the fan-shaped polygon whose center angle is the angle corresponding to the predetermined display range of the second, third, fourth, or fifth panoramic image connecting the images of the viewing angles is the intersection of the arrows. , geographic information related with according a viewing direction by displaying on the map in any one of claims 10 to 12 for functioning as a means for notifying the direction indicated by the central axis of the fan-shaped polygon Image data display program.
前記コンピュータに、
前記進行路選択矢印ポリゴン及び前記扇型ポリゴンは、透過処理を施させる手段
としての機能させるための請求項10又は13記載の地理情報関連付き画像データ表示のプログラム。
In the computer,
It said traveling path selection arrow polygon and the fan-shaped polygons, claim 10 or 13 geographic information associated with the image data display program according to which functions as a means for subjected to transmission processing.
前記記憶装置に記憶された前記第1の全周囲画像は、
前記撮影年月日、撮影日時帯が付加され、
前記記憶装置に記憶された画像付属情報は、
前記前記撮影位置と前記撮影中心方向と前記進行路における撮影順番と前記撮影位置に対応する前記進行路のID番号と前記撮影年月日と撮影日時帯とが関連付けられ、
前記コンピュータに、
予め設定されている一定距離間隔毎に、この距離毎の座標地点に最も近接する撮影位置を有する前記第1の全周囲画像及び画像付属情報を、前記前記撮影年月日、撮影日時帯、前記進行路のIDをキーとして抽出して前記記憶手段に記憶する手段
として能させるための請求項10乃至14のいずれか一項に記載の地理情報関連付き画像データ表示のプログラム。
The first omnidirectional image stored in the storage device is:
The shooting date, shooting date and time zone are added,
The image attached information stored in the storage device is
The shooting position, the shooting center direction, the shooting order in the traveling path, the ID number of the traveling path corresponding to the shooting position, the shooting date and the shooting date and time band are associated with each other,
In the computer,
For each predetermined distance interval set in advance, the first omnidirectional image having the shooting position closest to the coordinate point for each distance and the image attached information are the shooting date, shooting date and time, geographic information associated with the image data display program according to any one of claims 10 to 14 for function of the ID of the traveling path as means for extracting and storing in the storage means as a key.
前記記憶装置の前記地図は、地物及び注記データを含み、該注記データは地物に座標で関連付けられており、
前記コンピュータに、
前記注記データ毎に、該注記データの座標に最も近い前記撮影位置を有する画像付属情報を前記記憶装置から検索して、この注記データと関連付けて記憶する手段、
この画像付属情報が引き当てられたとき、この画像付属情報の前記全周囲画像にこの画像付属情報の注記データを重ね表示させる手段
として能させるための請求項10乃至15のいずれか一項に記載の地理情報関連付き画像データ表示のプログラム。
The map of the storage device includes features and annotation data, the annotation data being associated with the features by coordinates,
In the computer,
Means for retrieving image ancillary information having the photographing position closest to the coordinates of the annotation data for each of the annotation data from the storage device and storing the information in association with the annotation data;
When this image accompanying information has been provision, the omnidirectional image in any one of claims 10 to 15 for functioning as a means for displaying overlapping annotation data of the image accompanying information of the image accompanying information Program for displaying image data with geographic information described in 1.
前記コンピュータに、
前記表示した第2、第3、第4又は第5の全周囲画像に関連する前記画像付属情報の撮影位置から前記注記データまでの方位を求め、この方位でかつ予め設定されている目線高さに前記重ね表示する手段
として能させるための請求項16に記載の地理情報関連付き画像データ表示のプログラム。
In the computer,
The direction from the shooting position of the image ancillary information related to the displayed second, third, fourth, or fifth omnidirectional image to the annotation data is obtained, and this eye direction and a preset eye height are set. geographic information associated with the image data display program according to claim 16 for functioning as a means for the superposed displayed.
前記コンピュータに、
前記第2、第3、第4又は第5の全周囲画像の表示は、
前記引き当てられた画像付属情報に関連する全周囲画像をそのまま表示する単純表示
或いは、
この全周囲画像を、前記撮影中心から任意の方向で、かつ所定の視野角で撮影した画像をコンピュータグラフィックで表示するカメラパラメータ指定表示を行うこと
であることを特徴とする請求項10乃至17のいずれか一項に記載の地図情報関連付け画像データ表示のプログラム。
In the computer,
The display of the second, third, fourth or fifth omnidirectional image is:
A simple display that directly displays the entire surrounding image related to the allocated image attached information, or
A camera parameter designation display is performed for displaying an image obtained by photographing the entire peripheral image in an arbitrary direction from the photographing center and at a predetermined viewing angle with a computer graphic.
Map information associating the image data display program according to any one of claims 10 to 17, characterized in that.
JP2007106460A 2006-12-12 2007-04-13 Image data display system with map information and image data display program with map information Active JP4210309B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007106460A JP4210309B2 (en) 2006-12-12 2007-04-13 Image data display system with map information and image data display program with map information
PCT/JP2007/071583 WO2008072429A1 (en) 2006-12-12 2007-11-06 System for displaying image data associated with map information

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006334926 2006-12-12
JP2006334926 2006-12-12
JP2007106460A JP4210309B2 (en) 2006-12-12 2007-04-13 Image data display system with map information and image data display program with map information

Publications (2)

Publication Number Publication Date
JP2008170930A JP2008170930A (en) 2008-07-24
JP4210309B2 true JP4210309B2 (en) 2009-01-14

Family

ID=39699040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007106460A Active JP4210309B2 (en) 2006-12-12 2007-04-13 Image data display system with map information and image data display program with map information

Country Status (1)

Country Link
JP (1) JP4210309B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101835152B1 (en) * 2012-06-18 2018-04-19 현대엠엔소프트 주식회사 A method for build a database of vehicle pass height limit using ground-based laser measurement data

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5030890B2 (en) * 2008-08-14 2012-09-19 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, program, and apparatus for relating and switching display between multiple images
JP2012034216A (en) * 2010-07-30 2012-02-16 Brother Ind Ltd Image providing system, image display device, and image display program
CN103999084A (en) * 2011-12-27 2014-08-20 索尼公司 Server, client terminal, system, and recording medium
JP6691589B2 (en) * 2012-12-04 2020-04-28 任天堂株式会社 Information processing system and display method
US9906720B2 (en) 2014-12-05 2018-02-27 Ricoh Company, Ltd. Service system, information processing apparatus, and service providing method
JP6682821B2 (en) 2014-12-05 2020-04-15 株式会社リコー Service system, information processing device, service providing method
JP7115869B2 (en) * 2018-02-23 2022-08-09 トヨタ自動車株式会社 Map generation system
JP7346830B2 (en) * 2018-07-24 2023-09-20 株式会社リコー Communication terminals, programs, display methods, recording media, systems
US11212439B2 (en) 2018-07-24 2021-12-28 Ricoh Company, Ltd. Communication terminal, display method, and non-transitory computer-readable medium for displaying images and controller
JP7365783B2 (en) * 2019-03-28 2023-10-20 株式会社トプコン Field information management system, control method for the field information management system, and control program for the field information management system
JPWO2023233866A1 (en) * 2022-06-02 2023-12-07

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101835152B1 (en) * 2012-06-18 2018-04-19 현대엠엔소프트 주식회사 A method for build a database of vehicle pass height limit using ground-based laser measurement data

Also Published As

Publication number Publication date
JP2008170930A (en) 2008-07-24

Similar Documents

Publication Publication Date Title
JP4210309B2 (en) Image data display system with map information and image data display program with map information
US12050109B2 (en) Systems and method for using visual landmarks in initial navigation
JP3432212B2 (en) Image processing apparatus and method
JP5290493B2 (en) Method of collecting geographic database information for use in a navigation system
JP5351371B2 (en) Navigation system
CN1131500C (en) Method and appts for processing digital map data
EP3660737A1 (en) Method, apparatus, and system for providing image labeling for cross view alignment
JP2011238242A (en) Navigation and inspection system
CN105628034B (en) Navigation map update method and device
CN105973236A (en) Indoor positioning or navigation method and device, and map database generation method
CN104535070A (en) High-precision map data structure, high-precision map data acquiringand processing system and high-precision map data acquiringand processingmethod
EP2860648A1 (en) User portable terminal for retrieving target geographical information using user's present position and present azimuth and providing target geographical information to user
CN102016909A (en) Image search device and image search method
WO2021003487A1 (en) Training data generation for dynamic objects using high definition map data
JPH031300A (en) System of preparing and conserving current data file for road transportation
JP2008243185A (en) System for managing image data associated with geographical coordinates
JP4068656B1 (en) Geographic information association image data management system and geographic information association image data management program
WO2008072429A1 (en) System for displaying image data associated with map information
JP2007121528A (en) System and method for renewing map creation
JP6509546B2 (en) Image search system and image search method
JP2003219403A (en) Airscaping system of road, river or railroad by panoramic image
JPH11211486A (en) Navigation device
EP4202835A1 (en) Method, apparatus, and system for pole extraction from optical imagery
KR980010935A (en) Supporting method and display method of video on computer numerical map using satellite navigation device and supporting system of video
KR20090018296A (en) Roadside panorama image based information service method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080924

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081024

R150 Certificate of patent or registration of utility model

Ref document number: 4210309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131031

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250