JPH05181411A - Map information collation and update system - Google Patents
Map information collation and update systemInfo
- Publication number
- JPH05181411A JPH05181411A JP34747391A JP34747391A JPH05181411A JP H05181411 A JPH05181411 A JP H05181411A JP 34747391 A JP34747391 A JP 34747391A JP 34747391 A JP34747391 A JP 34747391A JP H05181411 A JPH05181411 A JP H05181411A
- Authority
- JP
- Japan
- Prior art keywords
- image
- map
- map information
- information
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 23
- 239000000284 extract Substances 0.000 claims abstract description 7
- 238000006243 chemical reaction Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 101000712600 Homo sapiens Thyroid hormone receptor beta Proteins 0.000 description 2
- 102100033451 Thyroid hormone receptor beta Human genes 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明はあらかじめ登録された
地図情報を利用することにより地図や航空写真を解析
し、経年変化や景観情報を抽出し、自動的にデータベー
スを追加し、更新する地図情報照合更新方式に関する。[Industrial application] This invention uses map information registered in advance to analyze maps and aerial photographs, extract secular changes and landscape information, and automatically add and update a database map information. Regarding the collation update method.
【0002】[0002]
【従来の技術】地図や航空写真を解析する場合、従来は
人手でデータを入力するか、画像処理技術のみを利用し
て画像を解析していた。しかしながら、人手でデータを
入力するには時間とコストがかかりすぎ、画像処理技術
のみでは十分な精度を得ることができなかった。また、
リモートセンシング画像の解析において、地図データを
用いて画像処理結果を補正するなどの例は存在するが、
地図データを用いて画像処理結果を照合し、自動的に変
化を抽出し、地図情報を更新するものはなかった。2. Description of the Related Art Conventionally, when a map or an aerial photograph is analyzed, data is manually input or the image is analyzed only by using an image processing technique. However, it takes too much time and cost to manually input the data, and sufficient accuracy cannot be obtained only by the image processing technology. Also,
There is an example of correcting the image processing result using map data in the analysis of the remote sensing image,
There is no one that collates image processing results using map data, automatically extracts changes, and updates map information.
【0003】[0003]
【発明が解決しようとする課題】上述のように、従来に
おいては、地図や航空写真から地図情報を追加更新しよ
うとする場合、データの作成にかかる時間と手間が非常
に大であった。この発明はこのような従来の課題を解決
するためになされたもので、その目的とするところは、
予め登録された地図データを利用して地図や景観画像か
ら経年変化や景観情報を自動的に抽出することにより、
自動的に地図データベースを追加し、更新することがで
きる地図情報照合更新方式を提供することにある。As described above, conventionally, when it is attempted to additionally update map information from a map or an aerial photograph, it takes much time and effort to create the data. The present invention has been made to solve such a conventional problem, and the purpose thereof is to:
By automatically extracting secular change and landscape information from maps and landscape images using pre-registered map data,
It is to provide a map information collating and updating method capable of automatically adding and updating a map database.
【0004】[0004]
【課題を解決するための手段】上記目的を達成するた
め、本発明は、新たに得られた地図画像を、予め登録さ
れた地図画像と照合して地図情報を更新する地図情報照
合更新方式において、前記新たな地図画像と前記登録さ
れた地図画像とを位置合せする手段と、前記新たな地図
画像、及び前記登録された地図画像から特徴領域を抽出
する手段と、該特徴領域と前記各地図画像とを照合する
照合手段と、この照合結果に基づいて前記登録された地
図画像を更新する手段と、を有することが特徴である。To achieve the above object, the present invention provides a map information collating and updating method for collating a newly obtained map image with a previously registered map image to update map information. Means for aligning the new map image with the registered map image, means for extracting a characteristic region from the new map image and the registered map image, the characteristic region and each map It is characterized in that it has a collating means for collating the image and a means for updating the registered map image based on the collation result.
【0005】[0005]
【作用】本発明による地図情報照合更新方式では、航空
写真画像と予め用意された地図とを位置合わせし、地図
データを画像上に座標変換するための射影変換係数を求
め、画像を同一の特徴を有する領域に分割し、領域分割
結果と地図情報の図形データを照合することにより、経
年変化や景観情報を抽出し、地図データベースを更新し
ている。In the map information collating and updating method according to the present invention, the aerial photographic image and the map prepared in advance are aligned, the projective transformation coefficient for converting the coordinate of the map data on the image is obtained, and the image has the same characteristics. The map database is updated by extracting the secular change and the landscape information by dividing the area into areas and comparing the area division result with the graphic data of the map information.
【0006】従って、データベースを自動的に更新する
ことができるようになり、大幅な省力化が計れる。Therefore, the database can be automatically updated, and the labor can be greatly saved.
【0007】[0007]
【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明による地図情報照合更新方式が適用
されるシステムの一実施例を示す構成図である。同図に
おいて、1は照合の対象となる画像を入力するための入
力装置であり、例えば、ビデオカメラであったり、図面
や写真を入力するためのスキャナーなどである。2は画
像入力装置1で入力された画像や画像処理結果を格納す
る画像メモリである。3は地図情報が格納されている磁
気ディスクであり、入力画像や位置合わせ情報、照合情
報などが処理結果として格納される。4は画像入力装置
1、画像メモリ2、磁気ディスク3を制御するととも
に、画像処理や照合処理を実行する処理プロセッサであ
り、1〜4はバスで接続されている。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a system to which the map information collation updating method according to the present invention is applied. In the figure, reference numeral 1 denotes an input device for inputting an image to be collated, such as a video camera, a scanner for inputting drawings or photographs, and the like. An image memory 2 stores an image input by the image input apparatus 1 and an image processing result. Reference numeral 3 is a magnetic disk in which map information is stored, and an input image, alignment information, collation information, etc. are stored as processing results. Reference numeral 4 is a processing processor that controls the image input device 1, the image memory 2, and the magnetic disk 3 and executes image processing and collation processing, and 1 to 4 are connected by a bus.
【0008】次に図2を参照しながら、図1の実施例シ
ステムの概略的な動作を説明する。Next, referring to FIG. 2, a schematic operation of the system of the embodiment shown in FIG. 1 will be described.
【0009】まず、ステップ21では、処理プロセッサ
4の指示により、スキャナーなどから図面や写真が入力
され、ステップ22で画像メモリ2に入力画像が格納さ
れる。ステップ23では、磁気ディスク3に格納されて
いる地図と入力画像の位置合わせを行なう。例えば、磁
気ディスク3から入力画像に該当する領域の地図を検索
し、入力画像と地図のそれぞれから同一地点の座標を求
め、入力画像が地図であれば、文献「画像処理のための
ディジタル画像処理」などで従来公知のいわゆるアフィ
ン変換によって、入力画像と地図情報との間の対応をと
る。First, in step 21, a drawing or photograph is input from a scanner or the like according to an instruction from the processor 4, and in step 22, the input image is stored in the image memory 2. In step 23, the map stored in the magnetic disk 3 and the input image are aligned. For example, the map of the area corresponding to the input image is searched from the magnetic disk 3, the coordinates of the same point are obtained from the input image and the map, and if the input image is a map, the document "Digital Image Processing for Image Processing" The correspondence between the input image and the map information is obtained by so-called affine transformation known in the art.
【0010】ステップ24では処理プロセッサ4により
画像メモリ2上の入力画像に対し画像処理を実行し、例
えば、入力画像が濃淡画像であれば、領域分割を行な
い、2値画像であれば、線図形の抽出などを行なう。ス
テップ25では、ステップ24の画像処理結果とステッ
プ23の位置合わせにより座標変換された地図情報との
間で照合を行ない、その結果をステップ26で解析し、
新たな地図情報を磁気ディスク3上に格納する。In step 24, the image processor 2 executes image processing on the input image in the image memory 2. For example, if the input image is a grayscale image, area division is performed, and if it is a binary image, a line drawing is performed. Is extracted. In step 25, collation is performed between the image processing result of step 24 and the map information coordinate-converted by the alignment of step 23, and the result is analyzed in step 26,
New map information is stored on the magnetic disk 3.
【0011】また、ステップ25はさらに三つのステッ
プから構成されており、これを図4,図5に示すフロー
チャートに従って説明する。まず、ステップ101〜1
04では、ステップ24の画像処理結果によって分割さ
れた要素の中から地図データと照合を行なう候補を選択
し、ステップ105,106で照合を行ない、判定を行
なう。そして、ステップ107〜111では、一つの地
図データに対応すべき領域が複数の要素に分割してしま
った場合にステップ101〜104で選択した照合候補
に隣接する要素から統合する候補を選択し、判定基準を
満たすまで統合処理を繰り返す。The step 25 is further composed of three steps, which will be described with reference to the flow charts shown in FIGS. First, steps 101 to 1
At 04, a candidate to be collated with the map data is selected from the elements divided by the image processing result at step 24, and collated at steps 105 and 106 to make a determination. Then, in steps 107 to 111, when a region that should correspond to one map data is divided into a plurality of elements, a candidate to be integrated is selected from the elements adjacent to the matching candidates selected in steps 101 to 104, The integration process is repeated until the criterion is satisfied.
【0012】次に入力データが航空写真などの景観画像
の場合を例として具体的な動作を説明する。Next, a specific operation will be described by taking as an example the case where the input data is a landscape image such as an aerial photograph.
【0013】図2におけるステップ21、22では、航
空写真がスキャナーなどによって、濃淡またはフルカラ
ーで入力され、画像メモリ2に格納される。そして、ス
テップ23では、図6に示すように、航空写真のカメラ
パラメータであるカメラのレンズ中心の地図座標系での
座標(X0,Y0,Z0)と地図と入力画像のそれぞれ
から基準点となる同一地点の座標を4組以上求め、文献
「現代測量学(1)、(2)」などで従来公知の射影変
換式のパラメータを算出し、以後これを用いて、入力画
像の座標(x,y)と地図情報の座標(X,Y,Z)と
の間で座標の変換を行なう。In steps 21 and 22 in FIG. 2, an aerial photograph is input by a scanner or the like in shades or full colors and stored in the image memory 2. Then, in step 23, as shown in FIG. 6, the coordinates (X0, Y0, Z0) in the map coordinate system of the lens center of the camera, which is the camera parameter of the aerial photograph, and each of the map and the input image become a reference point. Four or more sets of coordinates of the same point are obtained, parameters of a conventionally known projective transformation formula are calculated in the literature “Modern Surveying (1), (2)” and the like, and thereafter, the coordinates of the input image (x, The coordinates are converted between y) and the coordinates (X, Y, Z) of the map information.
【0014】次にステップ24を説明する。まず、処理
対象を限定する。画素値または画素値より求められる明
度により影領域(図10(a)のa)を求め、以後の処
理対象から除外する。次に、図3に示すように影でない
画素A0に対し同様に影でない8近傍の画素Ai(i=
1,2,…,8)との画素値の差を求め、ある閾値Dに
対して |A0 − Ai| < D ……(1) を満たす場合AiはA0と同一領域に属す画素であると
し、さらにAiに対し上記処理を再帰的に実行し、全て
の画素がどこかの領域に属すまで処理を行なう。例え
ば、入力画像がフルカラーの画像である場合には、RG
B空間でのユークリッド距離などで画素値の差を比較す
る。Next, step 24 will be described. First, the processing target is limited. The shadow area (a in FIG. 10A) is obtained from the pixel value or the lightness obtained from the pixel value and excluded from the subsequent processing targets. Next, as shown in FIG. 3, with respect to the non-shadow pixel A0, the eight non-shadow pixels Ai (i =
1, 2, ..., 8) and the difference in pixel value is obtained, and if | A0-Ai | <D (1) is satisfied for a certain threshold value D, Ai is a pixel belonging to the same area as A0. Further, the above process is recursively executed for Ai until all pixels belong to some region. For example, if the input image is a full-color image, RG
The difference in pixel value is compared by the Euclidean distance in B space.
【0015】次に図4,図5に示すフローチャートにそ
って、図10の処理例を参照しながらステップ25の地
図情報との照合を説明する。まず、ステップ101で磁
気ディスク上の地図DBから順に地図データを検索す
る。例えば一軒の家屋のデータを検索する。次にこの地
図データを元に、図6に示すように、家屋図形の座標
(Xi,Yi,Zi)を図2のステップ23で求めた変
換係数により画像上の座標(xi,yi)に変換し、 左下座標(xL,yL)が (min(xi)ーδ,min(yi)ーδ) ……(2) 右上座標(xH,yH)が (max(xi)+δ,max(yi)+δ) ……(3) の矩形領域をその家屋に対する照合対象範囲とし、ステ
ップ24で求めた領域分割結果の中から照合対象範囲内
にあるセグメントだけを照合対象とする。図10(a)
で点線で囲まれた領域bが照合対象範囲であり、それに
包含される白抜きの多角形c〜fが照合対象セグメント
である。これを以後照合対象セグメントと呼ぶことにす
る。上述した(2),(3)式において、δはステップ
23の位置合わせ精度と家屋図形の大きさを考慮して決
定される。Next, the collation with the map information in step 25 will be described with reference to the processing example of FIG. 10 according to the flowcharts shown in FIGS. First, in step 101, map data is sequentially searched from the map DB on the magnetic disk. For example, search the data of one house. Next, based on this map data, as shown in FIG. 6, the coordinates (Xi, Yi, Zi) of the house figure are converted into coordinates (xi, yi) on the image by the conversion coefficient obtained in step 23 of FIG. Then, the lower left coordinate (xL, yL) is (min (xi) −δ, min (yi) −δ) (2) The upper right coordinate (xH, yH) is (max (xi) + δ, max (yi) + δ ) (3) The rectangular area of (3) is set as the matching target range for the house, and only the segments within the matching target range among the area division results obtained in step 24 are set as the matching target. Figure 10 (a)
A region b surrounded by a dotted line is a collation target range, and outline polygons c to f included therein are collation target segments. Hereinafter, this will be referred to as a matching target segment. In the above equations (2) and (3), δ is determined in consideration of the alignment accuracy in step 23 and the size of the house figure.
【0016】ステップ102では、照合対象セグメント
の中から照合を行なう代表セグメントを例えば面積の一
番大きいセグメントといったように決定し、図10では
セグメントfが代表セグメントに選択されている。もし
代表セグメントがなければ、現在照合中の地図データは
経年変化したデータであるか領域分割がうまくいかなか
ったと考えられるので、ステップ112に移行し、自動
照合不可能な地図データであることを記録してステップ
101にもどる。ステップ104以降では、代表セグメ
ントと図形データ(図10(a)のh)の照合を行な
う。照合は二つの評価関数Φ1、Φ2をもとに行なわれ
る。Φ1は代表セグメントと図形データの一致度を表
し、Φ2は一致しない度合いを表す。この二つの評価関
数に対して、それぞれ二つの閾値THR1、THR2を
設定し、二つの判定基準 判定1 : Φ1 > THR1 ……(4) 判定2 : Φ2 < THR2 ……(5) により、照合を行なう。例えばテンプレートマッチング
で照合を行なう場合を図11を参照して説明する。図1
1でaは家屋図形であり、bは代表セグメントである。
aとbを照合した結果、代表セグメントと図形データの
一致した部分をc、図形データと一致しなかった部分領
域をdとすると、 Φ1=(cの面積)/(aの面積) ……(6) Φ2=(dの面積)/(aの面積) ……(7) といった評価関数が考えられる。In step 102, the representative segment to be collated is determined from among the segments to be collated, for example, the segment having the largest area. In FIG. 10, the segment f is selected as the representative segment. If there is no representative segment, it is considered that the map data being collated at present is the data that has changed over time or the region division did not go well, so move to step 112 and record that the map data cannot be collated automatically. Then return to step 101. After step 104, the representative segment is collated with the graphic data (h in FIG. 10A). The matching is performed based on the two evaluation functions Φ1 and Φ2. Φ1 represents the degree of coincidence between the representative segment and the graphic data, and Φ2 represents the degree of disagreement. Two thresholds THR1 and THR2 are set for these two evaluation functions, respectively, and the comparison is made by two judgment criteria: judgment 1: Φ1> THR1 (4) judgment 2: Φ2 <THR2 (5). To do. For example, a case of performing matching by template matching will be described with reference to FIG. Figure 1
In 1, a is a house figure and b is a representative segment.
As a result of collating a and b, supposing that a portion where the representative segment and the figure data match is c and a partial region which does not match the figure data is d, Φ1 = (area of c) / (area of a) ...... ( 6) An evaluation function such as Φ2 = (area of d) / (area of a) (7) can be considered.
【0017】ステップ104では、代表セグメントと図
形データとの間でΦ1が最大となるように図形データを
α(|α|<δ)並行移動させてマッチングを行ない、
Φ1が最大となる位置を求め、その位置でΦ2を求め
る。ステップ105で、判定2を評価し、判定2を満た
さない場合には、代表セグメントの選択が誤りであると
して、現在の代表セグメントを照合対象セグメントから
除外し、ステップ102に戻る。次にステップ106
で、判定1を評価し、判定1を満たす場合には、照合に
成功したとしてステップ26に進む。判定1を満たさな
い場合には、図10のように家屋がその屋根の形状など
の理由によりいくつかのセグメントに分割されているこ
とが考えられるので、隣接するセグメントの中から類似
するセグメント(図10(d)ではg)を選んで統合処
理(ステップ107以降の処理)を行なう。まず、ステ
ップ107において、代表セグメントの隣接セグメント
を類似セグメント選択候補とし、その中から次の条件を
満たすものをを類似セグメントとして選択する。In step 104, the figure data is moved in parallel by α (| α | <δ) so as to maximize Φ1 between the representative segment and the figure data, and matching is performed.
The position where Φ1 is maximum is found, and Φ2 is found at that position. In step 105, the determination 2 is evaluated, and if the determination 2 is not satisfied, it is determined that the selection of the representative segment is incorrect, the current representative segment is excluded from the matching target segment, and the process returns to step 102. Then step 106
Then, the determination 1 is evaluated, and if the determination 1 is satisfied, it is determined that the collation is successful, and the process proceeds to step 26. If the determination 1 is not satisfied, it is considered that the house is divided into several segments due to the shape of the roof as shown in FIG. In 10 (d), g) is selected and integrated processing (processing after step 107) is performed. First, in step 107, adjacent segments of the representative segment are set as similar segment selection candidates, and those that satisfy the following conditions are selected as similar segments.
【0018】(1)代表セグメントとの境界部分の画素
値が緩やかに変化しており、ルーフエッジのピークとな
ること。(1) The pixel value at the boundary with the representative segment changes gently and reaches the peak of the roof edge.
【0019】(2)両方の彩度が高い場合には、その色
相が大きく異ならない。(2) When both chromas are high, the hues do not differ greatly.
【0020】(3)(1)、(2)を満たす隣接セグメ
ントの中で、その境界部分の長さが一番長いセグメン
ト。(3) Among the adjacent segments satisfying (1) and (2), the segment having the longest boundary portion is the segment.
【0021】もし、類似セグメントが存在しない場合に
は代表セグメントの選択が誤りであるとして、ステップ
102で選択した代表セグメントを照合対象セグメント
から除外し、ステップ102に戻る。類似セグメントが
あれば、ステップ109で、代表セグメントと類似セグ
メントを統合したセグメントを新たに代表セグメントと
し、前記方法で図形データと照合する(図10(e)参
照)。ステップ110で判定2を評価し、判定2を満た
さない場合には類似セグメントの選択エラーとしてステ
ップ114に移行し、代表セグメントを一つ前の状態に
戻し、先に選択した類似セグメントを類似セグメント候
補から除外してステップ107に戻る。判定2を満たす
場合には、ステップ111において、判定1を評価し、
判定1を満たせば、照合に成功したとして図2に示すス
テップ26に進む(図10(f))。そうでなければ、
さらに隣接セグメントの統合を進めるためステップ10
7に戻る。If no similar segment exists, it is determined that the representative segment is incorrectly selected, the representative segment selected in step 102 is excluded from the matching target segments, and the process returns to step 102. If there is a similar segment, in step 109, the segment obtained by integrating the representative segment and the similar segment is newly set as a representative segment and collated with the graphic data by the above method (see FIG. 10 (e)). If the judgment 2 is evaluated in the step 110, and if the judgment 2 is not satisfied, it moves to step 114 as a similar segment selection error, the representative segment is returned to the previous state, and the similar segment selected earlier is selected as the similar segment candidate. And returns to step 107. If the determination 2 is satisfied, the determination 1 is evaluated in step 111,
If the determination 1 is satisfied, it is determined that the collation is successful, and the process proceeds to step 26 shown in FIG. 2 (FIG. 10 (f)). Otherwise,
Step 10 to further integrate adjacent segments
Return to 7.
【0022】以上の処理で個々の家屋毎に正確に位置合
わせを行ない、個々の図形データに対応するセグメント
を抽出することができる。By the above-mentioned processing, it is possible to perform accurate alignment for each house and extract the segment corresponding to each figure data.
【0023】また、ステップ112で記録された自動照
合に失敗した地図データは、後で必要に応じて呼び出
し、従来通りのマニュアル操作で照合を行ない、必要で
あれば、地図情報の更新処理を行なう。Further, the map data recorded in step 112 for which the automatic collation has failed is later recalled as necessary and collated by a conventional manual operation. If necessary, the map information is updated. ..
【0024】次にステップ26を説明する。照合から求
めたセグメントを対象として解析処理を行ない、新たに
地図情報を取得する。例えば、各セグメント毎に画素値
の統計をとってその領域の代表色を求めたり、テクスチ
ャを切り出したりして、図7に示すように、図形データ
の各部分に対応づけて地図情報に格納する。この時、解
析した色やテクスチャを直接記録してもいいし、個々に
求めた照合位置情報を記録しておいて、必要になった時
に画像から適宜抽出することも可能である。Next, step 26 will be described. Analysis processing is performed for the segment obtained from the collation, and new map information is acquired. For example, statistics of pixel values are obtained for each segment to obtain a representative color of the area, or a texture is cut out and stored in the map information in association with each part of the graphic data as shown in FIG. .. At this time, the analyzed color or texture may be directly recorded, or the individually obtained matching position information may be recorded and appropriately extracted from the image when necessary.
【0025】また、別の解析例としては、例えば屋根に
あたる領域が複数のセグメントに分割されている場合、
その分割のしかたから、屋根の形状を推定することが考
えられる。図9のように、予め代表的な屋根の形状の分
割パターンを用意しておき、これと照合することによ
り、屋根の形状を登録する。Further, as another analysis example, for example, when the area corresponding to the roof is divided into a plurality of segments,
It is possible to estimate the shape of the roof from the way of dividing it. As shown in FIG. 9, a division pattern of a typical roof shape is prepared in advance, and the roof shape is registered by collating this pattern.
【0026】また、全ての地図情報との照合が終った後
に残ったセグメントを解析することにより、新たに建物
を抽出したり、色彩情報から森林や水辺などの領域を抽
出することなども可能である。Further, by analyzing the segment remaining after the collation with all the map information is completed, it is possible to newly extract a building or extract a region such as a forest or a waterside from the color information. is there.
【0027】これらの景観情報の応用例として図8に示
すように、地図から作成した地図情報だけでは、ただ積
木を並べただけの景観表示しかできなかったのが、個々
の地図データ毎にそれ自身の色やテクスチャや形状を持
たせて景観表示を行なうことなどが考えられる。As shown in FIG. 8 as an application example of these landscape information, only the map information created from the map could only display the landscape by arranging blocks. It is conceivable to display the landscape with its own color, texture and shape.
【0028】また、本実施例ではステップ24の画像処
理に領域分割を行なっているが、対象とする画像に応じ
て、エッジを抽出して、エッジと図形データとを照合す
るなどの変形も可能である。Further, in the present embodiment, the area division is performed in the image processing of step 24. However, it is possible to change the edge extraction according to the target image and the comparison between the edge and the graphic data. Is.
【0029】次に、別の実施例として、地図を入力した
場合を説明する。Next, as another embodiment, the case of inputting a map will be described.
【0030】ステップ21、22では、航空写真の場合
と同様にしてスキャナーで画像メモリに入力し、ステッ
プ23で3組以上の基準点を求め、アフィン変換式のパ
ラメータを求める。ステップ24で従来公知のラスター
ベクタ変換を実行し、線、閉図形、文字などを抽出す
る。ステップ25では地図情報との照合を行なうが、航
空写真の場合と異なり、隣接領域を統合するという処理
は必要ないのでステップ101〜106だけが実行され
る。図12を例に、抽出したベクトル図形a〜dと地図
情報の家屋図形e〜iとの照合を説明する。まずステッ
プ101で照合対象領域j〜nをそれぞれ決定し、それ
ぞれ代表図形を選択する。ステップ104で図形どおし
の照合を行ない、ステップ105,106の判定基準で
判定を行ない、自動判定できるものは自動更新し、照合
できなかった地図データは後で目視確認の上で更新処理
を行なう。図12では地図情報の家屋図形h,iに経年
変化があったことがわかり、地図情報がdに変更され
る。In steps 21 and 22, the scanner is used to input into the image memory in the same manner as in the case of aerial photography, and in step 23, three or more sets of reference points are obtained, and the parameters of the affine transformation formula are obtained. In step 24, conventionally known raster vector conversion is executed to extract lines, closed figures, characters and the like. In step 25, the comparison with the map information is performed, but unlike the case of the aerial photograph, the process of integrating the adjacent regions is not necessary, so only steps 101 to 106 are executed. Referring to FIG. 12 as an example, the collation between the extracted vector graphics a to d and the house graphics e to i of the map information will be described. First, in step 101, the matching target areas j to n are determined, and the respective representative figures are selected. In step 104, the figures are compared with each other, the determination criteria of steps 105 and 106 are used, and those that can be automatically determined are automatically updated, and the map data that cannot be compared is updated after visual confirmation. To do. In FIG. 12, it can be seen that the house figures h and i in the map information have changed over time, and the map information is changed to d.
【0031】また、地下埋設管図面などを入力する場合
であれば、ステップ25では、地図情報の道路図形と図
面から抽出したベクトル図形を照合し、ステップ26で
は、照合した道路ベクトルに包含されるベクトルを抽出
し、地下埋設管図形データとして地図情報に格納する。
また、色やパターンによって、地域属性を分類する地図
を入力する場合であれば、ステップ24では色やパター
ン毎に分割し、ステップ25では、土地利用図形毎に抽
出したセグメントとの重なり具合を求め、その割合を登
録する。または、照合を省いて、新たにその領域図形と
その属性を地図情報に登録する。In the case of inputting an underground buried pipe drawing or the like, in step 25, the road figure of the map information is collated with the vector figure extracted from the drawing, and in step 26, it is included in the collated road vector. Vectors are extracted and stored in the map information as underground buried pipe figure data.
If a map for classifying the regional attributes by color or pattern is input, the map is divided for each color or pattern in step 24, and in step 25, the degree of overlap with the segment extracted for each land use figure is obtained. , Register the percentage. Alternatively, the collation is omitted and the area graphic and its attribute are newly registered in the map information.
【0032】以上述べたように、本実施例では予め登録
された地図情報を基に、さまざまな地図や景観画像を入
力することにより、地図情報を更新し、新たな地図情報
を獲得することが可能となる。As described above, in this embodiment, by inputting various maps and landscape images based on the map information registered in advance, the map information can be updated and new map information can be acquired. It will be possible.
【0033】[0033]
【発明の効果】以上説明したように本発明によれば、地
図情報を利用することにより地図や景観画像から自動的
に地図情報を抽出し、経年変化や景観情報を地図情報に
追加したり更新したりすることができるという効果が得
られる。As described above, according to the present invention, map information is automatically extracted from a map or a landscape image by using the map information, and secular change or landscape information is added or updated to the map information. The effect of being able to do is obtained.
【図1】本発明による地図情報照合更新方式が適用され
るシステムの一実施例を示す構成図である。FIG. 1 is a configuration diagram showing an embodiment of a system to which a map information collation updating method according to the present invention is applied.
【図2】本実施例の動作を示すフローチャートである。FIG. 2 is a flowchart showing the operation of this embodiment.
【図3】領域分割の説明図である。FIG. 3 is an explanatory diagram of area division.
【図4】地図情報と画像処理結果との照合動作を示すフ
ローチャートの第1の分図である。FIG. 4 is a first partial diagram of a flowchart showing a collating operation of map information and an image processing result.
【図5】地図情報と画像処理結果との照合動作を示すフ
ローチャートの第2の分図である。FIG. 5 is a second partial diagram of the flowchart showing the matching operation between the map information and the image processing result.
【図6】地図と画像の位置合わせを示す説明図である。FIG. 6 is an explanatory diagram showing alignment between a map and an image.
【図7】地図情報と画像処理結果との照合結果から家屋
の各部位の情報を解析する際の説明図である。FIG. 7 is an explanatory diagram when analyzing the information of each part of the house from the collation result of the map information and the image processing result.
【図8】本発明方式における位置応用例を示す図であ
る。FIG. 8 is a diagram showing a position application example in the system of the present invention.
【図9】屋根の形状による分割結果の辞書例を示す図で
ある。FIG. 9 is a diagram showing an example of a dictionary of division results according to roof shapes.
【図10】航空写真の照合処理を示す説明図である。FIG. 10 is an explanatory diagram showing a matching process of an aerial photograph.
【図11】照合結果の判定基準を示す説明図である。FIG. 11 is an explanatory diagram showing criteria for determining a matching result.
【図12】地図を対象としたときの照合処理を示す説明
図である。FIG. 12 is an explanatory diagram showing a matching process when a map is targeted.
1 画像入力装置 2 画像メモリ 3 磁気ディスク 4 処理プロセッサ 1 image input device 2 image memory 3 magnetic disk 4 processor
Claims (4)
れた地図画像と照合して地図情報を更新する地図情報照
合更新方式において、 前記新たな地図画像と前記登録された地図画像とを位置
合せする手段と、前記新たな地図画像、及び前記登録さ
れた地図画像から特徴領域を抽出する手段と、該特徴領
域と前記各地図画像とを照合する照合手段と、この照合
結果に基づいて前記登録された地図画像を更新する手段
と、を有することを特徴とする地図情報照合更新方式。1. A map information collating and updating method for collating a newly obtained map image with a previously registered map image to update map information, wherein the new map image and the registered map image are Positioning means, means for extracting a characteristic region from the new map image and the registered map image, collating means for collating the characteristic region with each map image, and based on the collation result Means for updating the registered map image, and a map information collating and updating method.
画像については特定の色彩情報を持つ領域を抽出する請
求項1記載の地図情報照合更新方式。2. The map information collation updating method according to claim 1, wherein the means for extracting the characteristic region extracts, for a color image, a region having specific color information.
れた部分領域の中から照合候補を選択する手段と、照合
候補と地図情報との照合を判定する手段と、判定基準を
満たすまで照合候補と隣接部分領域とを統合するために
隣接部分領域から統合領域を選択する手段とを有する請
求項1記載の地図情報照合更新方式。3. The matching means selects a matching candidate from partial areas extracted by image processing, means for judging matching between the matching candidate and map information, and matching candidates until a judgment criterion is satisfied. The map information collation updating method according to claim 1, further comprising means for selecting an integrated area from the adjacent partial areas to integrate the adjacent area and the adjacent partial areas.
接部分領域の中から、同一領域としての条件を満たす部
分領域であり、かつ最も隣接画素数の多い部分領域を統
合する領域として選択する請求項3記載の地図情報照合
更新方式。4. The unit for selecting the integrated area selects, from the adjacent partial areas, a partial area that satisfies the condition of the same area and has the largest number of adjacent pixels as an area to be integrated. The map information collation updating method according to claim 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34747391A JPH05181411A (en) | 1991-12-27 | 1991-12-27 | Map information collation and update system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34747391A JPH05181411A (en) | 1991-12-27 | 1991-12-27 | Map information collation and update system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05181411A true JPH05181411A (en) | 1993-07-23 |
Family
ID=18390463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34747391A Pending JPH05181411A (en) | 1991-12-27 | 1991-12-27 | Map information collation and update system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05181411A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08262974A (en) * | 1995-03-27 | 1996-10-11 | Nippon Steel Corp | House recognition method in map input system |
JPH0961164A (en) * | 1995-08-21 | 1997-03-07 | Asia Air Photo Kk | Change discrimination support system for land use state and house shape |
US5864632A (en) * | 1995-10-05 | 1999-01-26 | Hitachi, Ltd. | Map editing device for assisting updating of a three-dimensional digital map |
JPH11328378A (en) * | 1998-05-13 | 1999-11-30 | Hitachi Ltd | Map information updating method and apparatus |
EP1205879A2 (en) * | 2000-11-09 | 2002-05-15 | Hitachi Software Engineering Co., Ltd. | Variation detection in ground objects between a line drawing and a picked up image |
US6470265B1 (en) | 1997-12-25 | 2002-10-22 | Toyota Jidosha Kabushiki Kaisha | Method and apparatus for processing digital map data |
JP2005339127A (en) * | 2004-05-26 | 2005-12-08 | Olympus Corp | Apparatus and method for displaying image information |
JP2006065429A (en) * | 2004-08-25 | 2006-03-09 | Hitachi Software Eng Co Ltd | Device and method for extracting change of photographic image |
JP2008203991A (en) * | 2007-02-16 | 2008-09-04 | Mitsubishi Electric Corp | Image processing device |
EP1998139A1 (en) * | 2006-03-17 | 2008-12-03 | PASCO Corporation | Building shape change detecting method, and building shape change detecting system |
JP2009237397A (en) * | 2008-03-28 | 2009-10-15 | Geo Technical Laboratory Co Ltd | Feature extraction device |
JP2012048523A (en) * | 2010-08-27 | 2012-03-08 | Toshiba Corp | Association device |
JP2015079296A (en) * | 2013-10-15 | 2015-04-23 | 株式会社パスコ | Radar image interpretation support device and radar image interpretation support method |
KR101578822B1 (en) * | 2015-07-28 | 2015-12-21 | (주)동광지엔티 | Recovering apparatus using the coordinated aerial oblique image for 3d-texture on the 2d-image |
US11408740B2 (en) | 2016-05-30 | 2022-08-09 | Mitsubishi Electric Corporation | Map data update apparatus, map data update method, and computer readable medium |
-
1991
- 1991-12-27 JP JP34747391A patent/JPH05181411A/en active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08262974A (en) * | 1995-03-27 | 1996-10-11 | Nippon Steel Corp | House recognition method in map input system |
JPH0961164A (en) * | 1995-08-21 | 1997-03-07 | Asia Air Photo Kk | Change discrimination support system for land use state and house shape |
US5864632A (en) * | 1995-10-05 | 1999-01-26 | Hitachi, Ltd. | Map editing device for assisting updating of a three-dimensional digital map |
CN1104702C (en) * | 1995-10-05 | 2003-04-02 | 株式会社日立制作所 | Map editing device |
US6470265B1 (en) | 1997-12-25 | 2002-10-22 | Toyota Jidosha Kabushiki Kaisha | Method and apparatus for processing digital map data |
JPH11328378A (en) * | 1998-05-13 | 1999-11-30 | Hitachi Ltd | Map information updating method and apparatus |
EP1205879A2 (en) * | 2000-11-09 | 2002-05-15 | Hitachi Software Engineering Co., Ltd. | Variation detection in ground objects between a line drawing and a picked up image |
EP1205879A3 (en) * | 2000-11-09 | 2003-04-16 | Hitachi Software Engineering Co., Ltd. | Variation detection in ground objects between a line drawing and a picked up image |
JP2005339127A (en) * | 2004-05-26 | 2005-12-08 | Olympus Corp | Apparatus and method for displaying image information |
JP2006065429A (en) * | 2004-08-25 | 2006-03-09 | Hitachi Software Eng Co Ltd | Device and method for extracting change of photographic image |
EP1998139A1 (en) * | 2006-03-17 | 2008-12-03 | PASCO Corporation | Building shape change detecting method, and building shape change detecting system |
EP1998139A4 (en) * | 2006-03-17 | 2010-10-20 | Pasco Corp | Building shape change detecting method, and building shape change detecting system |
US8259993B2 (en) | 2006-03-17 | 2012-09-04 | Pasco Corporation | Building shape change detecting method, and building shape change detecting system |
JP2008203991A (en) * | 2007-02-16 | 2008-09-04 | Mitsubishi Electric Corp | Image processing device |
JP2009237397A (en) * | 2008-03-28 | 2009-10-15 | Geo Technical Laboratory Co Ltd | Feature extraction device |
JP2012048523A (en) * | 2010-08-27 | 2012-03-08 | Toshiba Corp | Association device |
JP2015079296A (en) * | 2013-10-15 | 2015-04-23 | 株式会社パスコ | Radar image interpretation support device and radar image interpretation support method |
KR101578822B1 (en) * | 2015-07-28 | 2015-12-21 | (주)동광지엔티 | Recovering apparatus using the coordinated aerial oblique image for 3d-texture on the 2d-image |
US11408740B2 (en) | 2016-05-30 | 2022-08-09 | Mitsubishi Electric Corporation | Map data update apparatus, map data update method, and computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11682197B2 (en) | Computer vision systems and methods for geospatial property feature detection and extraction from digital images | |
CN111914834B (en) | Image recognition method, device, computer equipment and storage medium | |
CN100349185C (en) | Map generation device, map delivery method, and map generation program | |
JP4380838B2 (en) | Video image automatic road sign recognition method, road sign automatic recognition device, and road sign automatic recognition program | |
US20020061132A1 (en) | Stereo image processing apparatus and method of processing stereo image | |
JPH05181411A (en) | Map information collation and update system | |
JP4521235B2 (en) | Apparatus and method for extracting change of photographed image | |
KR102204040B1 (en) | Image processing system for unifying collecting images by altitude | |
KR102204043B1 (en) | System for automatic satellite image processing for improving image accuracy by position correcting of geographic feature | |
CN115937708A (en) | A method and device for automatic identification of roof information based on high-definition satellite images | |
JP2004198530A (en) | Map update system, map update method, and computer program | |
JP2009217832A (en) | Method and device for automatically recognizing road sign in video image, and storage medium which stores program of road sign automatic recognition | |
JP4103898B2 (en) | Map information updating method and map updating apparatus | |
KR102204046B1 (en) | Correcting system restoring dead zone on the image | |
JP4088386B2 (en) | How to update map information | |
KR102204041B1 (en) | System for correcting the error able to modify boundary line for mapping | |
JPH08287258A (en) | Color image recognition device | |
JP3437671B2 (en) | Landmark recognition device and landmark recognition method | |
JPH10269347A (en) | Method for eliminating shade shadow element on geographic image, geographic image processor and recording medium | |
JP2009176163A (en) | Section data creation system | |
JP4639044B2 (en) | Contour shape extraction device | |
JP2000310940A5 (en) | ||
US5568566A (en) | Drawing processing apparatus | |
JP3576759B2 (en) | Image processing device | |
JPH07146937A (en) | Pattern matching method |