[go: up one dir, main page]

JP3645404B2 - Method and apparatus for recognizing door from architectural drawing - Google Patents

Method and apparatus for recognizing door from architectural drawing Download PDF

Info

Publication number
JP3645404B2
JP3645404B2 JP26580697A JP26580697A JP3645404B2 JP 3645404 B2 JP3645404 B2 JP 3645404B2 JP 26580697 A JP26580697 A JP 26580697A JP 26580697 A JP26580697 A JP 26580697A JP 3645404 B2 JP3645404 B2 JP 3645404B2
Authority
JP
Japan
Prior art keywords
wall
door
image
image data
architectural drawing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26580697A
Other languages
Japanese (ja)
Other versions
JPH11110548A (en
Inventor
典明 浦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP26580697A priority Critical patent/JP3645404B2/en
Publication of JPH11110548A publication Critical patent/JPH11110548A/en
Application granted granted Critical
Publication of JP3645404B2 publication Critical patent/JP3645404B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、建設業界で広く使用されている個建て家屋,アパート,マンション,旅館,ホテル,店舗,オフィスビル等の家屋の建築図面中の「ドア(開き戸,開き窓)」の認識方法及びその認識装置に関する。
【0002】
【従来の技術】
近年、CADシステム等を用いて、家屋やビル等の建築図面を容易に作成したり、そのデータを記憶させておいて設計変更や増改築等の際に利用することは行なわれている。しかし、その建築図面のデータには、作成したシステムにより互換性がなく、期間の経過や業者の変更により利用できなくなる。
また、家屋の増改築等を行なう場合には、紙に描かれた古い建築図面しかない場合が多く、増改築用の図面を、変更しない部分も含めて全て描きなおさなければならなかった。
【0003】
そこで、紙に描かれた建築図面を読み取って、コンピュータで処理できるデータとして認識して記憶させることも試みられているが、そのための特別な方法や装置はなく、建築図面をイメージスキャナで読み取り、そのイメージ画像データをパーソナルコンピュータ等に入力させて、一般の図形認識機能を利用して線分認識やパターン認識を行なっている。
【0004】
あるいはさらに、高機能の図形エディタを補助に使うことによって図形認識機能をレベルアップし、自動認識機能が多少不完全な場合でも、例えばラスタ・ベクタ変換することにより直線や円弧等の基本線図を自動認識できるようにしたものもある。
【0005】
【発明が解決しようとする課題】
しかしながら、このような従来の図面認識装置は、高度の操作知識等を必要とし、パソコンなどを使い慣れている人や専門のオペレータに利用が限定され、建築図面を頻繁に使用する業界関係者にとって、決して使い勝手のよいものであるとはいえなかった。
【0006】
また、直線や円弧等の基本線図は自動認識することができるが、基本線図の組み合わせ等からなる建築図面特有の図形シンボル(例えば、壁や柱等)を個別に認識をすることはできなかった。そのため、認識した図面を修正する際には線分毎に行なわなければならず、多くの手間を要していた。
【0007】
さらに、建設業において使用される家屋やビル等の建築図面は、その図面上の各線分が人間の目には同じ大きさの連続線として見えても、厳密に見れば太さも一様でなく、軌跡もゆらいでいる。また、連続線のはずであっても所々切れている場合もある。これらの不完全さは作図時のみならず、用紙の経年変化や読み取り時の誤差などからも生じるものである。そのため、例えば線分として認識できる太さの限界があまり細いと、わずかなかすれでも線分が切れていると認識してしまう。また太めの線分を長方形のように認識してしまうこともある。
【0008】
これは、原図の品質は勿論であるが、感光紙を使用したいわゆる青焼き図面のようにコントラストが低い(黒と白の境界がはっきりしない)図面が多く、さらにその青焼きの特徴である細かな点が表面に現れるため、従来の図面認識装置では精度の高い自動認識をすることは困難であり、その修正に多くの手間を要するので殆ど実用にならなかった。
【0009】
ところで、家屋の建築図面では間取りを仕切る壁が図面の中心的役割を果たし、図面中のどの部分が壁であるかを認識することによって、建築図面のおおよその間取りを理解することができる。従って、図面中の壁の位置及びその長さを認識することは、建設図面を認識する上で最も重要な事項である。
【0010】
また、この建築図面の中から、ドア(開き戸,開き窓)を認識するには、家屋の外壁及び家屋内の仕切り壁に接して半径が単位長以下における90°扇型(円を4分割)の4パターンの形状記述によって判断することが多い。
従って、青焼きなどの建築図面からドアを認識するとき、図面中の壁の位置情報により、それに接する単位長の矩形エリアの中からドアに該当するものを認識するという、「壁」認識と「ドア」認識の連携が、確実にできるか否かが重要な鍵になる。
【0011】
しかし、従来の図面の中からのドア認識では、次のような問題があった。
(1)輪郭線追跡方法では、カスレや凹凸が多いと途切れた直線として認識され、あるいは2本や3本に分かれた直線として認識されてしまって正確に認識できなかった。
(2)黒ドットの度数分布から求める射影特徴抽出方法では、線が細いと水平及び垂直方向の直線を見つけ出すとき、線が少しでも傾いていると特徴抽出ができなくなってしまい、直線らしい線の認識ができなくなっていた。
上記のような理由で、「ドア」認識処理途中の「90°扇型」が認識できなかった。
【0012】
この発明は上記の点に鑑みてなされたものであり、青焼きや手書きにより線が途切れたり多少傾いた直線で紙に描かれた建築図面でも、それを読み取ったイメージ画像データ、あるいはそのランレングスを符号化した符号化画像データから、ドア(開き戸,開き窓)を精度よく自動認識できるようにすることを目的とする。
【0013】
【課題を解決するための手段】
この発明は上記の目的を達成するため、次のような建築図面からドアを認識する方法及びドアを認識する装置を提供する。
【0014】
この発明による建築図面からドアを認識する方法は、建築図面の画像を読み取ったイメージ画像データの黒又は白ドットからなる領域内を、家屋の外壁及び家屋内の仕切りとしての壁の位置情報を基準としてその両側の単位長矩形領域に限定し、その限定した各矩形領域内のイメージ画像データの中で前記壁に垂直な方向に連続する黒又は白ドット数を計測して連続ドット数計測配列データをそれぞれ作成し、その作成した連続ドット数計測配列データに基づいてドア半径候補を抽出し、その各ドア半径候補の両側の単位長範囲内での円弧画像の有無を判定して、その円弧画像の位置および前記ドア半径候補の長さによって該ドアの形状及び種類を認識する。
【0015】
この建築図面からドアを認識する方法において、建築図面の画像を読み取ったイメージ画像データの水平及び垂直方向の黒又は白ドット数を計測して水平方向及び垂直方向のドット数計測配列データを作成し、その作成した両方向のドット数計測配列データに基づいて建築図面の上記壁の位置情報を認識することができる。
【0016】
また、この発明による建築図面からドアを認識する装置は、建築図面の画像を読み取ったイメージ画像データを入力する画像データ入力手段と、該手段によって入力したイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平方向及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成手段と、該手段により作成された各ドット数計測配列データに基づいて家屋の外壁及び家屋内の仕切りとしての壁の位置情報を認識する輪郭・骨格認識手段とを備えている。
【0017】
さらに、その輪郭・骨格認識手段によって認識された壁の位置情報を基準として、上記イメージ画像データの黒又は白ドットからなる領域内を、上記壁の両側の単位長矩形領域に限定し、その限定した各矩形領域内のイメージ画像データの中で壁に垂直な方向に連続する黒又は白ドット数を計測して連続ドット数計測配列データをそれぞれ作成し、その作成した連続ドット数計測配列データに基づいてドア半径候補を抽出し、その各ドア半径候補の両側の単位長範囲内での円弧画像の有無を判定して、その円弧画像の位置および前記ドア半径候補の長さによって該ドアの形状及び種類を認識するドア認識手段とを設けたものである。
【0018】
上記画像データ入力手段は、建築図面の画像を読み取ってそのイメージ画像データを入力する画像読取手段であればよい。
【0019】
あるいは、上記画像データ入力手段は、建築図面の画像を読み取ったイメージ画像データのランレングスを符号化した符号化画像データを入力する画像データ入力手段であってもよく、その場合には、上記ドット数計測配列データ作成手段は、その画像データ入力手段によって入力した符号化画像データから元のイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平方向及び垂直方向のドット数計測配列データを作成する手段であればよい。
【0020】
この場合、上記画像データ入力手段は、上記符号化画像データを通信により受信して入力する画像データ受信手段であるとよい。
さらに、これらの建築図面からドアを認識する装置において、上記ドア認識手段による認識結果を表示する表示手段を設けるとよい。
その表示手段は、上記ドア認識手段による認識結果を上記画像データ入力手段により入力したイメージ画像データと重ね合わせて表示することができる。
【0021】
【発明の実施の形態】
以下、この発明の実施形態を図面に基づいて具体的に説明する。
図1は、この発明による建築図面からドア(開き戸,開き窓)を認識する方法を実施する建築図面認識装置(建築図面からドアを認識する装置を含む)の一例の概略構成を示すブロック図であり、ハード構成とマイクロコンピュータによるソフト処理の機能とを混在して示している。
【0022】
この装置は、全体制御部1,画像読取部2,通信制御部3,メモリ4,自動スキュー補正部5,ドット数計測配列データ作成部6,輪郭・骨格認識部7,再マッピング制御部8,表示部9,操作入力部10,外部記憶装置11,印刷装置12,ドア認識部13,及びこれらを接続するバス14などから構成される。
なお、これらの各部(又は装置)とバス14との間に必要なインタフェース部は図示を省略している。
【0023】
全体制御部1は、この建築図面認識装置全体の動作及び機能を制御するマイクロコンピュータ(CPU,ROM,RAM等から構成されるが代表して「CPU」と略称する)であり、自動スキュー補正部5並びにこの発明に係るドット数計測配列データ作成部6,輪郭・骨格認識部7,再マッピング制御部8,及びドア認識部13の各機能も、そのCPUのソフト処理によって実現できる。
【0024】
画像読取部2は、セットされた建築図面をスキャンしてその画像を読み取ってイメージ画像データを入力する画像データ入力手段であり、スキャン光学系及びCCDなどのイメージセンサとその駆動回路等からなる公知のイメージスキャナである。また、その読み取ったイメージ画像データを所定の解像度で2値化して白ドットと黒ドットの画像データにする回路も含んでいる。
【0025】
通信制御部3は、画像読取部2から画像データを取り込む代りに、外部から通信によりイメージ画像データ又はそのランレングスが符号化された符号化画像データを受信して入力する画像データ受信手段であると共に、この装置によって認識した建築図面のデータを外部装置へ送信することもできる。具体的にはFAXモデムやパソコン通信制御手段を含むものである。
【0026】
メモリ4は、画像読取部2によって読み取ったイメージ画像データ、通信制御部3によって受信したイメージ画像データ又は符号化画像データをはじめ、自動スキュー補正部5によってスキュー補正された画像データ、ドット数計測配列データ作成部6によって作成されたドット数計測配列データ、輪郭・骨格認識部7によって認識された輪郭及び骨格の認識結果、ドア認識部13によって認識されたドアの形状や種類のデータ、及び再マッピング制御部8によって再マッピングされた画像データ等を格納する大容量のRAMあるいはハードディスク等によるメモリである。
【0027】
自動スキュー補正部5は、メモリ4に格納した画像データの角度を調整して水平及び垂直の線分方向を装置の水平及び垂直の基準方向と一致させるように補正するためのものであり、公知の自動スキュー補正技術を用いることができる。
なお、この自動スキュー補正部5により修正された画像データは、再びメモリ4に格納される。
【0028】
ドット数計測配列データ作成部6は、自動スキュー補正がなされてメモリ4に格納されたイメージ画像データ又は符号化画像データ、及び後述する再マッピング制御部8によって再マッピングされた画像データに対して、その画像データを水平及び垂直方向の2方向に限定して、それぞれドット幅単位に黒又は白ドット数を計測(カウント)し、その結果により水平及び垂直方向のドット数計測配列データ(ヒストグラム)を作成してメモリ4に格納するドット数計測配列データ作成手段である。
【0029】
なお、読み取った建設図面がポジ図面(地の明度より図の明度が低い図面)の場合には黒ドット数を計測し、ネガ図面(地の明度より図の明度が高い図面)の場合には白ドット数を計測する。
【0030】
輪郭・骨格認識部7は、ドット数計測配列データ作成部6によって作成された水平及び垂直方向のドット数計測配列データに基づいて、建築図面の輪郭及び骨格を認識し、特に家屋の外壁及び家屋内の仕切りである壁の位置,長さ,厚さ,種類等の情報を抽出するための輪郭・骨格認識手段であり、その詳細は後で詳述する。
【0031】
なお、参照したドット数計測配列データでは、壁の認識(抽出)が困難あるいは不確実な場合は、図面の水平及び垂直方向のドット数計測配列データ作成範囲の再設定要求を全体制御部1へ送り、作成範囲を変更設定してドット数計測配列データ作成部6に再度ドット数計測配列データを作成させる。
【0032】
再マッピング制御部8は、輪郭・骨格認識部7により、壁と認識された部分により建築図面の範囲を限定して、その部分を他の認識情報をも考慮した上で、再度マッピングし、その限定した範囲毎にドット数計測配列データ作成部6に再度ドット数計測配列データを作成させるための画像データを作成するものであり、その際に原稿のノイズあるいは画像読取部2での読取ノイズも除去した画像データを作成する。このデータもメモリ4に格納される。
【0033】
ドア認識部13は、輪郭・骨格認識部7で認識された水平ならびに垂直な壁の位置情報(認識処理結果)を基に、水平及び垂直の両方向に単位長矩形領域(エリア)を抽出し、その中からドア(開き戸,開き窓)を認識するための処理を行なう。その詳細は後で説明する。
【0034】
表示部9は、画像読取部2又は通信制御部3から入力し、自動スキュー補正部5によってスキュー補正された建設図面の画像データ、ドット数計測配列データ作成部6で作成された水平及び垂直方向の黒又は白のドット数計測配列データ、輪郭・骨格認識部7によって認識された壁データ、ドア認識部13によって認識されたドアのドアデータ、再マッピング制御部8によって再マッピングされた画像データ等を表示するためのものであり、例えば、CRTや液晶ディスプレイ等である。
【0035】
図2,図3は、表示部9の画面9aの表示状態の例を示すものであり、図2は輪郭・骨格認識部7によって認識された建築図面の輪郭及び骨格(壁)のデータを再マッピング制御部8によって再マッピングした画像データ(認識結果)の表示例である。この表示例において、二重の実線は壁の両面を示し、細線は壁の芯線及びその延長線を示している。
【0036】
図3は、自動スキュー補正部5によってスキュー補正された建築図面の画像データ(入力したイメージ画像データ)と、上記再マッピングされた認識結果である壁の画像データ及びドアの画像データとを同時に重ね合わせて表示した例を示す。この場合、両者の識別が容易にできるように、スキュー補正された建築図面のイメージ画像データはハーフトーンで表示し(図3では図示の都合上点描で示している)、認識結果である壁及びドアの画像データを実線で表示する。
【0037】
また、表示部9がカラーの表示装置である場合には、両画像の色を変えて表示することにより、識別性を向上させることができる。例えば、スキュー補正された入力イメージ画像データは薄青色で、認識結果の画像データをオレンジ色あるいは緑色等で表示することにより、操作者は認識結果の部分を容易に識別できる。
【0038】
あるいは、表示部9の画面9aを分割して、スキュー補正された入力イメージ画像データと認識結果の画像データをその分割したそれぞれの画面に対比させて表示することもできる。
または、同一の画面上にスキュー補正された入力イメージ画像データと再マッピングされた認識結果の画像データを選択的に表示できるようにしてもよい。その場合には後述する操作入力部10に表示選定手段(キー等)を設ければよい。
【0039】
さらに、この表示部9は、認識結果を操作者が確認するための画面も表示する。すなわち、上記再マッピングされた認識結果の画像データを表示し、「この認識結果でよろしいですか?(YES/NO)」というような表示を行なう。これにより、壁及びドアの認識が正確にできているかどうかを操作者が確認することができる。
【0040】
操作入力部10は、各種操作指示や機能選択指令、編集データ等を入力するためのものであり、キーボードやマウスあるいはタッチパネル等である。
この操作入力部10は、表示選定手段としての機能も有し、表示部9の表示状態を操作者の所望の表示状態に変更することができる。例えばキー操作により、スキュー補正された建築図面の入力画像データと再マッピングされた認識結果の画像データを重ね合わせて表示させたり、どちらか一方のみを選択して表示させたりすることができる。
【0041】
さらに、操作入力部10は、上記「この認識結果でよろしいですか?(YES/NO)」の表示に対し、「YES」または「NO」の情報を入力するためのキー等の入力手段も有する。そして、「YES」が選択された場合は認識処理を終了し、「NO」が選択された場合は再認識処理あるいは訂正処理に移行する。これにより、操作者は認識結果の内容を確認し、それを確定することができる。
【0042】
外部記憶装置11は、入力した画像データや、ドット数計測配列データ作成部6で作成された黒ドット数計測配列データ、輪郭・骨格認識部7によって認識された壁データ及びドアデータ、再マッピング制御部8によって再マッピングされた認識結果の画像データ等をフロッピディスク(FD)や光磁気ディスク(OMD)等の外部へ取り出し可能な記憶媒体に記憶させる記憶装置である。
印刷装置12は、上記の各種データを紙に印刷あるいは描画して出力するプリンタあるいはプロッタである。
【0043】
ここで、建築図面における「輪郭」と「骨格」及び「外壁」と「内壁」の定義について、表1及び表2と図4によって説明する。
【0044】
【表1】

Figure 0003645404
【0045】
【表2】
Figure 0003645404
【0046】
「輪郭」とは「外輪郭」のことであり、表1に○印で示すように外周壁の外部に面している箇所のみ(図4の(a)に示す二重線の外側の線の部分)を意味するケース1の場合と、外部に接する壁の全体(図4の(b)に太線で示す部分)を意味するケース2,3の場合とがある。
【0047】
「骨格」とは、壁の総て(図4の(b)(c)に太線で示す部分の両方)を意味するケース1,2の場合と、外輪郭を除く壁(図4の(c)に太線で示す家屋内の仕切り部分のみ)を意味するケース3の場合とがある。これらの定義において、特に断わらない場合はケース1の通常の意味として扱われる。
【0048】
「外壁」とは表2に○印で示すように、外輪郭と同じく外周壁の外部に面している箇所のみ(図4の(a)に示す二重線の外側の線で示す部分)を意味するケース4の場合と、外部に接する壁の全体(図4の(b)に太線で示す部分)を意味するケース5の場合とがある。
【0049】
「内壁」とは表2に○印で示すように、ケース4,5とも外壁を除く壁(壁=外壁+内壁)であるが、ケース4の場合は図4の(a)に示す二重線の内側の線の部分と図4の(c)に太線で示す部分であり、ケース5の場合は図4の(c)に太線で示す部分である。これらの定義においても、特に断わらない場合はケース5の通常の意味として扱われる。
【0050】
次に、図1に示した建築図面認識装置による建築図面(主に家屋やビル等の建築図面)認識の手順について、図5乃至図8のフロー図と、図25乃至図30によって説明する。上記図6〜図8において、各ステップを「S」で示している。また、この実施例では、認識する建築図面がポジ図面であるものとする。
【0051】
図5は、建築図面の認識処理のメインルーチンを示すフローチャートである。図5の処理を開始すると、図1の画像読取部2にセットされた建築図面を読み取り、そのイメージ画像データを入力して、自動スキュー補正部5によって自動的にそのスキューを補正する。
【0052】
そして、ステップAのサブルーチンでドット数計測配列データ作成部6及び輪郭・骨格認識部7等によりその入力した画像データに対して壁の認識処理を実行する。この処理については後に詳述する。なお、イメージ画像データを符号化したデータを通信制御部3から入力するようにしてもよい。
【0053】
その後、ドア認識部13により、ステップBとCの処理で、水平壁から垂直壁へと順に個々の壁位置情報抽出を行なって、ステップD〜ステップKの処理へ移行する。そして、ステップBで壁の位置情報の抽出を終了すると、当該図面の解析を終了してステップLに移行し、ドア認識結果を出力して処理を終了する。
ステップCにおいても、それぞれの種類の壁(水平壁と垂直壁)を全てチェックし終わった(壁数エンド)後に、ステップBへ戻る。
【0054】
ステップDでは、壁の位置情報である壁座標を基準にして認識範囲となる水平・垂直の両方向に単位長(91cm=半間又は100cm=1メートルに相当する縮尺寸法)の矩形エリア(領域)を壁の両側に設定する。
ステップEでは、その対象エリア(指定された矩形エリア)の壁座標を基準とした連続する黒ドット数計測配列データを作成する。ここでの連続する黒ドット数とは、壁を基準とした黒ドットの連続性であるが、カスレなどを考慮しある程度のドットぬけを包括する条件付けをする必要がある。
【0055】
そして、ステップFでは、その黒ドット数計測配列データを順にチェックし、ドア半径候補としての許容範囲(例えば、単位長の1/4以上)に入っているときのみ、ステップGに移行する。また、上記配列データの終了によって、次の壁データの抽出を行なうステップCへ移行する。
【0056】
ステップGでは、ドア(開き戸,開き窓)の表現方法のチェックを行なって、形状抽出処理を行なう。そのドア半径候補(戸板部)の先端には、90°扇型の円弧部分の立ち上がりが存在する。それを計測して半径と仮定し、対応するもう一方の円弧部分の立ち上がりを解析して、この90°扇型の中心点/半径/ドア方向によるドア形状データを抽出する。
【0057】
そして、ステップHでは、ドア形状抽出ができたか否かを判断し、できた場合はステップIへ、できなかった場合次のドア半径候補抽出のためにステップFへ戻る。
ステップIでは、ドア形状抽出データに基づいて、ドア認識候補の形状解析処理を行なう。つまり、ステップGよりの中心点/半径/ドア方向のドア形状データによって、扇型の円弧部分のドット検索による形状解析を行なう。
【0058】
全てのドアの表現方法を、この建築図面認識方法及び認識装置によって、完全に自動的に認識できるわけではなく、当認識装置の使用者次のいずれかを予め指定するものである。
【0059】
ドアの表現方法には、主に以下の三つがある。
▲1▼形状輪郭で片方向に90°扇型のもの
:図28の(a)〜(d)に示すような平面表示のもの
▲2▼形状輪郭で両方向に90°扇型があるもの
:図29の(a),(b)に示すような平面表示のもの
▲3▼形状輪郭で壁の中に戸板部分が包括されているもの
:図30の(a),(b)に示すような平面表示のもの
【0060】
そして、ステップJでは、ドアの形状解析の結果がこれらのいずれかに該当する(OK)か否かを判断し、OKであればステップKへ、OKでなければ(NGであれば)次のドア半径候補抽出のためステップFへ戻る。
ステップKでは、上記、中心点/半径/ドア方向のドア形状データを「ドア」情報として認識し、その認識結果の情報を格納した後、ステップFへ戻る。
【0061】
以上のステップD〜ステップKまでの処理を行なって認識した結果を、ステップLによって出力して終了する。ステップLによる処理では、図27に示した画像データのドアの位置及びサイズ(図中に三角形で示している)を建築図面からのドアの認識結果としてメモリ4又は外部記憶装置11に記憶、あるいは表示部9に表示する等の出力をする。
【0062】
図25は、壁の芯線を認識し、その結果から壁情報を抽出する処理に使用した入力サンプル元図面(イメージ画像)を、表示部9で再マッピングさせた画像データの表示例である。
図26は、ドア認識の基準となる壁情報を表示した例を示す図である。
図27は、その認識結果のドアを三角形で表示した例を示す図である。
【0063】
ここで、上述したドア認識処理について、図31から図33を用いてさらに具体的に説明する。
例えば、図31に示すような水平壁Whの位置情報(Wvは垂直壁の一部)が抽出された場合、この水平壁に沿ってその両側に、水平・垂直の両方向に単位長(xu=yu=91cm又は100cmに相当する縮尺寸法)の矩形エリアを、その全長に亘って連続して設定する。
【0064】
そして、その各矩形エリア毎に、後述する壁認識処理の場合と同様にして、水平壁Whに沿う1ドット幅毎の垂直方向に連続する黒ドット数の計測配列データ(射影のヒストグラム)である垂直方向黒ドット数計測配列データを作成する。
その黒ドット数計測配列データのピーク値が単位長以下で単位長の1/4以上の許容範囲に入っていれば、ドアの半径候補(図31にa〜fで示す)と見なす。
【0065】
建築図面におけるドア表示の代表的な例としては、図32に示すように、半径rの円をその中心Pを通る水平線Hと垂直線Vによって4分割した開き角度90度の1/4円をなす4種類の扇型のいずれかである。
そして、図28の(a),(b)に示したように、その各扇型の一方の半径線(壁21に垂直な半径線)が戸板20の開き位置を示し、他方の半径線(壁21に平行な半径線)が戸板20の閉じ位置を示すが、同図の(c),(d)に示すように戸板20の閉じ位置の半径線を図示しない場合もある。
【0066】
この戸板の幅を示す半径rは、一般に単位長(半間又は1メートル)以下で単位長の1/4(出窓の開き窓など)以上である。したがって、連続する黒ドット数計測配列データのピーク値が上記の許容範囲に入っている場合にドア半径候補と見なす。
【0067】
次に、ドア認識候補の形状抽出を行なうが、そのため図33に示すように、各ドア半径候補Rと見なした黒ドット数計測配列データの壁位置にある基点を中心点P、長さを半径rと仮定して、その両側に壁に沿ってr/3幅ずつrまでの各区間D1〜D3およびD4〜D6で円弧画像の有無をパターンマッチング等によってチェックする。
その結果、ドア半径候補Rの左側に連続する円弧画像Aが有った場合は右開きのドア、右側に連続する円弧画像Aが有った場合は左開きのドア、いずれの側にも連続する円弧が無かった場合はドアではないと判別する。
【0068】
例えば、図31に示すa,b,e,fのドア半径候補は左右いずれか一方の側に円弧が見つかるのでドアであると判別され、c,dのドア半径候補は、左右何れの側にも円弧が見つからないのでドアではない(実際は垂直壁)と判別される。そして、ドアと判別した場合は、上述した90°扇型の中心点P/半径r/ドア方向(右開き/左開き)のドア形状データを抽出する。
【0069】
また、複数のドア半径候補の長さ(半径r)と距離および開き方向によって、図28に示したような片開きドア(片開き窓も含む)だけでなく、図29に示したような親子ドア(一対の戸板20a,20bの幅が異なる)を含む一対の戸板20a,20bが左右両側に開く両開きドア(両開き窓も含む)も判別することができる。
【0070】
さらに、図30に示したようにドア半径候補の戸板20の部分が壁21に包含されてしまっている場合でも、その一方の側の単位幅内に連続する円弧が有ることが確認されれば、ドアであると認識できる。
このようなドア認識処理を、水平方向および垂直方向の認識された全ての壁候補に対して行なう。
【0071】
次に、図5のステップAによる壁の位置の認識処理について説明する。
図6はその壁の位置を認識する処理のサブルーチンの内容を示すフロー図である。まず、ステップ3において、自動スキュー補正された画像データの全体を調査対象とする。そして、ステップ4において、ネスト変数は0(初期値:画像全体を対象にするという意味)である。「ネスト変数」は建築図面の解析範囲をトップダウンで絞り込む時の絞り込み段階を表す。ネスト変数の値が大きいほど解析が深くなっている(細かい部分まで進んでいる)ことを表わす。
【0072】
ステップ5において、壁の位置の調査対象の領域を限定する処理を行なう。具体的には、この処理にいたる直前に調査領域の指示が示されていて、ここでは以降のステップ6〜9の処理のための準備(インタフェースの共通化)を行なうだけである。個々の調査対象領域の形は矩形図になる。最初はネスト変数が0なので図面全体を調査対象とする。
【0073】
ステップ6において、水平方向の黒ドット数計測配列データを作成する。これは、画像データの垂直方向の1ドット幅毎に水平方向の黒ドット数を計数(計測)し、その各計数データを保持するものである。
次にステップ7において、ステップ6で作成した水平方向の黒ドット数計測配列データに基づいて、壁の抽出(認識)処理を行なう。その処理手順については後述する。
【0074】
ステップ8では、ステップ6と同様に垂直方向の黒ドット数計測配列データを作成する。すなわち、画像データの水平方向の1ドット幅毎に垂直方向の黒ドット数を計数(計測)し、その各計数データを保持する。ステップ9では、その垂直方向の黒ドット数計測配列データに基づいて壁の抽出(認識)処理を行なう。
【0075】
そして、ステップ10において領域を分割する壁候補があるかどうかを判断する。ここで、水平あるいは垂直方向で1つでも領域を分割する壁候補があれば、ステップ11へ、1つもそのような壁候補がなければ、ステップ13へ進む。
例えば、図9の(a)に示すような調査対象領域Sa内に領域を分割する壁候補Wdが存在するかどうかを判断する。
ステップ11では、ネスト変数を+1して再設定する。これは、現在の解析領域の中から壁を認識し、その壁を使って新たに区切られた現在の領域内の小領域に解析範囲を限定する段階に入ることを表わす。
【0076】
そして、ステップ12において、その調査対象の領域の細分化を行なう。具体的には、ステップ7,ステップ9で認識した壁候補の芯線(中心線)で、例えば図9の(a)に示すように調査対象領域を壁候補W,Wdの細線で示す芯線によって領域Sa1,Sa2に2分割する。さらに、その最初の細分化領域(例えば最も左上の領域)に調査対象の位置づけを行なう。
【0077】
この新たに細分化された領域群の中での解析の順番には特別な順序が必要になる訳ではないが、例えば、領域開始位置のx,y座標値の小さい順番に行なうことなどが考えられる。図9の(b)は、壁候補によって細分化された各領域のネストNo.とその解析処理順序の一例を示し、実線は壁候補の芯線(中心線)を、▲1▼,▲2▼,▲3▼はネストNo.を、1〜8の小さい数字は処理順序をそれぞれ示している。
【0078】
その後、図6のステップ5に戻って上述の処理を繰り返し行なう。
ステップ10において、領域を分割すべき壁候補が1つもなかった場合は、ステップ13に進んで同次ネスト領域(図9の(b)で同じネストNo.の領域)の残りがないかどうかを判断する。残りがある場合は、ステップ15において同次ネストの次の領域に調査対象を進めてステップ5に戻る。
【0079】
同次ネスト領域の残りがない場合は、ステップ14へ進んでネスト変数が0であるかどうかを判断する。ネスト変数が0でない場合は、ステップ16においてネスト変数を−1して1段階上位のネスト領域の処理に戻り、ステップ13でその段階の残りのネスト領域があるかどうかを判断する。あればステップ15で次のネスト領域に調査対象を進めてステップ5に戻る。
【0080】
ステップ14でネスト変数が0の場合は、ステップ17へ進んで、ステップ7,9によって得られた各領域毎の壁候補の認識データをもとに各壁の位置及びサイズを確定し、その壁認識データをメモリ4に格納する。その格納方法については後述する。以上の処理の後、当該サブルーチンを終了する。
【0081】
次に図7に基づいて、図6のステップ7及び9の壁の抽出(認識)処理の手順を説明するが、それに先立って、建築図面(家屋の間取り図)の画像データとその全領域から作成した水平及び垂直方向の黒ドット数計測配列データの具体例を図10及び図11に示す。これらの図において、(a)は建築図面の画像データ、(b)は水平方向の黒ドット数計測配列データ、(c)は垂直方向の黒ドット数計測配列データである。さらに、図10の(c)に示した垂直方向の黒ドット数計測配列データを拡大して図12に示す。
【0082】
図10の建築図面では、壁のシンボルが壁の両面と芯線によって表わされており、図11の建築図面では、壁のシンボルが壁の厚さ内の塗りつぶし(黒)によって表わされている。
この黒ドット数計測配列データにおいて、一番細い黒線の幅が1ドット幅であり、各黒線の長さが(a)に示す建築図面の画像データの1ドット幅毎の水平方向又は垂直方向の黒ドット数の計数値に相当する。
【0083】
これらの図から明らかなように、建築図面を構成する線分の大部分(90%以上)は水平方向又は垂直方向に描かれており、特に壁の部分で黒ドットの密度が高くなっている。そのため、水平方向及び垂直方向の黒ドット数計測配列データには、壁が存在する位置にピークが表われることになる。
【0084】
図7のフローの処理を開始すると、まずステップ21において、指定方向とクロスする方向(水平方向の黒ドット数計測配列データ作成の指定であれば垂直方向に、また垂直方向の指定であれば水平方向に)に、建設図面の基準の単位長に相当する所定間隔ごとに何回壁認識処理のループが可能かを確認する。
ここで、この単位長は一般の住宅の場合にはその最小壁間隔である半間あるいは1メートルであり、ここでは半間(91cm)とする。
【0085】
そして、水平方向の黒ドット数計測配列データに対しては垂直方向の画像幅より若干長い寸法を幅サイズLとし、垂直方向の黒ドット数計測配列データに対しては水平方向の画像幅より若干長い寸法を幅サイズLとして自動設定する。
また、半間サイズをhとし、この値は予め図面の縮尺データ及び半間長を入力するか又は計算による自動算出などにより決定する。
この幅サイズLと半間サイズをhからL/hを算出して小数点以下は切上げた数値を壁認識処理の大ループの実行回数nとする。図12にhで示す範囲が1回の大ループでの処理範囲である。
【0086】
次いで、ステップ22で大ループの回数カウンタのカウント値iの初期設定(i←1)を行なう。
そして、ステップ23において回数カウンタのカウント値iが可能な大ループの実行回数nを超えた(i>n)かどうかを判定する。超えていれば、当該領域の解析を終了する。超えていなければ、ステップ24において当該i番目の半間内の最初の解析処理として最高ピーク(図12にPで示す)に位置付け、その点をxpとする。このように半間毎に解析処理することにより、その中のピーク値が壁の一部である可能性が高いことになる。
【0087】
次に、ステップ25において壁の対象としての最初の条件であるピーク(極大値)の高さが半間(h)以上かどうかを判定する。その結果、ピークの高さが半間未満の場合には壁の認識不明として、次の半間先の解析に移るためにステップ34に進む。ピークの高さが半間以上ある時には次の解析ステップ26に移行する。このステップ26において、最高ピークの位置から左右両側(例えば、2W幅)を調べて、壁の厚みの範囲(両面の位置:W1,W2及び厚みWe=|W1−W2|)の絞り込みを行なう。ここでWは壁の厚みの意味で、例えばWmaxと同じ値で使用する。
【0088】
この絞り込み方法としては、(最高ピーク値−min)* rate+min以上の値を持つ最高ピーク位置の両端又は片側のピーク位置を、壁の両面の位置W1,W2又は最高ピーク位置xpが壁の一方の面の位置W1であるときの他方の面の位置W2として絞り込む方法がある。
【0089】
図13はこの絞り込み処理の説明図であり、(a)は最高ピーク位置xpの両側に壁の両面の位置W1,W2が存在する場合の例である。この場合は、最高ピーク位置xpは壁の芯線位置の候補と推定される。
【0090】
図13の(b)は最高ピーク位置xpが壁の一方の面の位置W1であり、その片側に他方の面の位置W2が存在する場合の例である。この場合は、長い方のピーク位置が図2に二重線で示した外輪郭の外壁位置の候補で、それに近接する短い方のピークがその内壁位置の候補と推定し得る。
【0091】
ここで、 rate は解析の前半(ネスト変数の値が小さい時)は小さめに、後半(ネスト変数の値が大きい時)では大きめにする(例えば、最初は rater=0.70とする)。min は図13の(c)に示すように現在注目している最大ピークPの位置xpの左右両側2Wに拡がった4W幅程度の幅内の黒ドット数計測データの最小値である。
【0092】
このようにして、図7のステップ26で絞り込んだ結果を基に、ステップ27と28で壁としての妥当性を確認する。
まずステップ27においては、壁の厚みWeがその最大値 Wmax(例えば30cm)を超えているか否かを判断し、超えている時は壁の認識不明として次の半間先の解析に移るためステップ34に進む。超えていなければステップ28へ進み、壁の厚みWeが最小値Wmin(例えば2.5cm)未満か否かを判断する。
【0093】
その結果、壁の厚みWeが最小値 Wmin未満の場合はステップ30へ進み、そうでない時はステップ29に進む。ステップ30においては壁以外のピーク(例えば、畳,窓,引戸など)を認識したものとしてその情報を得る。
ステップ29においては、壁の候補となる領域から、壁としての条件を満たすかどうかを後述する2等分割探索法によって判定し、壁だと認識できたものについて、ステップ31において当該壁の両面の位置W1,W2及び厚みWeなどの情報を退避(記憶)してステップ32に進む。
【0094】
ステップ29で壁としての条件を満たさなければステップ32に移行する。ステップ32においては、壁の両面位置(座標)W1及びW2が共に現在処理を行なっている領域の内側かどうかを判定し、内側であればステップ33に進む。そうでなければステップ34に移行する。
【0095】
ステップ33では、現在の処理領域を細分化し、新しい細分領域を示す境界データとして、W1,W2,Weを退避(記憶)する。また、(W1+W2)/2がその壁の芯線位置である。ステップ34では、次の半間先の処理を行なうために大ループの回数カウンタのカウント値iを+1してから、ステップ23に戻って上述の処理を繰り返し行なう。
【0096】
このようにして、対象となる黒ドット数計測配列データの一端(先頭要素)から半間毎に解析処理し、反対の端まで解析が終われば、今回の範囲の解析を終了する。水平方向と垂直方向の2方向のを黒ドット数計測配列データに対して別々に解析し、次回の解析範囲は、今回の解析で壁と認識できた範囲に限定する。
そのため、水平及び垂直方向の黒ドット数計測配列データを解析した結果を組み合わせて、総当たりの場合分けを行なう。
【0097】
この実施例では、壁の芯線位置は隣の壁との間隔が半間単位の整数倍になるように配置されているとみなす。
そして、特徴的なピークが発見できる範囲までを解析データとして有効に使用する。逆に云えば、解析対象とするある範囲内に壁に相当する特徴が、水平方向及び垂直方向の両方合わせても一つも発見できなかったときは解析を終了する。1回の解析範囲は、最初は図面全体を対象にし、以後発見された壁で区切られた範囲に限定し直す方法をとって、壁のピークが発見されやすくし、且つ細部までの解析が容易になるようにする。
【0098】
次に、図7のステップ29において「壁としての条件を満たすか」を判断する2等分割探索法について、図8のフロー図によって説明する。
この図8に示すフローの処理を開始すると、まずステップ41において、2等分割探索法の初期設定を行なう。
すなわち、壁分析のための領域分割要素数nを1にし、壁部か非壁部かが未確定である分割要素の配列要素の最も小さいNo.を指すkを0に、また、調査領域の分割配列要素として、S〔0〕,E〔0〕それぞれに入力のスタート及びエンド画像アドレスを代入して初期設定とする。
【0099】
その後、ステップ42に進み、調査領域の開始アドレスS〔k〕と終了アドレスE〔k〕が等しければステップ53に移行し、等しくなければステップ43に進む。ステップ43においてはイメージ画像データの対象領域の分割処理を行ない、元の領域を小数以下の誤差を除いて2等分割する。
【0100】
すなわち、分割する前半の領域のスタート及びエンド画像アドレスS1,E1を、S1=S〔k〕,E1=(1/2)(S〔k〕+E〔k〕)とし、後半の領域のスタート及びエンド画像アドレスS2,E2を、S2=(1/2)(S〔k〕+E〔k〕)+1,E2=E〔k〕とする。
【0101】
それによって、例えば図14に示すように、建設図面のイメージ画像データ中において、壁候補が存在する線(一点鎖線で示す)の元の領域幅を最初は1の位置で2等分割する。その後壁の有無を判別できるまで、順次図14に示す位置2で2回目、3の位置で3回目、4の位置で4回目というように2等分割を繰り返して細分化した領域でステップ44及び45の壁調査を行なうようにする。
ステップ44及び45においては、2等分割したそれぞれの領域P1,P2が壁で満たされているかどうかを調査し、ステップ46に進む。
【0102】
ここでは、指定された領域(スタートアドレスからエンドアドレスまで)の黒ドット数計測配列データを分析した結果、黒ドットのピーク(壁の厚みの広がりを保って)高さが、指定された領域の幅(長さ)と比較して次の▲1▼〜▲3▼の判断をする。
【0103】
▲1▼:5%以下のとき、 v=0:非壁部と判断
▲2▼:95%以上のとき、v=1:壁部と判断
▲3▼:上記以外のとき、 v=2:どちらとも判断できない
これを図に示すと図15に▲1▼,▲2▼,▲3▼で示すようになる。
【0104】
ステップ46においては、ステップ43で分割された前半の領域P1について、壁が存在するかどうか判断できない(v=2)場合はステップ47に進み、そうでなければステップ49に進む。ステップ47においては、ステップ43によって分割する前の領域範囲の格納配列要素S〔k〕,E〔k〕,v〔k〕を、ステップ43で分割された後半の領域データ(スタート及びエンド画像アドレスS2,E2と判定結果v2)で置き換える。
【0105】
ステップ48においては、新しい格納配列要素S〔n〕,E〔n〕,v〔n〕として、ステップ43で分割された前半の領域データ(スタート及びエンド画像アドレスS1,E1と判定結果v1)を退避し、ステップ51に移行する。
ステップ49においては、ステップ43によって分割する前の領域範囲の格納配列要素S〔k〕,E〔k〕,v〔k〕を、ステップ43で分割された前半の領域データ(スタート及びエンド画像アドレスS1,E1と判定結果v1)で置き換える。
【0106】
ステップ50においては、新しい格納配列要素S〔n〕,E〔n〕,v〔n〕として、ステップ43で分割された後半の領域データ(スタート及びエンド画像アドレスS2,E2と判定結果v2)を退避し、ステップ51に移行する。
ステップ51では、領域アドレスの新しい格納配列要素を示せるように新しい格納配列要素No.を示す変数nを+1してから、ステップ52に進む。
【0107】
ステップ52においては、壁部か非壁部かが未確定である分割要素の最も小さいNo.を指すk要素内の分類コードvが壁が存在するかどうか判らない内容(v=2)の場合は、ステップ42に戻って更に細分割する処理を繰り返す。そうでない場合はステップ53に進む。
ステップ53では、壁が存在するかどうか判らない内容が一つ解決したとして、その指標kを+1してからステップ54に進む。
【0108】
ステップ54においては、壁分析のための領域分割要素数nと、壁部か非壁部かが未確定である分割要素の配列要素の最も小さいNo.を指すkとが、等しくなっているかどうか判定し、等しければ壁認識のための分割処理が終了したと判断してステップ55へ進む。等しくなければステップ52へ戻る。
【0109】
ステップ55においては、分割された領域アドレス・データ(配列)が上昇順に並ぶよう、スタートアドレス順(昇順)にソートを実行してステップ56に移行する。すなわち、S〔0〕〜S〔n−1〕,E〔0〕〜E〔n−1〕,v〔0〕〜v〔n−1〕のデータをS〔 〕をキーにして昇順にソートする。
【0110】
ステップ56においては、壁部分及び非壁部分が連続している場合は、それぞれ縮退処理(一つの範囲で表現)して終了する。すなわち、連続したv〔 〕値が0又は1の状態の場合は、S〔 〕,E〔 〕データを圧縮する。
なお、この時に、壁が存在するかどうか判らない内容(v=2)の配列要素を含む場合は、その要素の前後の要素が壁を示している場合には壁データに変更し、また、非壁を示している場合には非壁データに変更して処理する。
【0111】
上述した二等分割探索処理による画像データ中の壁位置の分析例を図16に示す。この図16の(a)には壁のイメージ画像(斜線を施した部分)Wとその調査対象領域を破線で示しており、この調査領域は先に認識された壁候補の存在位置に沿って設定される。そして、S〔0〕=0がその調査領域の最初のスタートアドレス、E〔0〕=15が最初のエンドアドレスである。4,5,7等の途中の数字は分割後の対象領域のスタート又はエンドアドレス(いずれも画像アドレス)である。
【0112】
図16の(b)には変数n=1〜10の各調査段階における各対象領域のスタートアドレスS,エンドアドレスE,及び壁の有無に関する判断結果vとその確定状況、ソート状況、並びに縮退処理結果をkの値と共に示している。そして、最終的には画像アドレス5〜12に壁が存在することを認識している。
【0113】
次に、図17によって簡単な建築図面の壁認識例を説明する。
この図17には、ネスト変数(nest)と、領域分割状態と認識された実際の壁の状態とを示している。
まず、ネスト変数=0で建築図面の全体を壁位置の調査対象として壁の抽出を行なう。その結果(A)に実線で示すように建築図面の家屋部の輪郭と水平及び垂直方向の壁候補の位置を認識できたとする。しかし、その認識できた壁候補のうち実際の壁は(a)に示す部分だけであるが、それはまだ判らない。
【0114】
そこで次に、ネスト変数=1にして、(A)に示す認識できた壁候補の芯線で区切られた各矩形領域毎に調査対象領域を限定して壁の抽出を行なう。それによって(B)に▲1▼,▲2▼,▲3▼,▲4▼で示す4つの調査対象領域で新たに太線で示す壁候補が認識されると共に、先に認識された壁候補のうち、実際の壁は(a)に示された部分だけであったことが確認され、(b)に示す壁の状態が認識される。
【0115】
さらに、ネスト変数=2にして、(B)において新たな壁候補が認識された4つの領域▲1▼〜▲4▼をそれぞれその新たに認識された壁によって分割して、調査対象領域をさらに限定して壁の抽出を行なう。それによって、(C)に▲5▼,▲6▼で示す2つの調査対象領域で新たに太線で示す壁候補が認識され、(c)に示す壁の状態が認識される。
【0116】
その後、ネスト変数=3にして、(C)において新たな壁候補が認識された2つの領域▲5▼,▲6▼をそれぞれその新たに認識された壁によって分割して、調査対象領域をさらに限定して壁の抽出を行なう。その結果いずれの分割領域でも新たな壁候補を抽出できなにかった場合には、それによって壁位置の調査を終了し、(c)に示す壁位置が最終的な壁認識結果であることが確定し、そのデータをメモリに格納する。
【0117】
このように、分割した各調査対象領域のいずれでも新たな壁候補が抽出されなくなるまで、調査対象領域を細分化して壁の抽出を行なう。それによって、小さな壁でも確実に認識することができ、且つ壁候補のうち実際には壁が存在する部分と存在しない部分とを正確に判別することができる。
【0118】
ここでさらに、前述した図6のフローチャートに従った具体的な建築図面の認識処理手順の例を、図18乃至図20によって説明する。図18乃至図20は一連の図であるが、図示の都合上3枚の図に分割して示している。これらの図におけるS3〜S17は、図6のS3〜S17の各ステップに対応している。また、各段階での領域分割図と実壁状態も図示している。
【0119】
以下の説明ではステップを「S」と略称する。図18のS3で図面全体を調査対象とし、S4でネスト変数を0にする。S5で調査対象の限定を行なうがネスト変数が0なのでやはり図面全体を調査対象とする。S6〜S7で水平方向の黒ドット数計測配列データを作成して壁を抽出するが、輪郭以外の壁を発見できず、S8〜S9で垂直方向の黒ドット数計測配列データを作成して壁を抽出し、輪郭以外の壁を2か所に発見する。したがって、S10でYESになり、S11でネスト変数を1にし、S12で領域の細分化(各壁の位置で)をしてS5へ戻り、調査対象領域を一番左の領域に限定する。
【0120】
そして、S6〜S7で壁を2か所に発見し、S8〜S9では壁を発見できなかったがS10ではYESになり、S11でネスト変数を2にして「入れ子処理」を、図19のS14でNOになり入れ子処理を終了するまで繰り返し実行し、左側の縦長の領域を新たに発見された2つの壁によって区切った3つの分割領域に対して、順次壁の抽出処理を行なう。
【0121】
この例ではそれによって新たな壁は発見されず、図19のS16でネスト変数を−1して1に戻し、真中の縦長の領域を調査対象領域として同様に壁の抽出を行なうが、この例では新たな壁候補は発見されない。
そこで、S15,S5で右側の縦長の領域に調査対象領域を変更し、S6〜S7で壁を1ケ所発見する。
【0122】
そこで、図20のS10でYESになり、S11でネスト変数を2にして「入れ子処理」を開始し、右側の縦長の領域を新たに発見された壁によって分割し、その各分割領の壁抽出処理を順次行なう。その結果、いずれの分割領域でも新たな壁は発見されず、S13でNOになり入れ子処理を終了し、S16でネスト変数を−1して1にするが、ネスト変数1の領域は残っていないので、さらにネスト変数を0に戻すが、その領域も残っていない。そのため、壁抽出の処理は完了したと判断し、S17で抽出された壁候補の認識データにより各壁の位置及びサイズを確定し、そのデータをメモリに格納する。
【0123】
次に、上述のようにして認識した建築図面の輪郭及び骨格に相当する壁の位置及びサイズ等の情報(解析結果データ)を図1に示したメモリ4及び外部記憶装置11の記憶媒体に格納する内容の一例について、図21によって説明する。
図21において、(A)はネスト数、(B)は固有ネスト情報、(C)水平方向の壁情報、(D)は垂直方向の壁情報、(E)は水平な壁のモデル、(F)は垂直な壁のモデルを示す。
【0124】
ネスト数は、子ネストポインタの入れ子(親子関係)の深さを示し、壁が全然認識されなかった場合は、ネスト数=0である。
固有ネスト情報は、ネストNo.,NEXT兄弟ポインタ,子ネストポインタ,壁数(水平方向及び垂直方向),壁情報ポインタ(水平方向及び垂直方向)からなる。
【0125】
NEXT兄弟ポインタは、同時階層ネスト情報の次のアドレスを持つ。したがって、このポインタが示す場所の固有ネスト情報内のネストNo.は、当該処理のものと同じ値である。
子ネストポインタは、一階層下の階層ネスト情報の先頭データのアドレスを持つ。したがって、このポインタが示す場所の固有ネスト情報内のネストNo.は、当該処理のものに+1した値である。
【0126】
(B)に示す固有ネスト情報中の水平方向の壁情報ポインタが示すアドレスを先頭アドレスとして、(C)に示す水平方向の壁情報が格納される。
その壁情報は、次の水平方向の壁情報の先頭アドレスの位置を示すNEXTポインタ、壁の始点座標(x座標:a,y座標:b)、壁の横(x方向)サイズ:c、壁の縦(y方向)サイズ:壁の厚みdからなる。これらのa〜dによって(E)に示す水平な壁のモデルを記憶し、またそれを再現することができる。
【0127】
同様に、固有ネスト情報中の垂直方向の壁情報ポインタが示すアドレスを先頭アドレスとして、(D)に示す垂直方向の壁情報が格納される。
その壁情報は、次の垂直方向の壁情報の先頭アドレスの位置を示すNEXTポインタ、壁の始点座標(x座標:e,y座標:f)、壁の縦(y方向)サイズ:g、壁の横(x方向)サイズ:壁の厚みhからなる。これらのe〜hによって(F)に示す垂直な壁のモデルを記憶し、またそれを再現することができる。
【0128】
ところで、実際の建築図面の画像データに対して、その図面全体を調査対象領域として水平方向及び垂直方向の黒ドット数計測配列データを作成した例を図10及び図11に示したが、その黒ドット数計測配列データに基づいて壁候補を認識した次の段階で、その図面の領域を認識した壁候補によって分割し、調査対象領域を限定した画像データに基づく水平及び垂直方向の黒ドット数計測配列データの作成例を、図22乃至図24に示す。
【0129】
図23及び図24は、図22よりさらに調査対象領域を細分化した例である。
このようにして、新たな壁候補が発見されなくなるまで、調査対象領域を細分化して、その画像データによる水平及び垂直方向の黒ドット数計測配列データを作成し、壁の抽出を行なう。
【0130】
なお、この実施形態ではポジ画像の建築図面を認識対象としたので、その2値化した画像データの水平及び垂直方向の黒ドット数を計測(カウント)して黒ドット数計測配列データを作成したが、ネガ画像の建築図面を認識対象とする場合には、その2値化した画像データの水平及び垂直方向の白ドット数を計測(カウント)して白ドット数計測配列データを作成すれば、壁の認識を同様に行なうことができる。
【0131】
また、上述のようにして認識した建築図面の輪郭及び骨格に関する認識データは、CAD用ベクトルデータに変換をすることができ、異機種間のCADデータの互換性を得ることができる。
【0132】
そして、図28又は図29に示したような平面表示のドアの場合、この実施形態では黒ドットからなる形状輪郭より戸板部分に該当する大きさの連続ドット数を抽出し、その連続ドット数をドア半径候補と仮定し妥当性をチェックしてドアの」認識を行なう。これをさらに、図面全体の建具認識処理につなげられることが考えられる。
【0133】
さらに、図30に示したような平面表示のドアについて、その連続する黒ドットの先端部に注目し、90°扇型の円弧部分の立ち上がりを計測することによって、壁に包括された戸板部分を抽出し、それによって多少の位置ずれや正確な90°扇型の記述でなくても認識処理を行なうので、次に示すような利点がある。また、ドット構成が細く弱々しい場合には、当該領域の黒又は白ドットに注目した画像膨張を行なってから、連続ドット数の抽出を行なうことにより、ドアの認識が可能になる。
【0134】
(利点1)大きさを勘案した連続ドット数計測配列データを基に、2つの90°扇型の円弧立ち上げ部分の計測と、その中の円弧記述の認識を行なうことによって、ドアの記述を確実に認識できる。
(利点2)定規などを使用せずにフリーハンドで記述された図面でも、水平及び垂直方向に限らず斜め直線も含めて直線の揺らぎを相殺すると、形状輪郭が水平及び垂直方向への正対性がよければ認識することができる。
【0135】
なお、手書き図面で建築図面の正対方向のスキュー補正が困難な場合、手書き図面を方眼紙に記述して、スキュー補正はその方眼紙のマス目を利用して行なうようにするとよい。
また、やむをえず利用者の手作業に委ねる場合、スキャナ読込時にできるだけスキュー補正が不要な正対する図面を作成するように注意を促すマニュアルを添えるとよい。
【0136】
【発明の効果】
以上説明してきたように、この発明による建築図面からドアを認識する方法及びドアを認識する装置によれば、従来正確な認識が困難であった線が途切れたり直線が多少傾いて記載された手書き図面や、青焼きなどの比較的コントラストが低い図面や、ノイズの多い図面あるいは古い建築図面など、記載状態や画質の悪い建築図面からでも、その輪郭・骨格を形成する壁の位置とともにドア(開き戸,開き窓)の形状及び種類を簡単に精度よく認識することができる。
【図面の簡単な説明】
【図1】この発明による建築図面からドアを認識する方法を実施する建築図面認識装置の一例の概略構成を示すブロック図である。
【図2】図1の表示部9における再マッピングされた認識結果の画像データの表示例を示す図である。
【図3】同じくスキュー補正された建築図面の入力画像データを認識結果の画像データと重ね合わせて表示した例を示す図である。
【図4】建築図面における外輪郭,外壁,内壁及び骨格の定義を説明するための図である。
【図5】図1に示した建築図面認識装置による建築図面認識処理のメインルーチンを示すフローチャートである。
【図6】図5におけるステップAの壁の位置認識処理のサブルーチンの詳細を示すフロー図である。
【図7】図6におけるステッブ7及び9の壁の抽出(認識)処理のサブルーチンのフロー図である。
【図8】同じく壁の位置を認識する2等分探索法を実行処理するフロー図である。
【図9】調査対象領域内の壁候補とそれによる領域分割例及び壁候補によって細分化された領域群のネストNo.とその解析処理順序の一例を示す説明図である。
【図10】建築図面(家屋の間取り図)の画像データとその全領域から作成した水平及び垂直方向の黒ドット数計測配列データの具体例を示す図である。
【図11】同じくその他の具体例を示す図である。
【図12】図10の(c)に示した垂直方向の黒ドット数計測配列データを拡大して示す図である。
【図13】図7のステップ26におけるピークの両側又は片側に壁の両面を絞り込む処理の説明図である。
【図14】図8のステップ43における領域幅の分割処理の説明図である。
【図15】図8のステップ44,45における対象領域の壁調査による判断の説明図である。
【図16】図8に示した2等分割探索処理による壁のサンプル(壁候補)の分析例を示す説明図である。
【図17】この発明による簡単な建築図面の壁認識例の説明図である。
【図18】図5のフローチャートに従った具体的な建築図面の認識処理手順の例を示す説明図である。
【図19】図18の続きの説明図である。
【図20】図19の続きの説明図である。
【図21】解析結果データのメモリへの格納内容の一例を示す説明図である。
【図22】図10に示した建築図面の調査対象領域を限定した画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図23】図22より調査対象領域をさらに限定した画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図24】図22より調査対象領域をさらに限定した他の部分の画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図25】図1の表示部9におけるマッピングされたドア認識のための建築図面の入力画像データの表示例を示す図である。
【図26】同じくその入力画像データに対して家屋の外壁及び家屋内の仕切り壁の認識結果を表示した例を示す図である。
【図27】同じく図25の入力画像データに対して外壁及び家屋内の仕切り壁とドアの認識結果の画像データを重ね合わせて表示した例を示す図である。
【図28】建築図面における片開きドアの平面表示の例を示す図である。
【図29】建築図面における両開きドアの平面表示の例を示す図である。
【図30】建築図面における片開きドアの戸板部分が壁に包括された平面表示の例を示す図である。
【図31】水平壁に沿ってドア半径候補を探索する方法の説明図である。
【図32】一般的なドアの平面表示の種類を説明するための説明図である。
【図33】ドア半径候補の両側の単位長範囲内の円弧画像を探索する処理の説明図である。
【符号の説明】
1:全体制御部(CPU) 2:画像読取部
3:通信制御部 4:メモリ
5:自動スキュー補正部
6:ドット数計測配列データ作成部
7:輪郭・骨格認識部 8:再マッピング制御部
9:表示部 10:操作入力部
11:外部記憶装置 12:印刷装置
13:ドア認識部 14:バス[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for recognizing “doors (folding doors, casement windows)” in architectural drawings of houses such as individual houses, apartments, condominiums, inns, hotels, stores, and office buildings widely used in the construction industry. The present invention relates to a recognition device.
[0002]
[Prior art]
2. Description of the Related Art In recent years, it has been practiced to easily create architectural drawings of houses, buildings, etc. using a CAD system or the like, and to store the data for use in design changes or extension / renovation. However, the data of the architectural drawing is not compatible with the created system, and cannot be used due to the passage of time or change of contractor.
In addition, when renovating or remodeling a house, there are often only old architectural drawings drawn on paper, and it was necessary to redraw all the drawings for expansion and renovation, including the parts that were not changed.
[0003]
Therefore, it is also attempted to read architectural drawings drawn on paper and recognize and store them as data that can be processed by a computer, but there is no special method or device for that purpose, and architectural drawings are read with an image scanner, The image data is input to a personal computer or the like, and line segment recognition or pattern recognition is performed using a general graphic recognition function.
[0004]
In addition, even if the automatic recognition function is somewhat incomplete, the basic diagram such as straight lines and arcs can be converted by raster-vector conversion even if the automatic recognition function is somewhat incomplete. Some are designed to be automatically recognized.
[0005]
[Problems to be solved by the invention]
However, such a conventional drawing recognition device requires a high level of operation knowledge and is limited to those who are used to personal computers and specialized operators, and for those involved in the industry who frequently use architectural drawings, It was by no means easy to use.
[0006]
In addition, although basic diagrams such as straight lines and arcs can be automatically recognized, it is possible to individually recognize graphic symbols (such as walls and pillars) that are unique to architectural drawings consisting of combinations of basic diagrams. There wasn't. For this reason, when recognizing the recognized drawing, it has to be performed for each line segment, which requires a lot of work.
[0007]
Furthermore, the architectural drawings of houses and buildings used in the construction industry are not uniform in thickness even if each line segment on the drawing looks as a continuous line of the same size to the human eye. The trajectory also fluctuates. Even if it should be a continuous line, it may be broken in some places. These imperfections are caused not only at the time of drawing, but also from aging of paper and errors at the time of reading. Therefore, for example, if the limit of the thickness that can be recognized as a line segment is too thin, it is recognized that the line segment is cut even if it is slightly faint. A thick line segment may be recognized as a rectangle.
[0008]
This is of course the quality of the original drawing, but there are many drawings with low contrast (so the black and white borders are not clear) as in the so-called blue printing drawing using photosensitive paper. Since this point appears on the surface, it is difficult to perform automatic recognition with high accuracy with a conventional drawing recognition apparatus, and it takes a lot of time to correct the correction, so it has hardly been put to practical use.
[0009]
By the way, in the architectural drawing of a house, a wall that divides the floor plan plays a central role in the drawing, and by recognizing which part in the drawing is the wall, it is possible to understand an approximate floor plan of the architectural drawing. Therefore, recognizing the position of the wall and its length in the drawing is the most important matter in recognizing the construction drawing.
[0010]
In addition, in order to recognize doors (folding doors, hinged windows) from this architectural drawing, a 90 ° fan shape with a radius equal to or less than the unit length in contact with the outer wall of the house and the partition wall in the house (circle is divided into four) Often, this is determined by the shape description of the four patterns.
Therefore, when recognizing doors from architectural drawings such as blueprints, the wall information in the drawing recognizes the corresponding wall from the unit-length rectangular area in contact with it, and the “wall” recognition and “ Whether or not the linkage of “door” recognition can be surely performed is an important key.
[0011]
However, the door recognition from the conventional drawings has the following problems.
(1) In the contour tracking method, if there are many spots or irregularities, it is recognized as a broken straight line or as a straight line divided into two or three, and cannot be recognized accurately.
(2) In the projected feature extraction method obtained from the frequency distribution of black dots, when the line is thin, when the horizontal and vertical straight lines are found, the feature cannot be extracted if the line is inclined even a little, and I couldn't recognize it.
For the reasons described above, the “90 ° fan shape” in the middle of the “door” recognition process could not be recognized.
[0012]
The present invention has been made in view of the above points, and even with architectural drawings drawn on paper with lines that are broken or slightly inclined due to blue printing or handwriting, image data obtained by reading the drawing, or its run length It is an object of the present invention to enable automatic recognition of a door (a hinged door, a hinged window) with high accuracy from encoded image data obtained by encoding the above.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a method for recognizing a door and an apparatus for recognizing a door from the following architectural drawings.
[0014]
The method for recognizing a door from an architectural drawing according to the present invention is based on position information of a wall as a partition of an outer wall of a house and a partition in an area composed of black or white dots of image image data obtained by reading an image of the architectural drawing. As a unit length rectangular area on both sides of the image, and the continuous dot number measurement array data by measuring the number of black or white dots continuous in the direction perpendicular to the wall in the image data in each of the limited rectangular areas Are created, the door radius candidates are extracted based on the created continuous dot count measurement array data, the presence or absence of an arc image within the unit length range on both sides of each door radius candidate is determined, and the arc image The shape and type of the door are recognized based on the position of the door and the length of the door radius candidate.
[0015]
In this method of recognizing a door from an architectural drawing, horizontal and vertical dot number measurement array data is created by measuring the number of horizontal or vertical black or white dots in the image data obtained by reading the architectural drawing image. The position information of the wall of the architectural drawing can be recognized based on the created dot count measurement arrangement data in both directions.
[0016]
The apparatus for recognizing a door from an architectural drawing according to the present invention includes an image data input means for inputting image image data obtained by reading an image of the architectural drawing, and black and white in the horizontal and vertical directions of the image image data inputted by the means. Or, a dot number measurement array data creating means for measuring the number of white dots to create horizontal and vertical dot number measurement array data, and the outer wall of the house based on each dot number measurement array data created by the means Contour / skeleton recognition means for recognizing position information of a wall as a partition in the house.
[0017]
Further, with reference to the position information of the wall recognized by the contour / skeleton recognition means, the area consisting of black or white dots of the image image data is limited to unit length rectangular areas on both sides of the wall. In the image data in each rectangular area, the continuous dot number measurement array data is created by measuring the number of continuous black or white dots in the direction perpendicular to the wall, and the created continuous dot number measurement array data Door radius candidates are extracted on the basis of them, the presence / absence of an arc image within a unit length range on both sides of each door radius candidate is determined, and the shape of the door is determined according to the position of the arc image and the length of the door radius candidate And door recognition means for recognizing the type.
[0018]
The image data input means may be an image reading means for reading an image of an architectural drawing and inputting the image image data.
[0019]
Alternatively, the image data input means may be image data input means for inputting encoded image data obtained by encoding a run length of image image data obtained by reading an image of an architectural drawing. The number measurement array data creating means measures the number of black or white dots in the horizontal direction and the vertical direction of the original image image data from the encoded image data input by the image data input means, and calculates the number of dots in the horizontal direction and the vertical direction. Any means for creating measurement array data may be used.
[0020]
In this case, the image data input means may be image data receiving means for receiving and inputting the encoded image data by communication.
Furthermore, in the apparatus for recognizing a door from these architectural drawings, a display means for displaying a recognition result by the door recognition means may be provided.
The display means can display the result of recognition by the door recognition means superimposed on the image data input by the image data input means.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be specifically described below with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of an example of an architectural drawing recognition apparatus (including an apparatus for recognizing a door from an architectural drawing) that implements a method for recognizing a door (a hinged door, an open window) from an architectural drawing according to the present invention. Yes, a hardware configuration and a software processing function by a microcomputer are shown mixedly.
[0022]
This apparatus includes an overall control unit 1, an image reading unit 2, a communication control unit 3, a memory 4, an automatic skew correction unit 5, a dot number measurement array data creation unit 6, a contour / skeleton recognition unit 7, a remapping control unit 8, It comprises a display unit 9, an operation input unit 10, an external storage device 11, a printing device 12, a door recognition unit 13, and a bus 14 for connecting them.
Note that an interface unit necessary between these units (or devices) and the bus 14 is not shown.
[0023]
The overall control unit 1 is a microcomputer (consisting of a CPU, ROM, RAM, etc., but is abbreviated as “CPU” as a representative) that controls the operation and function of the entire building drawing recognition apparatus, and an automatic skew correction unit. 5 and the functions of the dot number measurement array data creation unit 6, the contour / skeleton recognition unit 7, the remapping control unit 8, and the door recognition unit 13 according to the present invention can also be realized by software processing of the CPU.
[0024]
The image reading unit 2 is an image data input unit that scans a set architectural drawing, reads the image, and inputs image image data. The image reading unit 2 includes a scanning optical system, an image sensor such as a CCD, and a drive circuit thereof. This is an image scanner. Also included is a circuit that binarizes the read image data at a predetermined resolution to produce white dot and black dot image data.
[0025]
The communication control unit 3 is an image data receiving unit that receives and inputs encoded image data in which image image data or its run length is encoded by communication from the outside instead of capturing image data from the image reading unit 2. At the same time, architectural drawing data recognized by this device can be transmitted to an external device. Specifically, it includes a FAX modem and personal computer communication control means.
[0026]
The memory 4 includes image data read by the image reading unit 2, image image data or encoded image data received by the communication control unit 3, image data skew-corrected by the automatic skew correction unit 5, and dot number measurement array The dot count measurement array data created by the data creation unit 6, the contour and skeleton recognition results recognized by the contour / skeleton recognition unit 7, the shape and type data of the door recognized by the door recognition unit 13, and the remapping This is a large-capacity RAM or a hard disk memory for storing image data and the like remapped by the control unit 8.
[0027]
The automatic skew correction unit 5 is for adjusting the angle of the image data stored in the memory 4 to correct the horizontal and vertical line segment directions so as to coincide with the horizontal and vertical reference directions of the apparatus. The automatic skew correction technique can be used.
The image data corrected by the automatic skew correction unit 5 is stored in the memory 4 again.
[0028]
The dot number measurement array data creation unit 6 performs the automatic skew correction on the image image data or the encoded image data stored in the memory 4 and the image data remapped by the remapping control unit 8 described later. The image data is limited to two directions, the horizontal and vertical directions, and the number of black or white dots is measured (counted) in units of dot widths respectively. As a result, the horizontal and vertical dot number measurement array data (histogram) is obtained. This is dot number measurement array data creation means for creating and storing in the memory 4.
[0029]
If the read construction drawing is a positive drawing (a drawing whose brightness is lower than that of the ground), the number of black dots is measured, and if it is a negative drawing (a drawing whose brightness is higher than that of the ground), Measure the number of white dots.
[0030]
The outline / skeleton recognition unit 7 recognizes the outline and skeleton of the architectural drawing based on the horizontal and vertical dot number measurement array data created by the dot number measurement array data creation unit 6, and in particular, the outer wall of the house and the house This is a contour / skeleton recognition means for extracting information such as the position, length, thickness, type, etc. of the wall that is an indoor partition, and details thereof will be described later.
[0031]
In the reference dot number measurement array data, if wall recognition (extraction) is difficult or uncertain, a request for resetting the horizontal and vertical dot number measurement array data creation range in the drawing is sent to the overall control unit 1. The transmission range and the creation range are changed, and the dot number measurement array data creation unit 6 is made to create dot number measurement array data again.
[0032]
The remapping control unit 8 limits the range of the architectural drawing by the part recognized as the wall by the contour / skeleton recognition unit 7, re-maps the part in consideration of other recognition information, Image data for causing the dot number measurement array data creation unit 6 to create the dot number measurement array data again for each limited range is created. In this case, noise of the document or reading noise in the image reading unit 2 is also generated. Create the removed image data. This data is also stored in the memory 4.
[0033]
The door recognizing unit 13 extracts unit-length rectangular regions (areas) in both the horizontal and vertical directions based on the position information (recognition processing result) of the horizontal and vertical walls recognized by the contour / skeleton recognizing unit 7. A process for recognizing a door (a hinged door, a hinged window) is performed. Details will be described later.
[0034]
The display unit 9 is input from the image reading unit 2 or the communication control unit 3, and has been corrected by the automatic skew correction unit 5. The image data of the construction drawing and the horizontal and vertical directions created by the dot number measurement array data creation unit 6 are displayed. Black or white dot number measurement array data, wall data recognized by the outline / skeleton recognition unit 7, door data of the door recognized by the door recognition unit 13, image data remapped by the remapping control unit 8, etc. For example, a CRT or a liquid crystal display.
[0035]
2 and 3 show examples of the display state of the screen 9a of the display unit 9. FIG. 2 shows the outline and skeleton (wall) data of the architectural drawing recognized by the contour / skeleton recognition unit 7. It is an example of a display of the image data (recognition result) re-mapped by the mapping control part 8. FIG. In this display example, the double solid line indicates both surfaces of the wall, and the thin line indicates the core line of the wall and its extension line.
[0036]
FIG. 3 shows the image data of the architectural drawing (input image image data) skew-corrected by the automatic skew correction unit 5 and the wall image data and door image data, which are the remapped recognition results, at the same time. The example displayed together is shown. In this case, the image data of the architectural drawing that has been skew-corrected is displayed in halftone so that both can be easily identified (in FIG. 3, for convenience of illustration), the wall and the recognition result are displayed. The door image data is displayed as a solid line.
[0037]
Further, when the display unit 9 is a color display device, the distinguishability can be improved by changing and displaying the colors of both images. For example, the skew-corrected input image image data is light blue, and the recognition result image data is displayed in orange or green, so that the operator can easily identify the recognition result portion.
[0038]
Alternatively, the screen 9a of the display unit 9 can be divided and the skew-corrected input image image data and the recognition result image data can be displayed in comparison with the divided screens.
Alternatively, it is also possible to selectively display the input image image data subjected to skew correction and the image data of the recognition result remapped on the same screen. In that case, display selection means (keys or the like) may be provided in the operation input unit 10 described later.
[0039]
Further, the display unit 9 also displays a screen for the operator to confirm the recognition result. That is, the remapped image data of the recognition result is displayed, and a display such as “Are you sure about this recognition result? (YES / NO)” is performed. Thereby, the operator can confirm whether the wall and the door are correctly recognized.
[0040]
The operation input unit 10 is for inputting various operation instructions, function selection commands, editing data, and the like, and is a keyboard, a mouse, a touch panel, or the like.
The operation input unit 10 also has a function as display selection means, and can change the display state of the display unit 9 to a display state desired by the operator. For example, the input image data of the architectural drawing whose skew has been corrected and the image data of the recognition result that has been remapped can be superimposed and displayed by key operation, or only one of them can be selected and displayed.
[0041]
Further, the operation input unit 10 has an input means such as a key for inputting “YES” or “NO” information in response to the above display of “Are you sure about this recognition result? (YES / NO)”. . If “YES” is selected, the recognition process is terminated. If “NO” is selected, the process proceeds to a re-recognition process or a correction process. Thereby, the operator can confirm the content of the recognition result, and can confirm it.
[0042]
The external storage device 11 receives input image data, black dot number measurement array data created by the dot number measurement array data creation unit 6, wall data and door data recognized by the contour / skeleton recognition unit 7, and remapping control. This is a storage device for storing image data or the like as a recognition result remapped by the unit 8 in a storage medium such as a floppy disk (FD) or a magneto-optical disk (OMD) that can be taken out to the outside.
The printing device 12 is a printer or plotter that prints or draws the various data described above on paper.
[0043]
Here, the definitions of “contour” and “skeleton” and “outer wall” and “inner wall” in architectural drawings will be described with reference to Table 1, Table 2, and FIG.
[0044]
[Table 1]
Figure 0003645404
[0045]
[Table 2]
Figure 0003645404
[0046]
“Outline” means “outer contour”, and only the portion facing the outside of the outer peripheral wall as indicated by a circle in Table 1 (the outer line of the double line shown in FIG. 4A). The case 1 means a portion of (2) and the cases 2 and 3 mean the entire wall in contact with the outside (the portion indicated by a thick line in FIG. 4B).
[0047]
The “skeleton” means the case of cases 1 and 2 meaning all the walls (both shown by thick lines in FIGS. 4B and 4C) and the wall excluding the outer contour ((c) of FIG. There is a case 3 in which only the partition portion in the house indicated by a thick line in FIG. In these definitions, unless otherwise specified, it is treated as the normal meaning of case 1.
[0048]
“Outer wall” means only the portion facing the outside of the outer peripheral wall as indicated by a circle in Table 2 (the portion indicated by the outer line of the double line shown in FIG. 4A). And the case 4 which means the entire wall in contact with the outside (the portion indicated by the bold line in FIG. 4B).
[0049]
The “inner wall” is a wall excluding the outer wall (wall = outer wall + inner wall) for both cases 4 and 5, as indicated by a circle in Table 2, but in the case of case 4, the double wall shown in FIG. The part inside the line and the part indicated by a thick line in FIG. 4C, and in the case of the case 5, the part indicated by the thick line in FIG. 4C. Even in these definitions, unless otherwise specified, it is treated as the normal meaning of case 5.
[0050]
Next, a procedure for recognizing architectural drawings (mainly architectural drawings of houses, buildings, etc.) by the architectural drawing recognition apparatus shown in FIG. 1 will be described with reference to the flowcharts of FIGS. 5 to 8 and FIGS. 25 to 30. In FIG. 6 to FIG. 8, each step is indicated by “S”. In this embodiment, it is assumed that the architectural drawing to be recognized is a positive drawing.
[0051]
FIG. 5 is a flowchart showing a main routine of the architectural drawing recognition process. When the processing in FIG. 5 is started, the architectural drawing set in the image reading unit 2 in FIG. 1 is read, the image image data is input, and the skew is automatically corrected by the automatic skew correction unit 5.
[0052]
Then, in the subroutine of Step A, wall recognition processing is executed on the input image data by the dot number measurement array data creation unit 6, the contour / skeleton recognition unit 7, and the like. This process will be described in detail later. In addition, data obtained by encoding image image data may be input from the communication control unit 3.
[0053]
Thereafter, the door recognizing unit 13 extracts individual wall position information in order from the horizontal wall to the vertical wall in the processes of Steps B and C, and proceeds to the processes of Step D to Step K. When the extraction of the wall position information is finished in step B, the analysis of the drawing is finished, the process proceeds to step L, the door recognition result is output, and the process is finished.
Also in step C, after all the types of walls (horizontal wall and vertical wall) have been checked (wall number end), the process returns to step B.
[0054]
In step D, a rectangular area (region) having a unit length (scale size corresponding to 91 cm = half or 100 cm = 1 meter) in both the horizontal and vertical directions as a recognition range with reference to wall coordinates which are wall position information. Set on both sides of the wall.
In Step E, continuous black dot number measurement array data is created based on the wall coordinates of the target area (designated rectangular area). Here, the number of continuous black dots is the continuity of black dots with reference to the wall, but it is necessary to make a condition that includes a certain amount of dot skipping in consideration of blurring and the like.
[0055]
Then, in step F, the black dot count measurement array data is checked in order, and the process proceeds to step G only when it is within an allowable range as a door radius candidate (for example, ¼ or more of the unit length). Further, when the arrangement data is completed, the process proceeds to Step C where the next wall data is extracted.
[0056]
In step G, the method of extracting the shape is performed by checking the expression method of the door (the hinged door, the hinged window). At the tip of the door radius candidate (door plate portion), there is a rise of a 90 ° fan-shaped arc portion. This is measured and assumed to be a radius, and the rising of the other corresponding arc portion is analyzed to extract door shape data based on the center point / radius / door direction of the 90 ° fan shape.
[0057]
In step H, it is determined whether or not the door shape has been extracted. If it has been determined, the process returns to step I. If not, the process returns to step F to extract the next door radius candidate.
In step I, door recognition candidate shape analysis processing is performed based on the door shape extraction data. In other words, the shape analysis is performed by dot search of the fan-shaped arc portion based on the center shape / radius / door direction door shape data from step G.
[0058]
Not all door expression methods can be recognized completely automatically by this architectural drawing recognizing method and recognizing device, and one of the following users of the recognizing device is designated in advance.
[0059]
There are mainly the following three ways to express the door.
(1) 90 ° fan shape in one direction with shape contour
: Planar display as shown in (a) to (d) of FIG.
(2) Shaped contour with 90 ° fan shape in both directions
: Planar display as shown in FIGS. 29 (a) and 29 (b)
(3) A door with a shape outline that includes a door plate in the wall
: Planar display as shown in FIGS. 30 (a) and 30 (b)
[0060]
In step J, it is determined whether or not the result of the door shape analysis corresponds to one of these (OK). If OK, the process proceeds to step K. Return to Step F to extract door radius candidates.
In step K, the door shape data in the center point / radius / door direction is recognized as “door” information, information on the recognition result is stored, and the process returns to step F.
[0061]
The result recognized by performing the processes from step D to step K is output in step L and the process ends. In the process of Step L, the door position and size (shown by triangles in the figure) of the image data shown in FIG. 27 are stored in the memory 4 or the external storage device 11 as the door recognition result from the architectural drawing, or An output such as display on the display unit 9 is performed.
[0062]
FIG. 25 is a display example of image data obtained by re-mapping the input sample source drawing (image image) used for the process of recognizing the core of the wall and extracting the wall information from the result, on the display unit 9.
FIG. 26 is a diagram illustrating an example in which wall information serving as a reference for door recognition is displayed.
FIG. 27 is a diagram showing an example in which the recognition result door is displayed in a triangle.
[0063]
Here, the door recognition process described above will be described more specifically with reference to FIGS.
For example, when the position information (Wv is a part of the vertical wall) of the horizontal wall Wh as shown in FIG. 31 is extracted, the unit length (xu = A rectangular area with a scale size corresponding to yu = 91 cm or 100 cm) is set continuously over its entire length.
[0064]
Then, for each rectangular area, measurement array data (projection histogram) of the number of black dots continuous in the vertical direction for each dot width along the horizontal wall Wh, as in the case of the wall recognition process described later. Create vertical black dot count measurement array data.
If the peak value of the black dot number measurement array data is less than the unit length and falls within the allowable range of 1/4 or more of the unit length, it is regarded as a door radius candidate (indicated by a to f in FIG. 31).
[0065]
As a typical example of the door display in the architectural drawing, as shown in FIG. 32, a circle with a radius of r is divided into four circles by a horizontal line H and a vertical line V passing through the center P, and a quarter circle with an opening angle of 90 degrees. One of the four types of fan shapes.
And as shown to (a), (b) of FIG. 28, one radial line (radius line perpendicular | vertical to the wall 21) of each fan type | mold shows the opening position of the doorplate 20, and the other radial line ( The radius line parallel to the wall 21 indicates the closed position of the door plate 20, but the radial line at the closed position of the door plate 20 may not be shown as shown in FIGS.
[0066]
The radius r indicating the width of the doorboard is generally not more than a unit length (half or 1 meter) and not less than ¼ of the unit length (such as a bay window opening window). Accordingly, when the peak value of the continuous black dot number measurement array data is within the above-described allowable range, it is regarded as a door radius candidate.
[0067]
Next, the shape of the door recognition candidate is extracted. Therefore, as shown in FIG. 33, the base point at the wall position of the black dot number measurement array data regarded as each door radius candidate R is the center point P, and the length is set. Assuming that the radius is r, the presence or absence of an arc image is checked by pattern matching or the like in each of the sections D1 to D3 and D4 to D6 up to r / 3 widths along the wall on both sides.
As a result, when there is a continuous arc image A on the left side of the door radius candidate R, the door opens to the right, and when there is a continuous arc image A on the right side, the door opens to the left side. If there is no arc to be made, it is determined that it is not a door.
[0068]
For example, the a, b, e, and f door radius candidates shown in FIG. 31 are determined to be doors because an arc is found on either the left or right side, and the c or d door radius candidates are on either side. Since no arc is found, it is determined that it is not a door (actually a vertical wall). If the door is determined to be a door, the door shape data of the above-described 90 ° fan-shaped center point P / radius r / door direction (right open / left open) is extracted.
[0069]
Further, depending on the length (radius r), distance and opening direction of a plurality of door radius candidates, not only a single door as shown in FIG. 28 (including a single door) but also a parent and child as shown in FIG. A double door (including a double door) in which the pair of door plates 20a and 20b including the door (the widths of the pair of door plates 20a and 20b are different) can be discriminated.
[0070]
Furthermore, even if the portion of the door plate 20 that is a door radius candidate is included in the wall 21 as shown in FIG. 30, if it is confirmed that there is a continuous arc within the unit width on one side thereof. Can be recognized as a door.
Such door recognition processing is performed for all recognized wall candidates in the horizontal and vertical directions.
[0071]
Next, the wall position recognition processing in step A of FIG. 5 will be described.
FIG. 6 is a flowchart showing the contents of a subroutine of processing for recognizing the wall position. First, in step 3, the entire image data that has been subjected to automatic skew correction is set as an investigation target. In step 4, the nesting variable is 0 (initial value: meaning that the entire image is targeted). “Nested variable” represents a refinement stage when narrowing down the analysis range of architectural drawings from the top down. The larger the value of the nested variable, the deeper the analysis (the more advanced the details).
[0072]
In step 5, processing for limiting the region to be investigated for the wall position is performed. Specifically, an instruction for the investigation area is shown immediately before this processing, and only preparation for the processing of the subsequent steps 6 to 9 (commonization of the interface) is performed here. The shape of each investigation target area is a rectangular diagram. Since the nesting variable is 0 at first, the entire drawing is examined.
[0073]
In step 6, horizontal black dot number measurement array data is created. This counts (measures) the number of black dots in the horizontal direction for each dot width in the vertical direction of the image data, and holds each count data.
Next, in step 7, wall extraction (recognition) processing is performed based on the horizontal black dot number measurement array data created in step 6. The processing procedure will be described later.
[0074]
In step 8, as in step 6, black dot count measurement array data in the vertical direction is created. That is, the number of black dots in the vertical direction is counted (measured) for each dot width in the horizontal direction of the image data, and each count data is held. In step 9, wall extraction (recognition) processing is performed based on the black dot count measurement array data in the vertical direction.
[0075]
In step 10, it is determined whether there is a wall candidate for dividing the region. If there is at least one wall candidate that divides the region in the horizontal or vertical direction, the process proceeds to step 11, and if there is no such wall candidate, the process proceeds to step 13.
For example, it is determined whether there is a wall candidate Wd that divides the region in the investigation target region Sa as shown in FIG.
In step 11, the nested variable is incremented by 1 and reset. This indicates that a wall is recognized from the current analysis region, and the analysis range is limited to a small region within the current region newly delimited using the wall.
[0076]
In step 12, the area to be investigated is subdivided. Specifically, the wall candidate core lines (center lines) recognized in step 7 and step 9 are areas indicated by the core lines indicated by the thin lines of the wall candidates W and Wd, for example, as shown in FIG. Divide into Sa1 and Sa2. Further, the investigation target is positioned in the first subdivided area (for example, the upper left area).
[0077]
The order of analysis in the newly subdivided area group does not require a special order. For example, it may be performed in the order of small x and y coordinate values of the area start position. It is done. FIG. 9B shows an example of the nest No. of each region subdivided by the wall candidate and the analysis processing order thereof, and the solid line indicates the core line (center line) of the wall candidate, and (1) and (2) , {Circle over (3)} indicate a nest No., and small numbers 1 to 8 indicate the processing order.
[0078]
Thereafter, the process returns to step 5 in FIG.
In step 10, if there is no wall candidate to divide the area, the process proceeds to step 13 to check whether there is any remaining homogeneous nest area (area of the same nest No. in FIG. 9B). to decide. If there is a remainder, the investigation target is advanced to the next area of the homogeneous nest in step 15 and the process returns to step 5.
[0079]
If there is no remaining homogeneous nest area, the process proceeds to step 14 to determine whether the nested variable is 0 or not. If the nesting variable is not 0, the nesting variable is decremented by -1 in step 16 and the process returns to the processing of the nesting area one level higher. In step 13, it is determined whether there is a remaining nesting area in that stage. If there is, the investigation object is advanced to the next nested area in step 15 and the process returns to step 5.
[0080]
If the nesting variable is 0 in step 14, the process proceeds to step 17 to determine the position and size of each wall based on the recognition data of the wall candidate for each area obtained in steps 7 and 9, and the wall The recognition data is stored in the memory 4. The storage method will be described later. After the above processing, the subroutine ends.
[0081]
Next, based on FIG. 7, the procedure of the wall extraction (recognition) processing in steps 7 and 9 of FIG. 6 will be described. Prior to that, from the image data of the architectural drawing (house floor plan) and its entire area, Specific examples of the created horizontal and vertical black dot number measurement array data are shown in FIGS. In these drawings, (a) is architectural drawing image data, (b) is horizontal black dot number measurement array data, and (c) is vertical black dot number measurement array data. Further, the vertical black dot number measurement array data shown in FIG. 10C is enlarged and shown in FIG.
[0082]
In the architectural drawing of FIG. 10, the symbol of the wall is represented by both sides of the wall and the core wire, and in the architectural drawing of FIG. 11, the symbol of the wall is represented by a fill (black) within the thickness of the wall. .
In this black dot count measurement array data, the width of the thinnest black line is one dot width, and the length of each black line is horizontal or vertical for each dot width of the architectural drawing image data shown in (a). This corresponds to the count value of the number of black dots in the direction.
[0083]
As is clear from these figures, most of the line segments (90% or more) constituting the architectural drawing are drawn in the horizontal direction or the vertical direction, and the density of black dots is particularly high in the wall portion. . For this reason, in the black dot count measurement array data in the horizontal direction and the vertical direction, a peak appears at the position where the wall exists.
[0084]
When the processing of the flow of FIG. 7 is started, first, in step 21, the direction crossing the specified direction (vertical direction is specified if black dot number measurement array data creation in the horizontal direction is specified, and horizontal direction is specified if the vertical direction is specified. In the direction), it is confirmed how many times the wall recognition processing loop is possible at predetermined intervals corresponding to the standard unit length of the construction drawing.
Here, in the case of a general house, this unit length is a half or 1 meter which is the minimum wall distance, and here it is a half (91 cm).
[0085]
For the horizontal black dot count measurement array data, the width L is set to a size slightly longer than the vertical image width, and for the vertical black dot count measurement array data, it is slightly larger than the horizontal image width. A long dimension is automatically set as a width size L.
In addition, the half size is set to h, and this value is determined by inputting scale data and half length of the drawing in advance or by automatic calculation by calculation.
The width size L and the half size are calculated from h to L / h, and the numerical value rounded up after the decimal point is set as the number n of executions of the large loop of the wall recognition processing. A range indicated by h in FIG. 12 is a processing range in one large loop.
[0086]
Next, in step 22, the count value i of the large loop number counter is initialized (i ← 1).
In step 23, it is determined whether or not the count value i of the number counter exceeds the number n of possible large loop executions (i> n). If so, the analysis of the area is terminated. If not, in step 24, it is positioned at the highest peak (indicated by P in FIG. 12) as the first analysis processing within the i-th half, and that point is designated xp. In this way, by performing the analysis process every half, the possibility that the peak value therein is a part of the wall is high.
[0087]
Next, in step 25, it is determined whether or not the height of the peak (maximum value), which is the first condition as the object of the wall, is equal to or greater than half (h). As a result, when the height of the peak is less than half, it is determined that the wall is unknown, and the process proceeds to step 34 in order to proceed to the next half-half ahead analysis. When the peak height is half or more, the process proceeds to the next analysis step 26. In this step 26, both the left and right sides (for example, 2 W width) are examined from the position of the highest peak, and the range of wall thickness (both positions: W 1 , W 2 And thickness We = | W 1 -W 2 |) Is narrowed down. Here, W means the wall thickness, and is used with the same value as Wmax, for example.
[0088]
As a method of narrowing down, the peak position on both ends or one side of the maximum peak position having a value of (maximum peak value−min) * rate + min or more is set to the position W on both sides of the wall. 1 , W 2 Or the highest peak position xp is the position W on one side of the wall. 1 The position W of the other surface when 2 There is a way to narrow down.
[0089]
FIG. 13 is an explanatory diagram of the narrowing-down process. FIG. 13A shows the positions W on both sides of the wall on both sides of the maximum peak position xp. 1 , W 2 This is an example in the case where exists. In this case, the highest peak position xp is estimated as a candidate for the wall core line position.
[0090]
FIG. 13B shows that the highest peak position xp is the position W of one surface of the wall. 1 The position W of the other surface on one side 2 This is an example in the case where exists. In this case, it can be estimated that the longer peak position is a candidate for the outer wall position of the outer contour indicated by a double line in FIG. 2, and the shorter peak adjacent thereto is a candidate for the inner wall position.
[0091]
Here, rate is set to be smaller in the first half of the analysis (when the value of the nested variable is small) and larger in the second half (when the value of the nested variable is large) (for example, initially rater = 0.70). As shown in FIG. 13 (c), min is the minimum value of the black dot number measurement data within the width of about 4W widened to the left and right sides 2W of the position xp of the maximum peak P of interest.
[0092]
In this manner, the validity of the wall is confirmed in steps 27 and 28 based on the result narrowed down in step 26 of FIG.
First, in step 27, it is determined whether or not the wall thickness We exceeds the maximum value Wmax (for example, 30 cm). If it exceeds, the wall is unknown and the process proceeds to the next halfway analysis. Proceed to If not, the process proceeds to step 28 to determine whether or not the wall thickness We is less than the minimum value Wmin (for example, 2.5 cm).
[0093]
As a result, if the wall thickness We is less than the minimum value Wmin, the process proceeds to step 30; otherwise, the process proceeds to step 29. In step 30, the information is obtained on the assumption that peaks other than walls (for example, tatami mats, windows, sliding doors, etc.) are recognized.
In step 29, whether or not a wall condition is satisfied is determined from a candidate region of the wall by a bisection search method described later, and what can be recognized as a wall is determined on both sides of the wall in step 31. Position W 1 , W 2 Then, information such as the thickness We is saved (stored), and the process proceeds to Step 32.
[0094]
If the condition as a wall is not satisfied in step 29, the process proceeds to step 32. In step 32, the double-sided position (coordinates) W of the wall 1 And W 2 Are both inside the currently processed area, and if inside, proceed to step 33. Otherwise, go to step 34.
[0095]
In step 33, the current processing area is subdivided and the boundary data indicating the new subdivision area is defined as W 1 , W 2 , We are saved (stored). Also, (W 1 + W 2 ) / 2 is the core line position of the wall. In step 34, the count value i of the large loop number counter is incremented by 1 in order to perform the next halfway ahead process, and then the process returns to step 23 to repeat the above-described process.
[0096]
In this way, analysis processing is performed every half from one end (first element) of the target black dot number measurement array data, and when the analysis is completed up to the opposite end, the analysis of the current range is ended. The horizontal direction and the vertical direction are analyzed separately for the black dot count measurement array data, and the next analysis range is limited to a range that can be recognized as a wall in the current analysis.
Therefore, the round robin cases are divided by combining the results of analyzing the horizontal and vertical black dot count measurement array data.
[0097]
In this embodiment, it is considered that the core positions of the walls are arranged so that the interval between the adjacent walls is an integral multiple of a half-half unit.
The range up to which a characteristic peak can be found is effectively used as analysis data. In other words, if no feature corresponding to the wall within a certain range to be analyzed is found in both the horizontal direction and the vertical direction, the analysis is terminated. The analysis range for one time is the entire drawing at first, and then the method is limited to the range delimited by the walls that have been discovered, making it easy to find the peaks of the walls and to analyze the details in detail. To be.
[0098]
Next, the bisection search method for determining whether “the condition as a wall is satisfied” in step 29 of FIG. 7 will be described with reference to the flowchart of FIG.
When the processing of the flow shown in FIG. 8 is started, first, in step 41, an initial setting of the bisection search method is performed.
That is, the number n of area dividing elements for wall analysis is set to 1, k indicating the smallest No. of the array elements of the dividing elements whose wall or non-wall is undetermined is set to 0, and As the divided array elements, the input start and end image addresses are assigned to S [0] and E [0], respectively, to be initialized.
[0099]
Thereafter, the process proceeds to step 42. If the start address S [k] and the end address E [k] of the investigation area are equal, the process proceeds to step 53, and if not equal, the process proceeds to step 43. In step 43, the target region of the image image data is divided to divide the original region into two equal parts, excluding the decimal error.
[0100]
That is, the start and end image addresses S1 and E1 of the first half area to be divided are S1 = S [k], E1 = (1/2) (S [k] + E [k]), and the start and end of the second half area are set. The end image addresses S2 and E2 are set as S2 = (1/2) (S [k] + E [k]) + 1, E2 = E [k].
[0101]
Thereby, as shown in FIG. 14, for example, in the image image data of the construction drawing, the original region width of the line where the wall candidate exists (indicated by the alternate long and short dash line) is initially divided into two equal parts at the position of 1. Thereafter, until the presence or absence of the wall can be discriminated, step 44 and step 44 are performed in the subdivided region by repeating the second equal division such as the second time at the position 2 shown in FIG. 14, the third time at the position 3, and the fourth time at the position 4. Do 45 wall surveys.
In steps 44 and 45, it is checked whether or not the regions P1 and P2 divided into two equal parts are filled with walls, and the process proceeds to step 46.
[0102]
Here, as a result of analyzing the black dot count measurement array data in the specified area (from the start address to the end address), the height of the black dot peak (maintaining the spread of the wall thickness) is the height of the specified area. Compared with the width (length), the following determinations (1) to (3) are made.
[0103]
(1): When 5% or less, v = 0: non-walled
(2): When 95% or more, v = 1: determined as a wall
(3): Other than the above, v = 2: Neither can be judged
This is shown by (1), (2), and (3) in FIG.
[0104]
In step 46, if it is not possible to determine whether or not a wall exists in the first half region P1 divided in step 43 (v = 2), the process proceeds to step 47. Otherwise, the process proceeds to step 49. In step 47, the storage array elements S [k], E [k], v [k] in the area range before dividing in step 43 are used as the latter half area data (start and end image addresses divided in step 43). Replace with S2, E2 and determination result v2).
[0105]
In step 48, the first half area data (start and end image addresses S1, E1 and determination result v1) divided in step 43 are used as new storage array elements S [n], E [n], v [n]. Evacuate and proceed to step 51.
In step 49, the storage array elements S [k], E [k], v [k] in the area range before dividing in step 43 are used as the first half area data (start and end image addresses divided in step 43). Replace with S1, E1 and determination result v1).
[0106]
In step 50, the second half area data (start and end image addresses S2, E2 and determination result v2) divided in step 43 are used as new storage array elements S [n], E [n], v [n]. Evacuate and proceed to step 51.
In step 51, the variable n indicating the new storage array element No. is incremented by 1 so as to indicate the new storage array element of the area address, and then the process proceeds to step 52.
[0107]
In step 52, if the classification code v in the k element indicating the smallest No. of the divided elements whose wall or non-wall is undetermined is a content that does not know whether a wall exists (v = 2) Returns to step 42 and repeats the subdivision process. Otherwise, go to step 53.
In step 53, assuming that one content that does not know whether a wall exists is solved, the index k is incremented by 1, and then the process proceeds to step 54.
[0108]
In step 54, whether or not the number n of area dividing elements for wall analysis is equal to k indicating the smallest No. of the array elements of the dividing elements for which the wall portion or the non-wall portion is undetermined. If it is determined that they are equal, it is determined that the dividing process for wall recognition has been completed, and the process proceeds to step 55. If not equal, return to step 52.
[0109]
In step 55, sorting is performed in the order of start addresses (ascending order) so that the divided area address data (array) are arranged in ascending order, and the process proceeds to step 56. That is, the data of S [0] to S [n-1], E [0] to E [n-1], v [0] to v [n-1] is sorted in ascending order using S [] as a key. To do.
[0110]
In step 56, when the wall portion and the non-wall portion are continuous, the respective reduction processes (represented by one range) are performed, and the process ends. That is, when the continuous v [] values are 0 or 1, the S [], E [] data are compressed.
At this time, when an array element having contents (v = 2) that do not know whether a wall exists is included, if the elements before and after the element indicate a wall, change to wall data, If it indicates a non-wall, it is changed to non-wall data and processed.
[0111]
FIG. 16 shows an analysis example of the wall position in the image data by the above-described bisection search process. In FIG. 16A, a wall image (shaded portion) W and its investigation target area are indicated by broken lines, and this investigation area is along the previously recognized position of the wall candidate. Is set. S [0] = 0 is the first start address of the investigation area, and E [0] = 15 is the first end address. Numbers in the middle of 4, 5, 7, etc. are start or end addresses (both are image addresses) of the target area after division.
[0112]
FIG. 16B shows the determination result v regarding the start address S, the end address E, and the presence / absence of the wall in each investigation stage of the variable n = 1 to 10 and its determination status, sorting status, and degeneration processing. The results are shown together with the value of k. Finally, it is recognized that a wall exists at the image addresses 5 to 12.
[0113]
Next, a wall recognition example of a simple architectural drawing will be described with reference to FIG.
FIG. 17 shows a nested variable (nest) and an actual wall state recognized as a region division state.
First, with the nesting variable = 0, the entire architectural drawing is extracted as a wall position investigation target. As a result, it is assumed that the outline of the house part of the architectural drawing and the positions of the horizontal and vertical wall candidates can be recognized as indicated by a solid line in FIG. However, of the recognized wall candidates, the actual wall is only the part shown in FIG.
[0114]
Therefore, the nest variable = 1 is set, and the wall is extracted by limiting the investigation target area for each rectangular area divided by the core lines of the recognized wall candidates shown in FIG. As a result, a new wall candidate indicated by a thick line is recognized in the four investigation target areas indicated by (1), (2), (3), and (4) in (B), and the previously recognized wall candidates Of these, it is confirmed that the actual wall was only the part shown in (a), and the state of the wall shown in (b) is recognized.
[0115]
Further, with the nesting variable = 2, the four regions {circle around (1)} to {circle around (4)} in which the new wall candidates are recognized in (B) are divided by the newly recognized walls, respectively, and the investigation target region is further divided. Limited wall extraction. As a result, new wall candidates indicated by bold lines are recognized in the two investigation target areas indicated by (5) and (6) in (C), and the wall state shown in (c) is recognized.
[0116]
After that, the nested variable = 3 is set, and the two regions (5) and (6) in which the new wall candidate is recognized in (C) are divided by the newly recognized walls, respectively, and the investigation target region is further divided. Limited wall extraction. As a result, if a new wall candidate could not be extracted in any of the divided areas, the wall position investigation is ended thereby, and it is determined that the wall position shown in (c) is the final wall recognition result. The data is stored in the memory.
[0117]
In this manner, the wall is extracted by subdividing the investigation target area until no new wall candidate is extracted in any of the divided investigation target areas. As a result, even a small wall can be reliably recognized, and a portion where a wall actually exists and a portion where a wall actually does not exist can be accurately determined.
[0118]
Here, an example of a concrete architectural drawing recognition processing procedure according to the flowchart of FIG. 6 described above will be described with reference to FIGS. 18 to 20 are a series of drawings, but are divided into three drawings for convenience of illustration. S3 to S17 in these drawings correspond to the steps S3 to S17 in FIG. In addition, an area division diagram and a real wall state at each stage are also illustrated.
[0119]
In the following description, step is abbreviated as “S”. In S3 of FIG. 18, the entire drawing is set as the object of investigation, and the nested variable is set to 0 in S4. Although the investigation target is limited in S5, since the nested variable is 0, the entire drawing is also the investigation target. In S6 to S7, a horizontal black dot number measurement array data is created and a wall is extracted, but a wall other than the outline cannot be found, and in S8 to S9, a vertical black dot number measurement array data is created and a wall is created. Is extracted and two walls other than the contour are found. Therefore, the answer is YES in S10, the nesting variable is set to 1 in S11, the area is subdivided (at the position of each wall) in S12, the process returns to S5, and the investigation target area is limited to the leftmost area.
[0120]
Then, in S6 to S7, two walls were found. In S8 to S9, the wall was not found, but in S10, the answer is YES. In S11, the nested variable is set to 2 and “nesting processing” is performed. The process is repeatedly executed until the nesting process is completed, and wall extraction processing is sequentially performed on three divided areas obtained by dividing the vertically long area on the left side by two newly found walls.
[0121]
In this example, no new wall is found, and the nesting variable is set to -1 and returned to 1 in S16 of FIG. 19, and the wall is extracted in the same manner with the middle vertically long region as the investigation target region. So no new wall candidates are found.
Therefore, in S15 and S5, the investigation target area is changed to the vertically long area on the right side, and one wall is found in S6 to S7.
[0122]
Therefore, the answer is YES in S10 of FIG. 20, the nested variable is set to 2 in S11 and “nesting processing” is started, and the vertically long area on the right side is divided by the newly found wall, and the wall extraction of each divided area is performed. Processing is performed sequentially. As a result, no new wall is found in any of the divided regions, and NO is determined in S13 and the nesting process is terminated. In S16, the nested variable is set to -1 to 1, but the region of the nested variable 1 does not remain. Therefore, the nested variable is returned to 0, but the area does not remain. Therefore, it is determined that the wall extraction process has been completed, the position and size of each wall are determined based on the wall candidate recognition data extracted in S17, and the data is stored in the memory.
[0123]
Next, information (analysis result data) such as the position and size of the wall corresponding to the outline and skeleton of the architectural drawing recognized as described above is stored in the storage medium of the memory 4 and the external storage device 11 shown in FIG. An example of the contents to be described will be described with reference to FIG.
In FIG. 21, (A) is the number of nests, (B) is specific nest information, (C) horizontal wall information, (D) is vertical wall information, (E) is a horizontal wall model, (F) ) Indicates a vertical wall model.
[0124]
The number of nestings indicates the depth of nesting (parent-child relationship) of child nesting pointers. When no wall is recognized, the number of nestings = 0.
The unique nest information includes a nest No., a NEXT sibling pointer, a child nest pointer, the number of walls (horizontal and vertical directions), and a wall information pointer (horizontal and vertical directions).
[0125]
The NEXT sibling pointer has the next address of the simultaneous hierarchy nesting information. Therefore, the nest No. in the unique nest information at the location indicated by this pointer is the same value as that of the process.
The child nesting pointer has the address of the top data of hierarchical nesting information one level below. Therefore, the nest No. in the specific nest information at the location indicated by the pointer is a value obtained by adding 1 to the value of the process.
[0126]
The horizontal wall information shown in (C) is stored with the address indicated by the horizontal wall information pointer in the unique nest information shown in (B) as the head address.
The wall information includes a NEXT pointer indicating the position of the start address of the next horizontal wall information, wall start point coordinates (x coordinates: a, y coordinates: b), wall horizontal (x direction) size: c, wall Vertical (y direction) size: It consists of wall thickness d. By these a to d, the model of the horizontal wall shown in (E) can be stored and reproduced.
[0127]
Similarly, the vertical wall information shown in (D) is stored with the address indicated by the vertical wall information pointer in the unique nest information as the head address.
The wall information includes a NEXT pointer indicating the position of the start address of the next vertical wall information, wall start point coordinates (x coordinates: e, y coordinates: f), wall vertical (y direction) size: g, wall Horizontal (x direction) size: wall thickness h. By these e to h, the model of the vertical wall shown in (F) can be stored and reproduced.
[0128]
By the way, an example of creating black dot count measurement array data in the horizontal direction and the vertical direction with the entire drawing as an investigation target area is shown in FIG. 10 and FIG. In the next stage of recognizing wall candidates based on the dot count measurement array data, the area of the drawing is divided by the recognized wall candidates, and the number of black dots in the horizontal and vertical directions is measured based on the image data in which the investigation target area is limited. Examples of creating sequence data are shown in FIGS.
[0129]
FIG. 23 and FIG. 24 are examples in which the investigation target area is further subdivided from FIG.
In this way, until no new wall candidate is found, the investigation target area is subdivided, horizontal and vertical black dot number measurement array data based on the image data is created, and the walls are extracted.
[0130]
In this embodiment, since the architectural drawing of the positive image is a recognition target, the number of black dots in the horizontal and vertical directions of the binarized image data is measured (counted) to create black dot number measurement array data. However, when the architectural drawing of the negative image is to be recognized, if the white dot count measurement array data is created by measuring (counting) the number of white dots in the horizontal and vertical directions of the binarized image data, Wall recognition can be performed in the same way.
[0131]
In addition, recognition data regarding the outline and skeleton of the architectural drawing recognized as described above can be converted into CAD vector data, and compatibility of CAD data between different models can be obtained.
[0132]
Then, in the case of a flat display door as shown in FIG. 28 or FIG. 29, in this embodiment, the number of continuous dots having a size corresponding to the door plate portion is extracted from the shape outline made of black dots, and the number of continuous dots is calculated. Assuming that the door radius is a candidate, check its validity and recognize the door. It is conceivable that this can be further linked to the joinery recognition process for the entire drawing.
[0133]
Further, with respect to the flat display door as shown in FIG. 30, paying attention to the leading end of the continuous black dots, and measuring the rising edge of the 90 ° fan-shaped arc part, the door plate part included in the wall is Since the extraction process is performed and the recognition process is performed without a slight misalignment or an accurate 90 ° fan-shaped description, the following advantages are obtained. If the dot structure is thin and weak, the door can be recognized by extracting the number of consecutive dots after performing image expansion focusing on black or white dots in the area.
[0134]
(Advantage 1) Based on the continuous dot number measurement arrangement data taking the size into consideration, the description of the door is made by measuring two 90 ° fan-shaped arc rising portions and recognizing the arc description therein. Recognized surely.
(Advantage 2) Even in drawings that are described in freehand without using a ruler or the like, if the fluctuations of straight lines including not only horizontal and vertical directions but also diagonal straight lines are offset, the shape contours are aligned in the horizontal and vertical directions. You can recognize it if it ’s good.
[0135]
When it is difficult to correct the skew of the architectural drawing in the front direction in the handwritten drawing, the handwritten drawing may be described on a graph paper, and the skew correction may be performed using the grid of the graph paper.
In addition, if it is unavoidable to leave it to the user's manual work, it is advisable to attach a manual that urges attention to create a confronting drawing that does not require skew correction as much as possible when reading the scanner.
[0136]
【The invention's effect】
As described above, according to the method of recognizing a door from an architectural drawing according to the present invention and the apparatus for recognizing a door, a handwriting that has been described in which a line that has been difficult to accurately recognize is interrupted or a straight line is slightly inclined is described. Even from drawings with relatively low contrast, such as blueprints, noisy drawings, old architectural drawings, and other architectural drawings with poor description and image quality, the doors (open doors) together with the position of the walls that form the outline and skeleton , Open window) shape and type can be easily and accurately recognized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an example of an architectural drawing recognition apparatus that implements a method for recognizing a door from an architectural drawing according to the present invention.
2 is a diagram illustrating a display example of image data of a recognition result that is remapped on the display unit 9 of FIG. 1;
FIG. 3 is a diagram showing an example in which input image data of an architectural drawing that has also been skew-corrected is displayed superimposed on image data of a recognition result.
FIG. 4 is a diagram for explaining definitions of an outer contour, an outer wall, an inner wall, and a skeleton in an architectural drawing.
FIG. 5 is a flowchart showing a main routine of architectural drawing recognition processing by the architectural drawing recognition apparatus shown in FIG. 1;
6 is a flowchart showing details of a subroutine for wall position recognition processing in step A in FIG. 5; FIG.
FIG. 7 is a flowchart of a subroutine of wall extraction (recognition) processing of steps 7 and 9 in FIG. 6;
FIG. 8 is a flowchart for executing a bisection search method for recognizing a wall position.
FIG. 9 shows a wall candidate in the investigation target region, a region division example based on the wall candidate, and a nesting No. of a region group subdivided by the wall candidate. It is explanatory drawing which shows an example of the analysis processing order.
FIG. 10 is a diagram showing a specific example of image data of an architectural drawing (house floor plan) and black dot number measurement array data in the horizontal and vertical directions created from the entire area thereof.
FIG. 11 is a diagram showing another specific example.
12 is an enlarged view of the vertical black dot number measurement array data shown in FIG. 10C. FIG.
13 is an explanatory diagram of processing for narrowing both sides of a wall to both sides or one side of a peak in step 26 of FIG. 7;
14 is an explanatory diagram of region width division processing in step 43 of FIG. 8;
FIG. 15 is an explanatory diagram of determination by wall survey of the target area in steps 44 and 45 in FIG. 8;
16 is an explanatory diagram showing an example of analysis of a wall sample (wall candidate) by the two-division search process shown in FIG. 8. FIG.
FIG. 17 is an explanatory diagram of a wall recognition example of a simple architectural drawing according to the present invention.
FIG. 18 is an explanatory diagram showing an example of a concrete architectural drawing recognition processing procedure according to the flowchart of FIG. 5;
FIG. 19 is an explanatory diagram continued from FIG. 18;
FIG. 20 is an explanatory diagram continued from FIG. 19;
FIG. 21 is an explanatory diagram showing an example of the contents of analysis result data stored in a memory.
22 is a diagram showing an example of image data in which a survey target area of the architectural drawing shown in FIG. 10 is limited and horizontal and vertical black dot number measurement array data based on the image data.
FIG. 23 is a diagram showing an example of image data further limiting the investigation target region from FIG. 22 and horizontal and vertical black dot number measurement array data based on the image data.
FIG. 24 is a diagram showing an example of image data of another part in which the investigation target region is further limited from FIG. 22 and horizontal and vertical black dot number measurement array data based on the image data.
25 is a diagram showing a display example of input image data of an architectural drawing for recognition of a mapped door on the display unit 9 of FIG.
FIG. 26 is a diagram showing an example in which recognition results of the outer wall of the house and the partition wall in the house are displayed for the input image data.
27 is a diagram showing an example in which image data of recognition results of the outer wall and the partition wall in the house and the door are superimposed on the input image data of FIG. 25 and displayed.
FIG. 28 is a diagram showing an example of a planar display of a single door in an architectural drawing.
FIG. 29 is a diagram showing an example of a planar display of a double door in an architectural drawing.
FIG. 30 is a diagram showing an example of a flat display in which a door plate portion of a single door in an architectural drawing is included in a wall.
FIG. 31 is an explanatory diagram of a method for searching for a door radius candidate along a horizontal wall.
FIG. 32 is an explanatory diagram for describing types of general door flat display;
FIG. 33 is an explanatory diagram of a process of searching for an arc image within a unit length range on both sides of a door radius candidate.
[Explanation of symbols]
1: Overall control unit (CPU) 2: Image reading unit
3: Communication control unit 4: Memory
5: Automatic skew correction unit
6: Dot number measurement array data creation unit
7: Outline / skeleton recognition unit 8: Re-mapping control unit
9: Display unit 10: Operation input unit
11: External storage device 12: Printing device
13: Door recognition unit 14: Bus

Claims (8)

建築図面の画像を読み取ったイメージ画像データの黒又は白ドットからなる領域内を、家屋の外壁及び家屋内の仕切りとしての壁の位置情報を基準としてその両側の単位長矩形領域に限定し、その限定した各矩形領域内のイメージ画像データの中で前記壁に垂直な方向に連続する黒又は白ドット数を計測して連続ドット数計測配列データをそれぞれ作成し、その作成した連続ドット数計測配列データに基づいてドア半径候補を抽出し、その各ドア半径候補の両側の単位長範囲内での円弧画像の有無を判定して、その円弧画像の位置および前記ドア半径候補の長さによって該ドアの形状及び種類を認識することを特徴とする建築図面からドアを認識する方法。The area consisting of black or white dots of the image image data obtained by reading the image of the architectural drawing is limited to the unit-length rectangular areas on both sides based on the positional information of the outer wall of the house and the wall as a partition in the house. The continuous dot number measurement array is created by measuring the number of black or white dots that are continuous in the direction perpendicular to the wall in the image data within each limited rectangular area, and creating the continuous dot number measurement array data. Candidate door radii are extracted based on the data, the presence / absence of an arc image in the unit length range on both sides of each door radius candidate is determined, and the door is determined based on the position of the arc image and the length of the door radius candidate. A method for recognizing a door from an architectural drawing, characterized by recognizing the shape and type of the door. 請求項1記載の建築図面からドアを認識する方法において、
建築図面の画像を読み取ったイメージ画像データの水平及び垂直方向の黒又は白ドット数を計測して水平方向及び垂直方向のドット数計測配列データを作成し、その作成した両方向のドット数計測配列データに基づいて建築図面の前記壁の位置情報を認識することを特徴とする建築図面からドアを認識する方法。
In the method of recognizing a door from the architectural drawing of Claim 1,
The number of black or white dots in the horizontal and vertical directions of the image image data obtained by reading the image of the architectural drawing is measured to create the horizontal and vertical dot number measurement array data, and the created dot number measurement array data in both directions. A method of recognizing a door from an architectural drawing, comprising recognizing positional information of the wall of the architectural drawing based on the architectural drawing.
建築図面の画像を読み取ったイメージ画像データを入力する画像データ入力手段と、
該手段によって入力したイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平方向及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成手段と、
該手段により作成された各ドット数計測配列データに基づいて家屋の外壁及び家屋内の仕切りとしての壁の位置情報を認識する輪郭・骨格認識手段と、
該手段によって認識された壁の位置情報を基準として、前記イメージ画像データの黒又は白ドットからなる領域内を、前記壁の両側の単位長矩形領域に限定し、その限定した各矩形領域内のイメージ画像データの中で前記壁に垂直な方向に連続する黒又は白ドット数を計測して連続ドット数計測配列データをそれぞれ作成し、その作成した連続ドット数計測配列データに基づいてドア半径候補を抽出し、その各ドア半径候補の両側の単位長範囲内での円弧画像の有無を判定して、その円弧画像の位置および前記ドア半径候補の長さによって該ドアの形状及び種類を認識するドア認識手段と、
を設けたことを特徴とする建築図面からドアを認識する装置。
Image data input means for inputting image image data obtained by reading an image of an architectural drawing;
Dot number measurement array data creating means for measuring the number of black or white dots in the horizontal and vertical directions of the image image data input by the means to create dot number measurement array data in the horizontal and vertical directions;
Contour / skeleton recognition means for recognizing positional information of the outer wall of the house and the wall as a partition in the house based on each dot count measurement array data created by the means;
With reference to the position information of the wall recognized by the means, the area consisting of black or white dots of the image image data is limited to unit-length rectangular areas on both sides of the wall, and each of the limited rectangular areas In the image image data, the number of continuous black or white dots in the direction perpendicular to the wall is measured to create a continuous dot number measurement array data, and a door radius candidate based on the generated continuous dot number measurement array data Is extracted, the presence / absence of an arc image within the unit length range on both sides of each door radius candidate is determined, and the shape and type of the door are recognized based on the position of the arc image and the length of the door radius candidate. Door recognition means;
The apparatus which recognizes a door from the architectural drawing characterized by providing.
前記画像データ入力手段が、建築図面の画像を読み取ってそのイメージ画像データを入力する画像読取手段である請求項3記載の建築図面からドアを認識する装置。4. The apparatus for recognizing a door from an architectural drawing according to claim 3, wherein the image data input means is an image reading means for reading an image of the architectural drawing and inputting the image image data. 前記画像データ入力手段が、建築図面の画像を読み取ったイメージ画像データのランレングスを符号化した符号化画像データを入力する画像データ入力手段であり、前記ドット数計測配列データ作成手段が、前記画像データ入力手段によって入力した符号化画像データから元のイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平方向及び垂直方向のドット数計測配列データを作成する手段であることを特徴とする請求項3記載の建築図面からドアを認識する装置。The image data input means is image data input means for inputting encoded image data obtained by encoding a run length of image image data obtained by reading an image of an architectural drawing, and the dot number measurement array data creation means is the image It is a means for measuring the number of black or white dots in the horizontal direction and the vertical direction of the original image data from the encoded image data input by the data input means, and creating dot number measurement array data in the horizontal direction and the vertical direction. The apparatus which recognizes a door from the architectural drawing of Claim 3 characterized by the above-mentioned . 前記画像データ入力手段が、前記符号化画像データを通信により受信して入力する画像データ受信手段である請求項5記載の建築図面からドアを認識する装置。6. The apparatus for recognizing a door from an architectural drawing according to claim 5, wherein the image data input means is image data receiving means for receiving and inputting the encoded image data by communication. 請求項3乃至6のいずれか一項に記載の建築図面からドアを認識する装置において、前記ドア認識手段による認識結果を表示する表示手段を設けたことを特徴とする建築図面からドアを認識する装置。The apparatus for recognizing a door from the architectural drawing according to any one of claims 3 to 6, wherein a display means for displaying a recognition result by the door recognizing means is provided, and the door is recognized from the architectural drawing. apparatus. 前記表示手段が、前記ドア認識手段による認識結果を前記画像データ入力手段により入力したイメージ画像データと重ね合わせて表示する手段であることを特徴とする請求項7記載の建築図面からドアを認識する装置。8. The door is recognized from an architectural drawing according to claim 7 , wherein the display means is a means for displaying the recognition result by the door recognition means in a superimposed manner with the image image data input by the image data input means. apparatus.
JP26580697A 1997-09-30 1997-09-30 Method and apparatus for recognizing door from architectural drawing Expired - Fee Related JP3645404B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26580697A JP3645404B2 (en) 1997-09-30 1997-09-30 Method and apparatus for recognizing door from architectural drawing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26580697A JP3645404B2 (en) 1997-09-30 1997-09-30 Method and apparatus for recognizing door from architectural drawing

Publications (2)

Publication Number Publication Date
JPH11110548A JPH11110548A (en) 1999-04-23
JP3645404B2 true JP3645404B2 (en) 2005-05-11

Family

ID=17422315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26580697A Expired - Fee Related JP3645404B2 (en) 1997-09-30 1997-09-30 Method and apparatus for recognizing door from architectural drawing

Country Status (1)

Country Link
JP (1) JP3645404B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5013793B2 (en) * 2005-09-20 2012-08-29 福井コンピュータ株式会社 Two-dimensional CAD data processing device, two-dimensional CAD data processing method, two-dimensional CAD data processing program
US8699759B2 (en) * 2009-10-12 2014-04-15 Qualcomm Incorporated Method and apparatus for automated determination of features on an electronic map
CN114297741B (en) * 2021-11-17 2024-12-20 深圳市万翼数字技术有限公司 Masonry wall modeling method, device, equipment and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07234892A (en) * 1993-12-28 1995-09-05 Takenaka Komuten Co Ltd Construction drawing preparing device
JPH08180082A (en) * 1994-12-21 1996-07-12 Takenaka Komuten Co Ltd Construction drawing preparing device
JP3516502B2 (en) * 1995-02-13 2004-04-05 株式会社リコー Construction drawing recognition method and recognition device
JP2945601B2 (en) * 1995-03-06 1999-09-06 日本電信電話株式会社 Interactive drawing input method
JP3224500B2 (en) * 1995-10-05 2001-10-29 日本電信電話株式会社 Drawing recognition method
JP3516540B2 (en) * 1995-10-27 2004-04-05 株式会社リコー Construction drawing recognition method and recognition device
JP3516541B2 (en) * 1995-10-27 2004-04-05 株式会社リコー Method and apparatus for recognizing dimension information of construction drawings
JP3595393B2 (en) * 1995-10-30 2004-12-02 株式会社リコー Construction drawing recognition method and recognition device

Also Published As

Publication number Publication date
JPH11110548A (en) 1999-04-23

Similar Documents

Publication Publication Date Title
Deng et al. Automatic indoor construction process monitoring for tiles based on BIM and computer vision
Phillips et al. Empirical performance evaluation of graphics recognition systems
Gimenez et al. Automatic reconstruction of 3D building models from scanned 2D floor plans
KR20020007172A (en) Computer automated process for analysing and interpreting engineering drawings
JPH08293001A (en) Image processing unit and method and optical character recognition unit and method
CN113742810B (en) Scale identification method and three-dimensional model building system based on copy
CN115640639A (en) Urban updating scheme simulation and cost estimation method based on digital urban design
CN114048535A (en) System and method for generating door and window in CAD wall map layer during map construction
JP3645404B2 (en) Method and apparatus for recognizing door from architectural drawing
JPH09128429A (en) Method for recognizing dimensional numerical value and its device
EP3620941A1 (en) Generating a spatial model of an indoor structure
JP3658468B2 (en) Architectural drawing recognition method and recognition device
JP3961595B2 (en) Architectural drawing recognition method and recognition device
JP3679241B2 (en) Construction drawing recognition method and recognition apparatus
JP3678523B2 (en) Construction drawing recognition method and construction drawing recognition apparatus
JP3648006B2 (en) Toilet recognition method and construction drawing recognition device from construction drawings
JP3516541B2 (en) Method and apparatus for recognizing dimension information of construction drawings
JP3686214B2 (en) Construction drawing recognition method and recognition apparatus
JP3595393B2 (en) Construction drawing recognition method and recognition device
JP3516502B2 (en) Construction drawing recognition method and recognition device
JP3678521B2 (en) Construction drawing recognition method and recognition apparatus
JP3516540B2 (en) Construction drawing recognition method and recognition device
JP3701778B2 (en) Architectural drawing recognition method and architectural drawing recognition device
JP3545481B2 (en) Image recognition method and apparatus
KR20230174318A (en) Method for calculating an approximate estimate from architectural drawings using an artificial intelligence model

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees