[go: up one dir, main page]

JP2020030609A - Property information presentation device, property information presentation method and property information presentation program - Google Patents

Property information presentation device, property information presentation method and property information presentation program Download PDF

Info

Publication number
JP2020030609A
JP2020030609A JP2018155782A JP2018155782A JP2020030609A JP 2020030609 A JP2020030609 A JP 2020030609A JP 2018155782 A JP2018155782 A JP 2018155782A JP 2018155782 A JP2018155782 A JP 2018155782A JP 2020030609 A JP2020030609 A JP 2020030609A
Authority
JP
Japan
Prior art keywords
image
registered
wall
configuration
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018155782A
Other languages
Japanese (ja)
Other versions
JP7213036B2 (en
Inventor
哲史 上野
Tetsushi Ueno
哲史 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lifull Co Ltd
Original Assignee
Lifull Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lifull Co Ltd filed Critical Lifull Co Ltd
Priority to JP2018155782A priority Critical patent/JP7213036B2/en
Publication of JP2020030609A publication Critical patent/JP2020030609A/en
Application granted granted Critical
Publication of JP7213036B2 publication Critical patent/JP7213036B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】間取り図画像がない場合でも、所望される不動産物件の物件情報をユーザに提示することが可能な物件情報提示装置を提供する。【解決手段】ユーザにより指定された指定三次元モデル画像を構成する構成画像の特徴量に基づいて特定構成画像を特定し、特定構成画像と、物件情報データベース321の登録画像のそれぞれと、の間の第1類似度を算出し、第1類似度が閾値以上である場合に、特定構成画像に対して既定の位置関係にある関係構成画像と、第1類似度が第1閾値以上であった第1登録画像に対してその位置関係にある登録画像と、の間の第2類似度を算出し、第2類似度が既定の第2閾値以上である場合に、第1登録画像と、第2類似度が第2閾値以上であった第2登録画像と、を有する不動産物件の画像を物件情報データベース321において特定し、その特定された類似画像を含む物件情報をユーザに提示する。【選択図】図4PROBLEM TO BE SOLVED: To provide a property information presenting device capable of presenting property information of a desired real estate property to a user even when there is no floor plan image. SOLUTION: A specific constituent image is specified based on a feature amount of a constituent image constituting a designated three-dimensional model image designated by a user, and between the specific constituent image and each of the registered images of the property information database 321. When the first similarity is equal to or greater than the threshold value, the relationship constituent image having a predetermined positional relationship with respect to the specific constituent image and the first similarity degree are equal to or greater than the first threshold value. The second similarity between the first registered image and the registered image having the positional relationship is calculated, and when the second similarity is equal to or higher than the default second threshold value, the first registered image and the first registered image are calculated. 2 An image of a real estate property having a second registered image whose similarity is equal to or higher than the second threshold is specified in the property information database 321, and property information including the specified similar image is presented to the user. [Selection diagram] Fig. 4

Description

本発明は、不動産物件の物件情報をユーザに提示する物件情報提示装置等の技術分野に属する。   The present invention belongs to a technical field such as a property information presentation device that presents property information of a real estate property to a user.

不動産物件を選ぶ場合、一般的には、不動産仲介業者の店舗で間取り図を見ながら不動産物件を選び、選んだ不動産物件を内覧等することにより、最終的に所望の不動産物件を選ぶことが行われる。このとき、内覧にわざわざ行くことなく、例えばホームページ上でその不動産物件の内部を見ることができれば、便利である。そして、ホームページ上で不動産物件の内部を見る場合、それを三次元化した立体的な画像として見ることができれば、実際の部屋をより明確に想像することができ、不動産物件選びもより容易になる。   In general, when selecting a real estate property, it is generally necessary to select a real estate property while looking at a floor plan at a real estate agent's store and to preview the selected real estate property, thereby finally selecting a desired real estate property. Is At this time, it is convenient if it is possible to see the inside of the real estate on a homepage, for example, without going to the preview. And when you look at the inside of a real estate property on the homepage, if you can see it as a three-dimensional image, you can imagine the actual room more clearly and it will be easier to select a real estate property .

このような不動産物件選びに関する従来技術を開示する先行技術文献としては、例えば下記特許文献1が挙げられる。この特許文献1に開示されている従来技術では、間取り図画像に基づいて間取り情報を生成する間取り識別部と、間取り情報を用いて三次元モデルを生成するモデル生成部と、を備える構成となっている。   As a prior art document that discloses such a conventional technology regarding the selection of a real estate property, for example, Patent Document 1 below is cited. The conventional technique disclosed in Patent Document 1 has a configuration including a floor plan identification unit that generates floor plan information based on a floor plan image, and a model generation unit that generates a three-dimensional model using the floor plan information. ing.

特許第6116746号Patent No. 6116746

しかしながら、特許文献1に開示された従来技術では、間取り図画像を用いることが前提とされており、当該間取り図画像が取得できない場合は、その不動産物件についての三次元モデルが生成できず、結果的に所望される不動産物件選びもできないことになる。   However, the conventional technology disclosed in Patent Document 1 is based on the premise that a floor plan image is used. If the floor plan image cannot be acquired, a three-dimensional model of the real estate cannot be generated, and It is impossible to select a desired real estate property.

そこで、本発明は、上記の点等に鑑みてなされたものであり、その課題の一例は、間取り図画像がない場合でも、所望される不動産物件の物件情報をユーザに提示することが可能な物件情報提示装置、物件情報提示方法及び物件情報提示プログラムを提供することにある。   Therefore, the present invention has been made in view of the above points and the like, and an example of the problem is that it is possible to present property information of a desired real estate property to a user even when there is no floor plan image. It is to provide a property information presentation device, a property information presentation method, and a property information presentation program.

上記の課題を解決するために、請求項1に記載の発明は、不動産物件の画像が、複数の当該不動産物件ごとに登録画像として登録されたデータベースにアクセス可能な物件情報提供装置であって、ユーザにより指定された三次元モデル画像である指定三次元モデル画像を含む検索要求を取得する取得手段と、前記指定三次元モデル画像を構成する構成画像それぞれの特徴量に基づいて、特定の当該構成画像を特定構成画像として特定する第1特定手段と、前記特定された特定構成画像と、前記登録画像のそれぞれと、の間の第1類似度を算出する第1算出手段と、前記算出された第1類似度が予め設定された第1閾値以上である場合に、前記構成画像のうち前記特定構成画像に対して予め設定された位置関係にある関係構成画像と、前記算出された第1類似度が前記第1閾値以上であった前記登録画像である第1登録画像に対して前記位置関係にある前記登録画像と、の間の第2類似度を算出する第2算出手段と、前記算出された第2類似度が予め設定された第2閾値以上である場合に、前記第1登録画像と、前記算出された第2類似度が前記第2閾値以上であった前記登録画像である第2登録画像と、を有する前記不動産物件の画像を、類似画像として前記データベースにおいて特定する第2特定手段と、前記特定された類似画像を含む物件情報を、前記検索要求に対応する検索結果として前記ユーザに提示する提示手段と、を備える。   In order to solve the above-mentioned problem, the invention according to claim 1 is a property information providing apparatus that allows an image of a real estate property to access a database registered as a registration image for each of the plurality of real estate properties, An acquisition unit that acquires a search request including a designated three-dimensional model image that is a three-dimensional model image designated by a user; and a specific configuration based on a feature amount of each of the constituent images constituting the designated three-dimensional model image. First specifying means for specifying an image as a specific constituent image; first calculating means for calculating a first similarity between the specified specific constituent image and each of the registered images; When the first similarity is equal to or greater than a preset first threshold value, a relational constituent image having a predetermined positional relationship with respect to the specific constituent image among the constituent images; A second calculation for calculating a second similarity between the registered image having the positional relationship with the first registered image, which is the registered image whose first similarity obtained is equal to or greater than the first threshold value Means, wherein the first registered image and the calculated second similarity are equal to or greater than the second threshold when the calculated second similarity is equal to or greater than a preset second threshold. A second specifying unit that specifies, as a similar image, the image of the real estate article having the second registered image that is a registered image in the database; and the property information including the specified similar image corresponds to the search request. Presenting means for presenting the search result to the user.

この発明によれば、間取り図画像がない場合でも、ユーザが指定する三次元モデル画像を用いて、所望される不動産物件の物件情報を当該ユーザに提示することができる。   According to the present invention, even when there is no floor plan image, it is possible to present the property information of a desired real estate property to the user using the three-dimensional model image designated by the user.

請求項2に記載の発明は、請求項1に記載の物件情報提示装置において、前記第1特定手段は、複数の前記構成画像のうち、前記特徴量が最も大きい構成画像を前記特定構成画像として特定するように構成される。   According to a second aspect of the present invention, in the property information presentation device according to the first aspect, the first specifying unit sets, as the specific configuration image, a configuration image having the largest feature amount among a plurality of the configuration images. Configured to identify.

この発明によれば、所望される不動産物件により近い不動産物件の物件情報を当該ユーザに提示することができる。   According to the present invention, property information of a real estate property closer to a desired real estate property can be presented to the user.

請求項3に記載の発明は、請求項1又は請求項2に記載の物件情報提示装置において、前記第1特定手段は、複数の前記構成画像間における各前記特徴量の相対値に基づいて前記特定構成画像を特定するように構成される。   According to a third aspect of the present invention, in the property information presenting apparatus according to the first or second aspect, the first specifying unit is configured to perform the determination based on a relative value of each of the feature amounts among a plurality of the constituent images. It is configured to specify the specific constituent image.

この発明によれば、所望される不動産物件により近い不動産物件の物件情報を当該ユーザに提示することができる。   According to the present invention, property information of a real estate property closer to a desired real estate property can be presented to the user.

請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の物件情報提示装置において、前記特定構成画像は、前記指定三次元モデル画像を構成する構成壁画像それぞれの前記特徴量に基づいて特定された特定構成壁画像であり、前記登録画像は、前記不動産物件の画像を構成する登録壁画像のそれぞれであり、前記関係構成画像は、前記構成壁画像のうち前記特定構成壁画像に相隣接する構成壁画像であり、前記第1登録画像は、前記算出された第1類似度が前記第1閾値以上であった前記登録壁画像であり、前記第2登録画像は、前記算出された第2類似度が前記第2閾値以上であった前記登録壁画像であるように構成される。   According to a fourth aspect of the present invention, in the property information presenting apparatus according to any one of the first to third aspects, the specific configuration image is a configuration wall image that configures the designated three-dimensional model image. The specific constituent wall image specified based on the feature amount, the registered image is each of the registered wall images forming the image of the real estate article, and the related constituent image is the constituent wall image among the constituent wall images. The first registered image is a constituent wall image adjacent to the specific constituent wall image, and the first registered image is the registered wall image whose calculated first similarity is equal to or greater than the first threshold, and the second registered image Is configured to be the registered wall image whose calculated second similarity is equal to or greater than the second threshold.

この発明によれば、画像としての特徴量を取得し易い壁画像を用いることで、所望される不動産物件により近い不動産物件の物件情報を的確にユーザに提示することができる。   According to the present invention, the property information of the real estate property closer to the desired real estate property can be accurately presented to the user by using the wall image from which the feature amount as the image can be easily obtained.

請求項5に記載の発明は、請求項1から請求項3のいずれか一項に記載の物件情報提示装置において、前記特定構成画像は、前記指定三次元モデル画像を構成する構成壁画像又は構成天井画像それぞれの前記特徴量に基づいて特定された特定構成壁画像又は特定構成天井画像であり、前記登録画像は、前記不動産物件の画像を構成する登録壁画像又は登録天井画像のそれぞれであり、前記関係構成画像は、前記構成壁画像又は前記構成天井画像のうち前記特定構成画像に相隣接する構成壁画像又は構成天井画像であり、前記第1登録画像は、前記算出された第1類似度が前記第1閾値以上であった前記登録壁画像又は前記登録天井画像であり、前記第2登録画像は、前記算出された第2類似度が前記第2閾値以上であった前記登録壁画像又は前記登録天井画像であるように構成される。   According to a fifth aspect of the present invention, in the property information presentation device according to any one of the first to third aspects, the specific configuration image is a configuration wall image or a configuration that configures the designated three-dimensional model image. The specific configuration wall image or the specific configuration ceiling image specified based on the feature amount of each ceiling image, the registered image is a registered wall image or a registered ceiling image configuring the image of the real estate, respectively. The related constituent image is a constituent wall image or a constituent ceiling image adjacent to the specific constituent image in the constituent wall image or the constituent ceiling image, and the first registered image is the calculated first similarity. Is the registered wall image or the registered ceiling image that is equal to or greater than the first threshold, and the second registered image is the registered wall image in which the calculated second similarity is equal to or greater than the second threshold. Serial configured to be registered ceiling image.

この発明によれば、画像としての特徴量を比較的取得し易い壁画像及び天井画像を用いることで、所望される不動産物件により近い不動産物件の物件情報を的確にユーザに提示することができる。   According to the present invention, it is possible to accurately present the property information of a real estate property closer to a desired real estate property to the user by using the wall image and the ceiling image from which the feature amount as an image is relatively easy to obtain.

請求項6に記載の発明は、請求項1から請求項5のいずれか一項に記載の物件情報提示装置において、前記算出された第2類似度が前記第2閾値以上である場合に、前記構成画像のうち前記特定構成画像に対して予め設定された第2位置関係にある第2関係構成画像と、前記第1登録画像に対して前記第2位置関係にある前記登録画像と、の間の第3類似度を算出する第3算出手段を更に備え、前記算出された第2類似度が前記第2閾値以上である場合に、前記第2特定手段は、前記第1登録画像と、前記第2登録画像と、前記算出された第3類似度が予め設定された第3閾値以上である前記登録画像である第3登録画像と、を有する前記不動産物件の画像を前記類似画像として特定するように構成される。   According to a sixth aspect of the present invention, in the property information presentation device according to any one of the first to fifth aspects, when the calculated second similarity is equal to or greater than the second threshold, Between a second related constituent image having a second positional relationship set in advance with respect to the specific constituent image among the constituent images, and the registered image having the second positional relationship with respect to the first registered image. A third calculating unit that calculates a third similarity of the first registered image, the second specifying unit, when the calculated second similarity is equal to or more than the second threshold, The image of the real estate having the second registered image and the third registered image, which is the registered image in which the calculated third similarity is equal to or greater than a predetermined third threshold, is specified as the similar image. It is configured as follows.

この発明によれば、三つの登録画像を用いることで、所望される不動産物件に更に近い不動産物件の物件情報を的確にユーザに提示することができる。   According to the present invention, by using three registered images, property information of a real estate property closer to a desired real estate property can be accurately presented to the user.

請求項7に記載の発明は、請求項6に記載の物件情報提供装置において、前記特定構成画像は、前記指定三次元モデル画像を構成する構成壁画像それぞれの前記特徴量に基づいて特定された特定構成壁画像であり、前記登録画像は、前記不動産物件の画像を構成する登録壁画像のそれぞれであり、前記関係構成画像は、前記構成壁画像のうち前記特定構成画像に相隣接する構成壁画像であり、前記第1登録画像は、前記算出された第1類似度が前記第1閾値以上であった前記登録壁画像であり、前記第2登録画像は、前記算出された第2類似度が前記第2閾値以上であった前記登録壁画像であり、前記第2関係構成画像は、前記構成壁画像のうち、前記第2位置関係で前記特定構成画像に接する構成壁画像であり、前記第3登録画像は、前記算出された第3類似度が前記第3閾値以上であった前記登録壁画像であるように構成される。   According to a seventh aspect of the present invention, in the property information providing device according to the sixth aspect, the specific configuration image is specified based on each of the characteristic amounts of the configuration wall images constituting the designated three-dimensional model image. The specific configuration wall image, wherein the registered image is each of the registered wall images configuring the image of the real estate property, and the relational configuration image is a configuration wall adjacent to the specific configuration image in the configuration wall image. The first registered image is the registered wall image whose calculated first similarity is greater than or equal to the first threshold, and the second registered image is the calculated second similarity Is the registered wall image that is greater than or equal to the second threshold value, and the second related constituent image is a constituent wall image that is in contact with the specific constituent image in the second positional relationship among the constituent wall images, The third registered image is The third degree of similarity issued configured such that the registration wall image was the third threshold value or more.

この発明によれば、画像としての特徴量を取得し易い壁画像を用いることで、所望される不動産物件に更に近い不動産物件の物件情報を的確にユーザに提示することができる。   According to the present invention, by using a wall image from which a feature amount as an image can be easily obtained, property information of a real estate property closer to a desired real estate property can be accurately presented to the user.

請求項8に記載の発明は、請求項6に記載の物件情報提示装置において、前記特定構成画像は、前記指定三次元モデル画像を構成する構成壁画像又は構成天井画像それぞれの前記特徴量に基づいて特定された特定構成壁画像又は特定構成天井画像であり、前記登録画像は、前記不動産物件の画像を構成する登録壁画像又は登録天井画像のそれぞれであり、前記関係構成画像は、前記構成壁画像又は前記構成天井画像のうち前記特定構成画像に相隣接する構成壁画像又は構成天井画像であり、前記第1登録画像は、前記算出された第1類似度が前記第1閾値以上であった前記登録壁画像又は前記登録天井画像であり、前記第2登録画像は、前記算出された第2類似度が前記第2閾値以上であった前記登録壁画像又は前記登録天井画像であり、前記第2関係構成画像は、前記構成壁画像又は前記構成天井画像のうち、前記第2位置関係で前記特定構成画像に接する構成壁画像又は構成天井画像であり、前記第3登録画像は、前記算出された第3類似度が前記第3閾値以上であった前記登録壁画像又は前記登録天井画像であるように構成される。   The invention according to claim 8 is the property information presentation device according to claim 6, wherein the specific configuration image is based on the feature amount of each of the configuration wall image or the configuration ceiling image configuring the designated three-dimensional model image. The specific configuration wall image or the specific configuration ceiling image specified in the above, the registered image is a registered wall image or a registered ceiling image configuring the image of the real estate, respectively, and the related configuration image is the configuration wall. The constituent wall image or the constituent ceiling image adjacent to the specific constituent image in the image or the constituent ceiling image, and in the first registered image, the calculated first similarity is equal to or greater than the first threshold. The registered wall image or the registered ceiling image, wherein the second registered image is the registered wall image or the registered ceiling image in which the calculated second similarity is equal to or greater than the second threshold. The second related configuration image is a configuration wall image or a configuration ceiling image that is in contact with the specific configuration image in the second positional relationship among the configuration wall images or the configuration ceiling images, and the third registered image is the calculated It is configured to be the registered wall image or the registered ceiling image whose third similarity obtained is equal to or larger than the third threshold value.

この発明によれば、画像としての特徴量を比較的取得し易い壁画像及び天井画像を用いることで、所望される不動産物件に更に近い不動産物件の物件情報を的確にユーザに提示することができる。   According to the present invention, by using the wall image and the ceiling image in which the feature amount as the image is relatively easy to obtain, it is possible to accurately present the property information of the real estate nearer to the desired real estate to the user. .

請求項9に記載の発明は、請求項1から請求項8のいずれか一項に記載の物件情報提示装置において、前記データベースには、前記不動産物件を三次元モデル化した三次元モデル画像である登録三次元モデル画像と、前記不動産物件の写真画像である登録写真画像と、が、それぞれ前記登録画像として前記複数の不動産物件ごとに登録されており、前記第2特定手段は、前記登録三次元モデル画像又は前記登録写真画像の少なくともいずれか一方を前記類似画像として特定するように構成される。   According to a ninth aspect of the present invention, in the property information presentation apparatus according to any one of the first to eighth aspects, the database includes a three-dimensional model image of the real estate property in a three-dimensional model. A registered three-dimensional model image and a registered photographic image, which is a photographic image of the real estate, are registered as the registered images for each of the plurality of real estates, and the second specifying means is configured to register the registered three-dimensional model. At least one of a model image and the registered photographic image is specified as the similar image.

この発明によれば、登録三次元モデル画像又は写真画像の少なくともいずれか一方を用いることで、所望される不動産物件に近い不動産物件の物件情報を的確にユーザに提示することができる。   According to the present invention, by using at least one of the registered three-dimensional model image and the photograph image, it is possible to accurately present the property information of the real estate near the desired real estate to the user.

請求項10に記載の発明は、不動産物件の画像が、複数の当該不動産物件ごとに登録画像として登録されたデータベースにアクセス可能なコンピュータに、ユーザにより指定された三次元モデル画像である指定三次元モデル画像を含む検索要求を取得するステップと、前記指定三次元モデル画像を構成する構成画像それぞれの特徴量に基づいて、特定の当該構成画像を特定構成画像として特定するステップと、前記特定された特定構成画像と、前記登録画像のそれぞれと、の間の第1類似度を算出するステップと、前記算出された第1類似度が予め設定された第1閾値以上である場合に、前記構成画像のうち前記特定構成画像に対して予め設定された位置関係にある関係構成画像と、前記算出された第1類似度が前記第1閾値以上であった前記登録画像である第1登録画像に対して前記位置関係にある前記登録画像と、の間の第2類似度を算出するステップと、前記算出された第2類似度が予め設定された第2閾値以上である場合に、前記第1登録画像と、前記算出された第2類似度が前記第2閾値以上であった前記登録画像である第2登録画像と、を有する前記不動産物件の画像を、類似画像として前記データベースにおいて特定するステップと、前記特定された類似画像を含む物件情報を、前記検索要求に対応する検索結果として前記ユーザに提示するステップと、を実行させる。   According to a tenth aspect of the present invention, the image of the real estate property is a designated three-dimensional model image designated by a user on a computer capable of accessing a database registered as a registered image for each of the plurality of real estate properties. Obtaining a search request including a model image; identifying the specific constituent image as a specific constituent image based on a feature amount of each of the constituent images constituting the specified three-dimensional model image; and Calculating a first similarity between the specific constituent image and each of the registered images; and, when the calculated first similarity is equal to or greater than a first threshold set in advance, the constituent image Among the related constituent images having a predetermined positional relationship with respect to the specific constituent image, and before the calculated first similarity is equal to or greater than the first threshold. Calculating a second similarity between the first registered image that is a registered image and the registered image that is in the positional relationship, and a second threshold value in which the calculated second similarity is set in advance In the case of the above, the image of the real estate article having the first registered image and the second registered image that is the registered image whose calculated second similarity is equal to or more than the second threshold value, A step of specifying the similar image in the database and a step of presenting the property information including the specified similar image to the user as a search result corresponding to the search request are executed.

請求項11に記載の発明は、不動産物件の画像が、複数の当該不動産物件ごとに登録画像として登録されたデータベースにアクセス可能なコンピュータにより実行される物件情報提示方法であって、ユーザにより指定された三次元モデル画像である指定三次元モデル画像を含む検索要求を取得するステップと、前記指定三次元モデル画像を構成する構成画像それぞれの特徴量に基づいて、特定の当該構成画像を特定構成画像として特定するステップと、前記特定された特定構成画像と、前記登録画像のそれぞれと、の間の第1類似度を算出するステップと、前記算出された第1類似度が予め設定された第1閾値以上である場合に、前記構成画像のうち前記特定構成画像に対して予め設定された位置関係にある関係構成画像と、前記算出された第1類似度が前記第1閾値以上であった前記登録画像である第1登録画像に対して前記位置関係にある前記登録画像と、の間の第2類似度を算出するステップと、前記算出された第2類似度が予め設定された第2閾値以上である場合に、前記第1登録画像と、前記算出された第2類似度が前記第2閾値以上であった前記登録画像である第2登録画像と、を有する前記不動産物件の画像を、類似画像として前記データベースにおいて特定するステップと、前記特定された類似画像を含む物件情報を、前記検索要求に対応する検索結果として前記ユーザに提示するステップと、を含む。   The invention according to claim 11 is a property information presenting method executed by a computer capable of accessing a database registered as a registered image for each of a plurality of real estate properties, wherein the image of the real estate property is specified by a user. Obtaining a search request including the designated three-dimensional model image, which is the designated three-dimensional model image, and, based on the feature amount of each of the constituent images constituting the designated three-dimensional model image, identifying the specific constituent image as a specific constituent image And calculating a first similarity between the specified specific constituent image and each of the registered images; and calculating the first similarity calculated in advance as a first similarity. If not less than a threshold value, a relational constituent image having a predetermined positional relationship with respect to the specific constituent image among the constituent images, Calculating a second similarity between the first registered image, which is the registered image whose first similarity is equal to or greater than the first threshold, and the registered image in the positional relationship with the first registered image; The first registered image and the second registered image having the calculated second similarity greater than or equal to the second threshold when the second similarity is greater than or equal to a second threshold set in advance. Specifying the image of the real estate article having the registered image in the database as a similar image, and presenting the property information including the specified similar image to the user as a search result corresponding to the search request. Step.

本発明によれば、ユーザが指定する三次元モデル画像を用いて、所望される不動産物件の物件情報を当該ユーザに提示することができる。   According to the present invention, property information of a desired real estate property can be presented to the user using the three-dimensional model image specified by the user.

本実施形態の情報提供システムの概要構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a schematic configuration of an information providing system according to an embodiment. 本実施形態の物件情報データベースに登録されている情報の一例を示す図である。It is a figure showing an example of the information registered into the property information database of this embodiment. (A)は本実施形態の二次元の間取りを例示する図である。(B)は本実施形態の基準データデータベースに登録されているデータの一例を示す図である。(A) is a figure which illustrates the two-dimensional floor plan of this embodiment. (B) is a diagram showing an example of data registered in the reference data database of the present embodiment. 本実施形態のシステム制御部の機能ブロックの一例を示す図である。It is a figure showing an example of a functional block of a system control part of this embodiment. 本実施形態の室内画像を例示する図である。It is a figure which illustrates the indoor image of this embodiment. (A)は本実施形態の境界線抽出を例示する図である。(B)は本実施形態の距離算出を示す概念図である。(A) is a figure which illustrates border line extraction of this embodiment. (B) is a conceptual diagram showing the distance calculation of the present embodiment. (A)は本実施形態の歪み補正前の画像を例示する図である。(B)は実施形態の歪み補正後の画像を例示する図である。(C)は実施形態の三次元モデルを構成する六面図を例示する図である。FIG. 2A is a diagram illustrating an image before distortion correction according to the embodiment. FIG. 2B is a diagram illustrating an image after distortion correction according to the embodiment. (C) is a figure which illustrates the six-view figure which comprises the three-dimensional model of embodiment. (A)は本実施形態の室内空間画像を例示する概念図である。(B)は実施形態の室内空間画像の接続を例示する概念図である。(A) is a conceptual diagram illustrating an indoor space image of the present embodiment. (B) is a conceptual diagram illustrating the connection of the indoor space image of the embodiment. 本実施形態の間取り画像データの作成及び間取り画像の表示に用いられる間取り作成/表示ページの一例を示す図である。It is a figure showing an example of a floor plan creation / display page used for generation of floor plan image data and display of a floor plan image of the embodiment. 本実施形態の物件情報が掲載された物件情報掲載ページの一例を示す図である。It is a figure showing an example of the article information publication page where article information of this embodiment was published. (A)は本実施形態の三次元の間取り画像データの作成処理を例示する図(I)である。(B)は当該作成処理を例示する図(II)である。FIG. 2A is a diagram (I) illustrating a process of creating three-dimensional floor plan image data according to the present embodiment. (B) is a diagram (II) illustrating the creation process. (A)は本実施形態の三次元の間取り画像データの作成処理を例示する図(III)である。(B)は当該作成処理を例示する図(IV)である。(A) is a figure (III) which illustrates the creation processing of three-dimensional floor plan image data of the present embodiment. (B) is a diagram (IV) illustrating the creation processing. (A)は本実施形態の検索処理を説明する図(I)である。(B)は当該検索処理を説明する図(II)である。(A) is a diagram (I) illustrating a search process of the present embodiment. (B) is a diagram (II) illustrating the search processing. (A)は本実施形態の物件情報生成処理の全体を示すシーケンス図である。(B)は当該物件情報生成処理の細部を示すフローチャートである。(A) is a sequence diagram showing the whole property information generation processing of the present embodiment. (B) is a flowchart showing details of the property information generation processing. 本実施形態の三次元の間取り画像の生成処理を示すシーケンス図である。FIG. 4 is a sequence diagram illustrating a process of generating a three-dimensional floor plan image according to the embodiment. 本実施形態の検索処理を示すシーケンス図である。FIG. 9 is a sequence diagram illustrating a search process according to the embodiment.

以下、図面を参照して本発明の一実施形態について詳細に説明する。なお、以下に説明する実施の形態は、不動産物件の間取り画像を表示するための間取り画像データを含む物件情報をユーザが使用する端末に提供する情報提供システムに対して本発明を適用した場合の実施形態である。なお、本実施形態の不動産とは、例えば、建物及び土地などの不動産である。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. Note that the embodiment described below is a case where the present invention is applied to an information providing system that provides property information including floor plan image data for displaying a floor plan image of a real estate property to a terminal used by a user. It is an embodiment. The real estate of the present embodiment is, for example, real estate such as buildings and land.

[1.情報提供システムの構成及び機能]
先ず、図1を参照して、本発明の一実施形態の情報提供システムの構成及び機能について説明する。なお、図1は、本実施形態の情報提供システムの概要構成の一例を示す図である。
[1. Configuration and Function of Information Providing System]
First, the configuration and functions of an information providing system according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a schematic configuration of the information providing system according to the present embodiment.

図1に示すように、本実施形態の情報提供システムSは、一般消費者端末1−1、一般消費者端末1−2、…、一般消費者端末1−n(nは自然数)、及び、例えば不動産仲介業者に使用される全天球カメラC1、全天球カメラC2、…、全天球カメラCm(mは自然数)、並びに情報提供サーバ3(本発明における「物件情報提示装置」の一例)等を備えて構成されている。なお、以下の説明において、一般消費者端末1−1、一般消費者端末1−2、…、一般消費者端末1−nについて共通の事項を説明する場合、これらを纏めて「一般消費者端末1」と称する。また、以下の説明において、全天球カメラC1、全天球カメラC2、…、全天球カメラCmに共通の構成及び動作等を説明する場合、これらを纏めて単に「全天球カメラC」と称する。上記不動産仲介業者とは、一般消費者(顧客。本発明における「ユーザ」の一例。)が例えば不動産物件を購入したり借りたりする場合に、その仲介を行う業者である。不動産仲介業者は、不動産物件自体を所有/管理する管理会社から不動産物件の内容を示す物件情報を取得し、これに基づいて、一般消費者に当該不動産物件を紹介等する。この不動産仲介業者は、街で多く見かける不動産業者である。各一般消費者端末1、及び各全天球カメラCは、それぞれ、ネットワークNWを介して情報提供サーバ3と通信可能になっている。ネットワークNWは、例えば、電話用回線交換ネットワーク、及びインターネットに接続するためのデータ通信用パケット交換ネットワークを含む。   As shown in FIG. 1, the information providing system S of the present embodiment includes a general consumer terminal 1-1, a general consumer terminal 1-2,..., A general consumer terminal 1-n (n is a natural number), and For example, the omnidirectional camera C1, the omnidirectional camera C2,..., The omnidirectional camera Cm (m is a natural number) used by the real estate agent, and the information providing server 3 (an example of the “property information presenting device” in the present invention) ) And the like. In the following description, when common items are described for the general consumer terminal 1-1, the general consumer terminal 1-2,..., The general consumer terminal 1-n, these are collectively referred to as “general consumer terminal. 1 ". Further, in the following description, when a configuration and operation common to the omnidirectional camera C1, the omnidirectional camera C2,..., The omnidirectional camera Cm are described, these are collectively referred to simply as “omnidirectional camera C”. Called. The real estate agent is an agent that mediates, for example, when a general consumer (customer; an example of a “user” in the present invention) purchases or rents a real estate property. The real estate broker acquires property information indicating the contents of the real estate property from a management company that owns / manages the real estate property itself, and introduces the real estate property to general consumers based on the property information. This real estate agent is a real estate agent that is often found in towns. Each general consumer terminal 1 and each omnidirectional camera C can communicate with the information providing server 3 via the network NW. The network NW includes, for example, a telephone circuit switching network and a data communication packet switching network for connecting to the Internet.

[1−1.全天球カメラの構成及び機能]
次に、全天球カメラCの構成及び機能について説明する。図1に示す構成において、全天球カメラCは、それが使用される不動産仲介業者等により、販売又は賃貸の対象となる上記不動産物件内の室内空間の一つ内に設置される。このとき、当該「室内空間」とは、その不動産物件を構成する部屋、廊下又は玄関等のいずれかをいう。そして、全天球カメラCは、それが設置されている室内空間を全方位で撮像したパノラマ画像(即ち全天球画像)に相当する室内画像データを生成し、ネットワークNW経由で情報提供サーバ3に送信する。このとき、送信される室内画像データには、その不動産物件を他の不動産物件から識別するための物件識別データと、パノラマ画像撮像時における全天球カメラCの設置位置(特に、撮像対象たる室内空間の床からの、全天球カメラCの後述するカメラ部の高さ)を示す設置位置データと、が付加される。なお、室内画像データの生成及び送信は、その不動産物件内の一つの室内空間のみについて行われてもよいし、全天球カメラCを設置し直すことでその不動産物件内の複数の室内空間について行われてもよい。ここで、一つの不動産物件内の複数の室内空間について室内画像データがそれぞれ生成される場合は、上記物件識別データと共に、当該室内画像データに映っている室内空間をその不動産物件内の他の室内空間から識別するための室内空間識別データも併せて付加されて送信される。これにより、情報提供サーバ3は、送信されてきた室内画像データを用いて、その室内画像データに映っている室内空間の三次元モデルを表わす室内空間画像を、不動産物件ごと及び室内空間ごとに生成して記憶(蓄積)する。
[1-1. Configuration and function of spherical camera]
Next, the configuration and functions of the spherical camera C will be described. In the configuration shown in FIG. 1, the omnidirectional camera C is installed in one of the indoor spaces in the real estate, which is to be sold or rented, by a real estate agent or the like in which the omnidirectional camera C is used. At this time, the “indoor space” refers to any one of a room, a corridor, an entrance, and the like constituting the real estate. Then, the omnidirectional camera C generates indoor image data corresponding to a panoramic image (i.e., an omnidirectional image) obtained by omnidirectionally capturing the indoor space in which the omnidirectional camera C is installed, and the information providing server 3 via the network NW. Send to At this time, the transmitted indoor image data includes property identification data for identifying the real estate property from other real estate properties, and the installation position of the spherical camera C at the time of capturing the panoramic image (particularly, the room to be imaged). Installation position data indicating the height of a camera unit of the omnidirectional camera C from the floor of the space (described later) is added. Note that the generation and transmission of the indoor image data may be performed only for one indoor space in the real estate property, or may be performed for a plurality of indoor spaces in the real estate property by re-installing the spherical camera C. May be performed. Here, when the indoor image data is generated for each of a plurality of indoor spaces in one real estate, together with the above-mentioned object identification data, the indoor space reflected in the indoor image data is converted to other indoor spaces in the real estate. Room space identification data for identifying from the space is also added and transmitted. As a result, the information providing server 3 uses the transmitted indoor image data to generate an indoor space image representing a three-dimensional model of the indoor space reflected in the indoor image data for each real estate property and each indoor space. And memorize (accumulate).

より具体的に、全天球カメラCはそれぞれ、例えば魚眼レンズを含むカメラ部20、CPU(Central Processing Unit)等からなる制御部21、ROM(Read Only Memory)及びRAM(Random Access Memory)等からなる記憶部22、シャッタボタン、電源ボタン及び必要なインジケータ等からなる操作表示部23、並びにネットワークNWに接続可能な通信部24等を備え、これらの構成部分はバス25を介して電気的に接続されている。この構成において、操作表示部23の電源ボタンが操作されて全天球カメラCが起動されると、制御部21は、カメラ部20を制御して、全天球カメラCが設置されている室内空間の、全方位のパノラマ画像としての撮像を開始する。その後、制御部21は、操作表示部23のシャッタボタンの操作の有無を監視する。そして、シャッタボタンが操作されると、制御部21は、シャッタボタンが操作されたタイミングで撮像されているパノラマ画像に相当する室内画像データを、バス25を介して記憶部22に記憶させる。制御部21は、不動産物件内の各室内空間における上記パノラマ画像の撮像及びそれに相当する室内画像データの生成及び記憶を、当該室内空間ごとに繰り返す。そして、制御部21は、例えば操作表示部23において送信ボタン等が操作されると、当該操作に基づき、記憶部22に記憶されている室内画像データを、上記物件識別データ及び上記設置位置データ並びに上記室内空間識別データと共に、通信部24及びネットワークNW経由で情報提供サーバ3に送信する。   More specifically, each spherical camera C includes, for example, a camera unit 20 including a fisheye lens, a control unit 21 including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. A storage unit 22, an operation display unit 23 including a shutter button, a power button, necessary indicators, and the like, a communication unit 24 connectable to a network NW, and the like are provided. These components are electrically connected via a bus 25. ing. In this configuration, when the power button of the operation display unit 23 is operated and the omnidirectional camera C is activated, the control unit 21 controls the camera unit 20 to control the room in which the omnidirectional camera C is installed. The imaging of the space as an omnidirectional panoramic image is started. Thereafter, the control unit 21 monitors whether the shutter button of the operation display unit 23 has been operated. When the shutter button is operated, the control unit 21 causes the storage unit 22 to store room image data corresponding to a panoramic image captured at the timing when the shutter button is operated, via the bus 25. The control unit 21 repeats the capturing of the panoramic image and the generation and storage of the indoor image data corresponding to the panoramic image in each indoor space in the real estate for each indoor space. Then, for example, when a transmission button or the like is operated on the operation display unit 23, the control unit 21 converts the room image data stored in the storage unit 22 into the object identification data and the installation position data based on the operation. The data is transmitted to the information providing server 3 via the communication unit 24 and the network NW together with the indoor space identification data.

[1−2.一般消費者端末の構成及び機能]
次に、一般消費者端末1の構成及び機能について説明する。図1に示す構成において、一般消費者端末1は、例えば不動産物件を購入したり借りたりする上記一般消費者により使用されるユーザ端末である。各一般消費者端末1は、それぞれ、通信部11、記憶部12、システム制御部13、及び操作表示部14等を備え、これらの構成部分はバス15を介して電気的に接続されている。そして、上記各一般消費者端末1は、それぞれ、システム制御部13の制御によるブラウザ機能を有する。各一般消費者端末1は、それぞれ、ブラウザによる要求(リクエスト)に応じて物件情報サイトから提供されたページ(例えば、ウェブページやランディングページ)をディスプレイ上に表れた画面(例えば、ブラウザのウインドウ)に表示する。このようなページは、例えばHTML(Hyper Text Markup Language)文書やXHTML文書等の構造化文書及び画像データ等により構成される。一般消費者端末1の例としては、パーソナルコンピュータ、携帯電話機、スマートフォン、タブレット、及び携帯ゲーム機等が挙げられる。
[1-2. Configuration and function of general consumer terminal]
Next, the configuration and functions of the general consumer terminal 1 will be described. In the configuration shown in FIG. 1, the general consumer terminal 1 is a user terminal used by the general consumer who purchases or rents a real estate, for example. Each general consumer terminal 1 includes a communication unit 11, a storage unit 12, a system control unit 13, an operation display unit 14, and the like. These components are electrically connected via a bus 15. Each of the general consumer terminals 1 has a browser function controlled by the system control unit 13. Each general consumer terminal 1 displays a page (for example, a web page or a landing page) provided from the property information site in response to a request (request) by the browser on a screen (for example, a browser window). To be displayed. Such a page is composed of a structured document such as an HTML (Hyper Text Markup Language) document and an XHTML document, image data, and the like. Examples of the general consumer terminal 1 include a personal computer, a mobile phone, a smartphone, a tablet, and a portable game machine.

通信部11は、システム制御部13の制御の下、ネットワークNWを介して情報提供サーバ3との間で通信を行う。記憶部12は、例えば、ハードディスクライブ等から構成され、OS、及びアプリケーション等を格納する。操作表示部14は、例えば、液晶ディスプレイ等からなる上記ディスプレイと、当該ディスプレイの表示部の表面に重ねて設置されたタッチパネル等の操作部と、を備えている。操作表示部14のディスプレイには、情報提供サーバ3から提供された、物件情報を掲載するための物件情報掲載ページ、及び不動産物件の間取り画像を作成して表示させるための間取り作成/表示ページが表示される。一般消費者端末1を使用する一般消費者は、間取り作成/表示ページを用いて、自身が所望する不動産物件の二次元の間取り図又は三次元の間取り図を作成して表示させる。なお、以下の説明において、二次元の間取り図及び三次元の間取り図に共通の事項を説明する場合、これらを纏めて単に「間取り図」と称する。各間取り図の作成は、操作表示部14のタッチパネルを用いたフリーハンドでの線等の入力操作により行われる。このため、上記フリーハンドの入力操作のタッチパネル上における軌跡を示す軌跡データ(例えば、当該軌跡を構成するドットデータ)と、当該軌跡のタッチパネル上における入力開始位置及び入力終了位置、並びに入力開始タイミング及び入力終了タイミングをそれぞれ示す詳細データと、間取り作成/表示ページが表示されている一般消費者端末1を他の一般消費者端末1から識別するための端末識別データと、を含む間取り画像データ要求が、システム制御部13の制御により、ネットワークNWを介して情報提供サーバ3に送信される。なお、一つの間取りを構成する一つの後述の構成物が、複数の線により構成される(描かれる)場合、上記詳細データとして、当該線の入力順序(即ち筆順)を示す筆順データが含まれている。そして、当該軌跡データ及び当該詳細データに対応して情報提供サーバ3において生成された間取り画像データが、ネットワークNWを介して一般消費者端末1に送信される。なお、以下の説明において、上記軌跡データ及び上記詳細データを纏めていう場合、単に「軌跡データ等」と称する。これにより、間取り画像データを受信した一般消費者端末1のシステム制御部13は、受信した間取り画像データに相当する間取り画像を、間取り作成/表示ページを用いて操作表示部14のディスプレイに表示する。その後、ディスプレイに表示されている間取り画像を見た一般消費者端末1のユーザ(一般消費者たるユーザ)が、例えば表示されている間取り画像により示される間取りの不動産物件を検索する旨の要求(参加要求)を、その検索条件と共に操作表示部14を介して入力すると、システム制御部13は、当該入力された検索要求を、当該検索条件が入力された一般消費者端末1を他の一般消費者端末1から識別するための端末識別データと共に、ネットワークNWを介して情報提供サーバ3に送信する。これにより、情報提供サーバ3は、当該検索要求に含まれている検索条件と、検索要求が送信される際に一般消費者端末1の操作表示部14に表示されていた間取り画像と、に基づいて、後述する物件情報データベース321において不動産物件を検索する。そして、情報提供サーバ3からは、当該検索結果としての物件情報を含む物件情報掲載ページが、ネットワークNWを介して、上記検索要求を送信した一般消費者端末1に送信される。このときには、上記検索要求と共に送信されてきた端末識別データが手掛かりとされる。そして、当該物件情報掲載ページを受信した一般消費者端末1のシステム制御部13は、当該物件情報掲載ページを、操作表示部14のディスプレイに表示する。なお、情報提供サーバ3による上述した間取り作成/表示ページを用いた間取り図の作成及び表示については、後ほど詳述する。   The communication unit 11 communicates with the information providing server 3 via the network NW under the control of the system control unit 13. The storage unit 12 includes, for example, a hard disk drive or the like, and stores an OS, an application, and the like. The operation display unit 14 includes, for example, the above-described display formed of a liquid crystal display or the like, and an operation unit such as a touch panel which is installed on a surface of the display unit of the display. On the display of the operation display unit 14, a property information posting page for posting property information and a floor plan creation / display page for generating and displaying a floor plan image of a real estate property provided from the information providing server 3 are provided. Is displayed. A general consumer who uses the general consumer terminal 1 creates and displays a two-dimensional floor plan or a three-dimensional floor plan of a desired real estate property using the floor plan creation / display page. Note that, in the following description, when matters common to the two-dimensional floor plan and the three-dimensional floor plan are described, these are collectively referred to simply as “floor plan”. The creation of each floor plan is performed by a freehand input operation of a line or the like using the touch panel of the operation display unit 14. Therefore, trajectory data (for example, dot data constituting the trajectory) indicating the trajectory of the freehand input operation on the touch panel, the input start position and the input end position of the trajectory on the touch panel, the input start timing, and the A floor plan image data request including detailed data indicating the input end timing and terminal identification data for identifying the general consumer terminal 1 on which the floor plan creation / display page is displayed from other general consumer terminals 1 is provided. Is transmitted to the information providing server 3 via the network NW under the control of the system control unit 13. In the case where one component to be described later that constitutes one floor plan is configured (drawn) by a plurality of lines, the detailed data includes the stroke order data indicating the input order (ie, the stroke order) of the line. ing. Then, the floor plan image data generated in the information providing server 3 corresponding to the trajectory data and the detailed data is transmitted to the general consumer terminal 1 via the network NW. In the following description, when the trajectory data and the detailed data are collectively referred to, they are simply referred to as “trajectory data or the like”. Thereby, the system control unit 13 of the general consumer terminal 1 that has received the floor plan image data displays the floor plan image corresponding to the received floor plan image data on the display of the operation display unit 14 using the floor plan creation / display page. . After that, the user of the general consumer terminal 1 (a user who is a general consumer) who has viewed the floor plan image displayed on the display requests, for example, to search for a real estate property of the floor plan indicated by the displayed floor plan image ( Is input via the operation display unit 14 together with the search condition, the system control unit 13 transmits the input search request to the general consumer terminal 1 to which the search condition has been input by another general consumer terminal. The information is transmitted to the information providing server 3 via the network NW together with the terminal identification data for identifying from the user terminal 1. As a result, the information providing server 3 determines based on the search conditions included in the search request and the floor plan image displayed on the operation display unit 14 of the general consumer terminal 1 when the search request is transmitted. Then, a real estate property is searched in the property information database 321 to be described later. Then, the property providing page including the property information as the search result is transmitted from the information providing server 3 to the general consumer terminal 1 that transmitted the search request via the network NW. At this time, the terminal identification data transmitted together with the search request is used as a clue. Then, the system control unit 13 of the general consumer terminal 1 that has received the property information posting page displays the property information posting page on the display of the operation display unit 14. The creation and display of the floor plan using the floor plan creation / display page by the information providing server 3 will be described later in detail.

[1−3.情報提供サーバの構成及び機能]
次に、情報提供サーバ3の構成及び機能について説明する。図1に示す構成において、情報提供サーバ3は、物件情報サイトを構成するサーバである。情報提供サーバ3は、通信部31、記憶部32、及びシステム制御部33等を備え、これらの構成部分はバス34を介して電気的に接続されている。なお、情報提供サーバ3は、1台のサーバコンピュータにより構成されてもよいし、複数台のサーバコンピュータにより構成されてもよい。ここで、通信部31は、本発明における「取得手段」の一例である。
[1-3. Configuration and function of information providing server]
Next, the configuration and functions of the information providing server 3 will be described. In the configuration illustrated in FIG. 1, the information providing server 3 is a server that configures a property information site. The information providing server 3 includes a communication unit 31, a storage unit 32, a system control unit 33, and the like. These components are electrically connected via a bus 34. The information providing server 3 may be configured by one server computer, or may be configured by a plurality of server computers. Here, the communication unit 31 is an example of the “acquisition unit” in the present invention.

通信部31は、システム制御部33の制御の下、ネットワークNWを介して、各全天球カメラC及び各一般消費者端末1との間で通信を行う。記憶部32は、例えば、ハードディスクライブ等から構成され、OS、及びアプリケーション等を格納する。また、記憶部32には、物件情報データベース(DB)321、及び本実施形態の基準データデータベース(DB)322等が構築されている。図2は、物件情報データベース321に登録されている情報の一例を示す図であり、図3は、基準データデータベース322に登録されている情報の一例を示す図である。なお、物件情報データベース321、及び基準データデータベース322は、それぞれ、情報提供サーバ3とは異なる他のサーバに備えられてもよい。   The communication unit 31 communicates with each omnidirectional camera C and each general consumer terminal 1 via the network NW under the control of the system control unit 33. The storage unit 32 includes, for example, a hard disk drive and stores an OS, an application, and the like. In the storage unit 32, a property information database (DB) 321 and a reference data database (DB) 322 of the present embodiment are constructed. FIG. 2 is a diagram illustrating an example of information registered in the property information database 321, and FIG. 3 is a diagram illustrating an example of information registered in the reference data database 322. The property information database 321 and the reference data database 322 may be provided in other servers different from the information providing server 3, respectively.

図2に例示するように、物件情報データベース321は、不動産物件に関する物件情報と、当該物件情報を提供した不動産仲介業者の仲介業者IDと、当該不動産物件の物件IDとを対応付けて登録(記憶)する。このような物件情報データベース321によって、多くの物件情報を不動産仲介業者毎に区別して管理することができる。ここで、仲介業者IDは、不動産仲介業者毎に一意に付与された識別情報である。物件IDは、不動産仲介業者毎、且つ不動産物件毎に一意に付与された識別情報である。つまり、同一の不動産物件は、複数の異なる不動産仲介業者により取り扱われることもあり、同一の不動産物件であっても、取扱う不動産仲介業者が異なれば物件IDは異なる。物件情報には、例えば、物件種別、物件名、所在地、交通、築年数、階数、専有面積、外観画像、間取り情報、室内空間画像、室内写真画像、及び取引情報等が含まれる(図10参照)。物件種別は、個人住宅(戸建て)、集合住宅(マンション、又はアパート)、土地の別である。物件種別が集合住宅である場合の間取り情報には、各戸(各部屋)毎の所在階、部屋番号、間取り、及び部屋や設備等の画像等が含まれる。外観画像は、対応する不動産物件の外観を示す写真画像又は二次元画像である。室内空間画像は、対応する室内空間を上記全天球カメラCで撮像して得られた室内画像データに基づいて生成された室内空間の三次元モデル画像である。室内写真画像は、対応する室内空間を通常のカメラで撮像した写真(スチル写真)の画像である。取引情報には、例えば、取引種別、及び取引条件が含まれる。取引種別は、賃貸物件、新築物件、中古物件の別である。賃貸物件の取引条件は、賃料、敷金、礼金、及び契約期間等である。新築物件、及び中古物件の取引条件は、売買価格、管理費、及び修繕積立金等である。不動産仲介業者による物件情報の指定は、原則として必須である。   As illustrated in FIG. 2, the property information database 321 registers (stores) the property information relating to the real estate property, the broker ID of the real estate broker who provided the property information, and the property ID of the real estate property in association with each other. ). With such a property information database 321, many pieces of property information can be managed separately for each real estate agent. Here, the broker ID is identification information uniquely given to each real estate broker. The property ID is identification information uniquely assigned to each real estate agent and each real estate property. That is, the same real estate property may be handled by a plurality of different real estate agents, and even if the same real estate property is handled, the property ID is different if the real estate brokers handling the different real estate agents. The property information includes, for example, property type, property name, location, traffic, age, floor number, occupied area, exterior image, floor plan information, indoor space image, indoor photographic image, transaction information, and the like (see FIG. 10). ). The property type is classified into individual house (detached house), apartment house (apartment or apartment), and land. The floor plan information in the case where the property type is a multi-family housing includes a location floor, a room number, a floor plan, images of rooms and facilities, etc. for each house (each room). The appearance image is a photographic image or a two-dimensional image showing the appearance of the corresponding real estate property. The indoor space image is a three-dimensional model image of the indoor space generated based on indoor image data obtained by imaging the corresponding indoor space with the spherical camera C. The indoor photo image is an image of a photo (still photo) in which the corresponding indoor space is captured by a normal camera. The transaction information includes, for example, a transaction type and a transaction condition. The transaction type is a rental property, a newly built property, or a used property. Transaction conditions for a rental property include rent, security deposit, key money, and contract period. The transaction conditions for newly built and used properties include the sale price, management costs, and reserve for repairs. Designation of property information by a real estate agent is indispensable in principle.

基準データデータベース322は、本実施形態の間取り図の作成に用いられる基準データを登録(記憶)する。本実施形態の基準データは、各一般消費者端末1の操作表示部14における上記フリーハンドの入力操作により入力された線の軌跡に基づいて、不動産物件の二次元の間取りを示す間取り図を構成する構成物の画像を生成する際に用いられるデータである。この場合の二次元の間取り図とは、例えば、図3(A)に例示するような、不動産物件の間取りを示す一般的な二次元の間取り図FPである。また、当該間取り図FPを構成する上記構成物とは、例えば、その間取りを構成する一つの部屋、一つの窓、一つの扉、一つのトイレ等である。そして、本実施形態の基準データは、上記二次元の間取り図FPを構成する複数種類の構成物(上記部屋等)のそれぞれについて、それらが上記フリーハンドの入力操作により描かれる場合の描かれ方、及び形状の基準(即ち、上記筆順を含む当該描かれ方、及び当該形状の典型例)を示すデータである。実際に操作表示部14における上記フリーハンドの入力操作により入力された線の軌跡と、この基準データと、を比較することで、当該軌跡に最も近い描き方及び形状の基準データにより示される構成物が特定される。そして、上記実際にフリーハンドの入力操作により入力された線の軌跡が、当該特定された構成物の図面に変換される。   The reference data database 322 registers (stores) reference data used for creating a floor plan of the present embodiment. The reference data of the present embodiment constitutes a floor plan showing a two-dimensional floor plan of a real estate based on the trajectory of the line input by the freehand input operation on the operation display unit 14 of each general consumer terminal 1. This is data used when generating an image of a component to be processed. The two-dimensional floor plan in this case is, for example, a general two-dimensional floor plan FP indicating the floor plan of a real estate article, as exemplified in FIG. In addition, the above-described components configuring the floor plan FP include, for example, one room, one window, one door, one toilet, and the like that configure the floor plan. The reference data of the present embodiment is drawn in a case where each of a plurality of types of components (the rooms and the like) constituting the two-dimensional floor plan FP is drawn by the freehand input operation. , And data indicating the reference of the shape (that is, the drawing method including the stroke order, and a typical example of the shape). By comparing the trajectory of the line actually input by the freehand input operation on the operation display unit 14 with the reference data, a component indicated by the reference data of the drawing style and shape closest to the trajectory Is specified. Then, the trajectory of the line actually input by the freehand input operation is converted into a drawing of the specified component.

ここで、本実施形態の基準データについて、具体的に図3(B)を用いて例示しつつ説明する。なお、図3(B)の「軌跡」欄において、「●(黒丸)」はフリーハンドの入力操作における始点を示し、矢印の先端は当該入力操作における終点を示している。本実施形態の基準データとして具体的には、図3(B)に「部屋1」として例示されるように、「軌跡」欄に実線で示される閉じた形状の軌跡が入力された場合、その軌跡は、間取り図FPを構成する一つの部屋の図面として、当該軌跡全体の幅及び奥行きを有する矩形の図面に変換される。また、図3(B)に「部屋2」として例示されるように、「軌跡」欄に破線で示される上記構成物としての壁が表示されている状態で、その破線に接する閉じた形状の軌跡が、実線で示されるように入力された場合、その軌跡は、その壁に接した一つの部屋の図面として、当該軌跡全体の幅及び奥行きを有する部屋としての矩形の図面(破線で示される壁に接した矩形の図面)に変換される。また、図3(B)に「窓」として例示されるように、「軌跡」欄に破線で例示される上記壁が表示されている状態で、その壁の一部を他の部分から区別する二本の軌跡が、実線で示されるように入力された場合、その軌跡により挟まれて区別された壁の部分は、その壁内に作られた引き戸式の窓として、当該特定された部分を間口とする引き戸式の窓の図面に変換される。また、図3(B)に「扉」として例示されるように、「軌跡」欄に破線で示される上記壁が表示されている状態で、その壁の一部を始点として当該壁から略垂直方向に一旦離れ、その後略円形状を描いて元の壁に戻る軌跡が、実線で示されるように入力された場合、その軌跡は、その軌跡の始点と終点との間の壁を間口とする片開き式の扉の図面に変換される。また、図3(B)に「トイレ」として例示されるように、「軌跡」欄に破線で例示される上記壁が表示されている状態で、その壁の一部を始点として当該壁から突出する略楕円形状を描いて元の壁に戻る軌跡が、実線で示されるように入力された場合、その軌跡は、その軌跡の始点と終点との間に設けられたトイレの図面に変換される。また、図3(B)に「洗面室」として例示されるように、「軌跡」欄に破線で例示される上記壁が表示されている状態で、その壁に接するような略楕円形状の軌跡が、実線で示されるように入力された場合、その軌跡は、その軌跡全体の幅を有する洗面台の図面に変換される。また、図3(B)に「キッチン」として例示されるように、「軌跡」欄に破線で例示される上記壁が表示されている状態で、その壁に接するように、略楕円形状の軌跡と、略矩形の軌跡と、それらを結ぶ線状の軌跡と、が実線で示されるように入力された場合、それらの軌跡は、その軌跡全体の幅を有するキッチンの図面に変換される。また、図3(B)に「浴室」として例示されるように、「軌跡」欄に実線で示されるように略楕円形状の軌跡が二重となるように入力された場合、それらの軌跡は、その軌跡全体(外側の軌跡)の幅及び奥行きを有する浴槽の図面に変換される。最後に、図3(B)に「出窓」として例示されるように、「軌跡」欄に破線で例示される上記壁が表示されている状態で、その壁の一部から外に出て、更に壁の他の部分に戻る一本の軌跡が、実線で示されるように入力された場合、その軌跡は、その軌跡により挟まれて区別された壁の部分の長さを間口とする出窓の図面に変換される。なお、不動産物件としての住宅やマンション等の間取り図FPには、図3(B)に例示する構成物以外にも様々な構成物の図面が含まれるが、これらについても、それを象徴的に表す軌跡により他の構成物と区別できるような基準データが、基準データデータベース322に登録されている。   Here, the reference data of the present embodiment will be specifically described with reference to FIG. 3B. In the “trajectory” column of FIG. 3B, “● (black circle)” indicates a start point in the freehand input operation, and a tip of the arrow indicates an end point in the input operation. Specifically, when a closed locus indicated by a solid line is input in a “trajectory” column as illustrated as “room 1” in FIG. The trajectory is converted into a rectangular drawing having the width and depth of the entire trajectory as a drawing of one room constituting the floor plan FP. Further, as exemplified in FIG. 3B as “room 2”, in a state where a wall as the above-described component indicated by a broken line is displayed in the “trajectory” column, a closed shape in contact with the broken line is displayed. When the trajectory is input as shown by a solid line, the trajectory is a drawing of one room in contact with the wall, and a rectangular drawing (shown by a broken line) as a room having the width and depth of the entire trajectory. (A rectangular drawing on the wall). Further, as illustrated as a “window” in FIG. 3B, in a state where the wall exemplified by the broken line is displayed in the “trajectory” column, a part of the wall is distinguished from other parts. When two trajectories are input as indicated by the solid lines, the part of the wall sandwiched and distinguished by the trajectories is defined as a sliding door type window made in the wall, and the specified part is It is converted into a drawing of a sliding door type window as a frontage. Also, as illustrated as a “door” in FIG. 3B, in a state where the wall indicated by a broken line is displayed in the “trajectory” column, a part of the wall is set as a starting point and substantially perpendicular to the wall. If a trajectory that once separates in the direction and then returns to the original wall after drawing a substantially circular shape is input as shown by a solid line, the trajectory has the wall between the start point and the end point of the trajectory as the frontage Converted to drawing of a single-opening door. In addition, as illustrated in FIG. 3B as “toilet”, in a state where the wall exemplified by the broken line is displayed in the “track” column, the wall protrudes from a part of the wall as a starting point. When a locus that draws a substantially elliptical shape and returns to the original wall is input as shown by a solid line, the locus is converted into a drawing of a toilet provided between the start point and the end point of the locus. . In addition, as illustrated in FIG. 3B as a “bathroom”, a substantially elliptical locus that touches the wall with the wall illustrated by a broken line displayed in the “trajectory” column Is input as shown by the solid line, the trajectory is converted to a drawing of a wash basin having the entire width of the trajectory. Also, as illustrated in FIG. 3B as “kitchen”, in a state where the wall exemplified by a broken line is displayed in the “trajectory” column, a substantially elliptical locus is in contact with the wall. , A substantially rectangular locus, and a linear locus that connects them, are input as indicated by solid lines, and these locus are converted into a kitchen drawing having the entire width of the locus. In addition, as illustrated as a “bathroom” in FIG. 3B, when a substantially elliptical trajectory is input so as to be double as indicated by a solid line in the “trajectory” column, those trajectories are , With the width and depth of the entire trajectory (outer trajectory). Finally, as illustrated in FIG. 3B as a “bay window”, in a state where the wall exemplified by the broken line is displayed in the “trajectory” column, the user goes out of a part of the wall, and Further, when one locus that returns to the other part of the wall is input as shown by a solid line, the locus is defined as a bay window whose frontage is the length of the part of the wall sandwiched and distinguished by the locus. Converted to drawing. Note that the floor plan FP of a house or condominium as a real estate property includes drawings of various components in addition to the components illustrated in FIG. 3 (B). Reference data that can be distinguished from other components by the locus represented is registered in the reference data database 322.

図4は、本実施形態の情報提供サーバ3のシステム制御部33の機能ブロックの一例を示す図である。システム制御部33は、CPU、ROM、及びRAM等から構成され、CPU(コンピュータ)がオペレーティングシステム上で動作するアプリケーションに従って各種処理を実行する。図4に示すように、システム制御部33は、ページ提供部331、検索部332、間取り画像データ生成部333、表示制御部334、物件情報取得部335、及び室内空間画像生成部336等として機能する。ここで、表示制御部334は、本発明における「提示手段」の一例である。物件情報取得部335は、本発明における「第1特定手段」、「第2特定手段」、「第1算出手段」、「第2算出手段」び「第3算出手段」の一例である。   FIG. 4 is a diagram illustrating an example of functional blocks of the system control unit 33 of the information providing server 3 according to the present embodiment. The system control unit 33 includes a CPU, a ROM, a RAM, and the like. The CPU (computer) executes various processes according to an application operating on an operating system. As illustrated in FIG. 4, the system control unit 33 functions as a page providing unit 331, a search unit 332, a floor plan image data generation unit 333, a display control unit 334, a property information acquisition unit 335, an indoor space image generation unit 336, and the like. I do. Here, the display control unit 334 is an example of the “presenting unit” in the present invention. The property information acquisition unit 335 is an example of the “first specifying unit”, the “second specifying unit”, the “first calculating unit”, the “second calculating unit”, and the “third calculating unit” in the present invention.

室内空間画像生成部336は、画像処理部337、境界線抽出部338、画像抽出部339、交点抽出部340、水平距離検出部341、及び距離算出部342等として機能する。この構成において、いずれかの全天球カメラCから上記室内画像データが送信されてくると、室内空間画像生成部336は、これを通信部31経由で受信する。そして、画像処理部337、境界線抽出部338、画像抽出部339、交点抽出部340、水平距離検出部341及び距離算出部342は、上記受信した室内画像データを用いて、当該室内画像データに映っている室内空間の三次元モデルを表わす上記室内空間画像を、不動産物件ごと及び室内空間ごとに生成する。このときの画像処理部337、境界線抽出部338、画像抽出部339、交点抽出部340、水平距離検出部341及び距離算出部342による室内空間画像の生成については、後ほど図5乃至図8を用いて詳述する。その後、室内空間画像生成部336は、生成された室内空間画像を、上記物件識別データ及び上記室内空間識別データに関連付けて物件情報データベース321に登録する。   The indoor space image generation unit 336 functions as an image processing unit 337, a boundary line extraction unit 338, an image extraction unit 339, an intersection extraction unit 340, a horizontal distance detection unit 341, a distance calculation unit 342, and the like. In this configuration, when the indoor image data is transmitted from any celestial sphere camera C, the indoor space image generation unit 336 receives this via the communication unit 31. Then, the image processing unit 337, the boundary line extracting unit 338, the image extracting unit 339, the intersection extracting unit 340, the horizontal distance detecting unit 341 and the distance calculating unit 342 use the received indoor image data to generate the indoor image data. The indoor space image representing the three-dimensional model of the reflected indoor space is generated for each real estate property and each indoor space. The generation of the indoor space image by the image processing unit 337, the boundary line extraction unit 338, the image extraction unit 339, the intersection extraction unit 340, the horizontal distance detection unit 341 and the distance calculation unit 342 will be described later with reference to FIGS. This will be described in detail. Thereafter, the indoor space image generation unit 336 registers the generated indoor space image in the property information database 321 in association with the property identification data and the room space identification data.

ここで、上記室内空間データとして全天球カメラCから情報提供サーバ3に送信される室内画像について、より具体的に、図5を用いて例示しつつ説明する。図5に示すように、室内画像Dは、全天球カメラCにより撮像された全天球画像であって、その室内空間の天井に相当する天井画像CLと、その室内空間の四つの壁にそれぞれ相当する壁画像W1乃至壁画像W4と、その室内空間の床に相当する床画像FLと、を含んでいる。このとき、図5に例示するように、一部の壁画像W2には、図5に例示するようにその室内空間の窓に相当する窓画像WDが含まれていることがある。また、天井画像CLには、図4に例示するようにその室内空間の照明に相当する照明画像Lが含まれていることがある。   Here, the indoor image transmitted from the omnidirectional camera C to the information providing server 3 as the indoor space data will be described more specifically with reference to FIG. As shown in FIG. 5, the indoor image D is a spherical image captured by the spherical camera C, and includes a ceiling image CL corresponding to a ceiling of the indoor space and four walls of the indoor space. It includes the corresponding wall images W1 to W4 and the floor image FL corresponding to the floor in the indoor space. At this time, as illustrated in FIG. 5, a part of the wall image W2 may include a window image WD corresponding to a window in the indoor space as illustrated in FIG. In addition, the ceiling image CL may include an illumination image L corresponding to the illumination of the indoor space as illustrated in FIG.

そして、室内空間画像生成部336は、いずれかの全天球カメラCからの、上記物件識別データ及び室内空間識別データ並びに設置位置データが付加された室内画像データを受信したら、画像処理部337等により、当該受信した室内画像データに映っている室内空間の三次元モデルを表わす上記室内空間画像を生成すると共に、それに対応する他の物件情報を付加して、物件情報を生成する。この画像処理部337等による室内空間画像及び物件情報の生成については、後ほど詳述する。その後、室内空間画像生成部336は、上記生成された物件情報を、対応する物件識別データ及び室内空間識別データに関連付けて物件情報データベース321に登録する。   Then, upon receiving the room identification data, the indoor space identification data, and the installation position data added from any one of the omnidirectional cameras C, the indoor space image generation unit 336 generates the image processing unit 337 and the like. Thus, the indoor space image representing the three-dimensional model of the indoor space reflected in the received indoor image data is generated, and other corresponding property information is added to generate the property information. The generation of the indoor space image and the property information by the image processing unit 337 and the like will be described later in detail. After that, the indoor space image generation unit 336 registers the generated property information in the property information database 321 in association with the corresponding property identification data and indoor space identification data.

次いで、室内空間画像生成部336による上記物件情報の生成処理について、図6乃至図8を用いてより具体的に説明する。なお、図6は本実施形態の境界線抽出を例示する図等であり、図7は実施形態の歪み補正前の画像を例示する図等であり、図8は本実施形態の室内空間画像を例示する概念図等である。   Next, the process of generating the property information by the indoor space image generation unit 336 will be described more specifically with reference to FIGS. FIG. 6 is a diagram illustrating an example of boundary line extraction according to the present embodiment, FIG. 7 is a diagram illustrating an image before distortion correction according to the embodiment, and FIG. 8 is a diagram illustrating an indoor space image according to the present embodiment. It is a conceptual diagram etc. which illustrate.

即ち、いずれかの全天球カメラCから送信されてきた室内画像データに対して物件情報の生成処理を行う場合、先ず、室内空間画像生成部336は、当該室内画像データに映っている室内空間の三次元モデルを表わす上記室内空間画像を生成する。より具体的に、先ず、室内空間画像生成部336の境界線抽出部338は、当該室内画像データに相当する室内画像から、対応する室内空間の天井に相当する天井画像と各壁に相当する壁画像との境界線、当該各壁に相当する壁画像同士の境界線、及び室内空間の床に相当する床画像と各壁に相当する壁画像との境界線を、それぞれ抽出する。より具体的に、境界線抽出部338は、例えば図6(A)に例示する室内画像Dから、天井画像CLと各壁画像W1乃至壁画像W4との境界線BCW1乃至BCW4をそれぞれ抽出する。また、境界線抽出部338は、室内画像Dから、各壁画像W1乃至壁画像W4同士の境界線BW12、境界線BW23、境界線BW34及び境界線BW14をそれぞれ抽出する。更に、境界線抽出部338は、室内画像Dから、床画像FLと各壁画像W1乃至壁画像W4との境界線BFW1乃至BFW4をそれぞれ抽出する。このとき、各境界線BCW1等の抽出自体は、従来と同様の画像内の面同士の境界線の抽出方法を用いることができる。   That is, when performing the property information generation process on the indoor image data transmitted from any of the spherical cameras C, first, the indoor space image generation unit 336 generates the indoor space image reflected in the indoor image data. The indoor space image representing the three-dimensional model is generated. More specifically, first, the boundary line extraction unit 338 of the indoor space image generation unit 336 extracts a ceiling image corresponding to the ceiling of the corresponding indoor space and a wall corresponding to each wall from the indoor image corresponding to the indoor image data. A boundary line with the image, a boundary line between the wall images corresponding to the respective walls, and a boundary line between the floor image corresponding to the floor in the indoor space and the wall image corresponding to each wall are extracted. More specifically, the boundary line extraction unit 338 extracts boundary lines BCW1 to BCW4 between the ceiling image CL and each of the wall images W1 to W4, for example, from the indoor image D illustrated in FIG. Further, the boundary line extraction unit 338 extracts, from the indoor image D, a boundary line BW12, a boundary line BW23, a boundary line BW34, and a boundary line BW14 between the wall images W1 to W4. Furthermore, the boundary line extraction unit 338 extracts, from the indoor image D, boundary lines BFW1 to BFW4 between the floor image FL and the wall images W1 to W4. At this time, the extraction of each boundary line BCW1 or the like itself can use the same method of extracting a boundary line between surfaces in an image as in the related art.

各境界線BCW1等が室内画像Dから抽出されたら、次いで、画像抽出部339は、上記各境界線BCW1等に基づいて、各境界線BCW1等で囲まれる面(図6(A)参照)を、上記天井画像CL、上記壁画像W1乃至壁画像W4及び上記床画像FLとして抽出する。このとき、天井画像CL等の抽出自体は、従来と同様の画像抽出方法を用いることができる。天井画像CL等が抽出されたら、次いで、交点抽出部340は、上記各境界線BCW1等に基づいて、各境界線BCW1等が交わる交点を、当該室内空間の部屋角CN(図6(A)に一例を示す)としてそれぞれ抽出する。このときの部屋角CNの抽出自体は、従来と同様の線分の鋭角の交点抽出方法を用いることができる。   After the boundary lines BCW1 and the like are extracted from the indoor image D, the image extracting unit 339 then generates a surface (see FIG. 6A) surrounded by the boundary lines BCW1 and the like based on the boundary lines BCW1 and the like. , The ceiling image CL, the wall images W1 to W4, and the floor image FL. At this time, the extraction of the ceiling image CL or the like can use the same image extraction method as that of the related art. After the ceiling image CL or the like is extracted, the intersection extracting unit 340 then determines, based on each of the boundary lines BCW1 and the like, an intersection where each of the boundary lines BCW1 and the like intersects with the room angle CN of the indoor space (see FIG. 6A). Are shown as examples). At this time, the extraction of the room angle CN itself can use the same acute angle intersection extraction method as the conventional method.

部屋角CNが抽出されたら、次いで、水平距離検出部341は、室内画像Dに基づいて、交点抽出部340により抽出された各部屋角CNへの、全天球カメラCからの水平距離を検出する。即ち水平距離検出部341は、全天球カメラCの位置P(図6(B)参照)を通って床から立てた垂線と、交点抽出部340により抽出された各部屋角CN(図6(A)及び図6(B)参照)と、の間の当該床に平行な方向の距離をそれぞれ検出する。このときの各水平距離の検出自体は、従来と同様の全天球カメラCを用いた当該水平距離の検出方法を用いることができる。   After the room angle CN is extracted, the horizontal distance detection unit 341 then detects the horizontal distance from the spherical camera C to each room angle CN extracted by the intersection extraction unit 340 based on the indoor image D. I do. That is, the horizontal distance detection unit 341 detects the vertical line standing from the floor through the position P (see FIG. 6B) of the spherical camera C and the room angles CN extracted by the intersection extraction unit 340 (see FIG. A) and FIG. 6B) are detected in the direction parallel to the floor. At this time, the detection of each horizontal distance itself can use the same method of detecting the horizontal distance using the spherical camera C as in the related art.

各部屋角CNまでの全天球カメラCからの水平距離が検出されたら、次いで、距離算出部342は、交点抽出部340により抽出された各部屋角CNへの、全天球カメラCのカメラ部20からの距離Lを算出する。即ち距離算出部342は、図6(B)に示すように、水平距離検出部341により検出されている各水平距離PLと、室内画像データに付加されていた上記設置位置データにより示されるカメラ部20の床からの高さHと、に基づいて、上記距離Lを部屋角CNごとに算出する。このとき、カメラ部20の位置及び撮像方向は、室内空間内のユーザの視点の位置及び視線の方向にそれぞれ対応している。   When the horizontal distance from the spherical camera C to each room angle CN is detected, the distance calculation unit 342 then transmits the camera of the spherical camera C to each room angle CN extracted by the intersection extracting unit 340. The distance L from the unit 20 is calculated. That is, as shown in FIG. 6B, the distance calculation unit 342 includes a camera unit indicated by each horizontal distance PL detected by the horizontal distance detection unit 341 and the installation position data added to the indoor image data. The distance L is calculated for each room angle CN based on the height H from the floor 20 of the room. At this time, the position of the camera unit 20 and the imaging direction correspond to the position of the viewpoint and the direction of the line of sight of the user in the indoor space, respectively.

距離算出部342により各部屋角CNへのカメラ部20からの距離Lがそれぞれ算出されたら、次いで、画像処理部337は、画像抽出部339により抽出されている各天井画像CL等に対して、当該算出された距離Lを用いた伸縮処理及び膨張処理を施し、各天井画像CL等における歪みを補正する。より具体的に、画像処理部337は、例えば境界線BCW1、境界線BW14、境界線BFW1及び境界線BW12で囲まれた壁画像W1(図6(A)参照)について、カメラ部20の位置から(つまり室内空間の一点の位置から)各部屋角CNまでの距離Lを用いた伸縮処理及び膨張処理を含む補正処理を施し、図7(A)に例示する歪みを含んだ壁画像W1から、図7(B)に例示する歪みのない(方形の)補正壁画像MW1を生成する。更に、画像処理部337は、同様の歪み補正処理を天井画像CL、壁画像W2乃至壁画像W4及び床画像FLに対してそれぞれ施し、補正天井画像MCL、補正壁画像MW2乃至補正壁画像MW4及び補正床画像MFLをそれぞれ生成する。   After the distance L from the camera unit 20 to each room angle CN is calculated by the distance calculation unit 342, the image processing unit 337 then calculates the ceiling image CL and the like extracted by the image extraction unit 339. The expansion and contraction processing and the expansion processing using the calculated distance L are performed to correct distortion in each ceiling image CL and the like. More specifically, the image processing unit 337 determines, for example, the wall image W1 (see FIG. 6A) surrounded by the boundary lines BCW1, BW14, BFW1, and BW12 from the position of the camera unit 20. Correction processing including expansion / contraction processing using the distance L to each room angle CN (that is, from the position of one point in the indoor space) is performed, and the wall image W1 including the distortion illustrated in FIG. The distortion-free (square) corrected wall image MW1 illustrated in FIG. 7B is generated. Further, the image processing unit 337 performs the same distortion correction processing on the ceiling image CL, the wall images W2 to W4, and the floor image FL, respectively, and corrects the corrected ceiling image MCL, the corrected wall images MW2 to MW4, and A corrected floor image MFL is generated.

その後、画像処理部337は、各生成された補正壁画像MW1等を、図7(C)に例示するように室内空間に相当する六面図として組み合わせることで、図8(A)に示すような、上記室内画像データに映っている室内空間の三次元モデルを表わす上記室内空間画像Rを生成する。この室内空間画像Rを用いることにより、例えば元の室内画像データに付加されていた設置位置データに基づいて観る者(例えば一般消費者端末1のユーザ)の視点及び視線を変えることで、その室内空間画像Rで三次元モデルが表わされている室内空間を移動しながら、観る者の視点でその室内空間を観察することができる。   After that, the image processing unit 337 combines the generated corrected wall images MW1 and the like into a hexahedral view corresponding to the indoor space as illustrated in FIG. Further, the indoor space image R representing the three-dimensional model of the indoor space reflected in the indoor image data is generated. By using the indoor space image R, for example, by changing the viewpoint and line of sight of a viewer (for example, a user of the general consumer terminal 1) based on the installation position data added to the original indoor image data, While moving in the indoor space where the three-dimensional model is represented by the spatial image R, the indoor space can be observed from the viewpoint of the viewer.

なお、同一の物件識別データが付加された複数の室内画像データが受信されている場合には、一つの不動産物件について室内画像データが複数送信されている、即ち、当該不動産物件について複数の室内空間があることになる。この場合に、画像処理部337は、各室内画像データに対応する上記室内空間画像Rを接続し、当該複数の室内空間を含む不動産物件全体の三次元モデルを表す室内空間画像を生成する。より具体的に、画像処理部337は、例えばドアを介して接続されている二つの室内空間があった場合、図8(B)に例示するように、当該各室内空間を撮像した室内画像データを用いてそれぞれ生成された、当該室内画像データにそれぞれ対応する室内空間画像R1及び室内空間画像R2に共通の部分(図8(B)に例示する場合はドア画像DR)を検出し、その検出結果が共有されるように、室内空間画像R1と室内空間画像R2とを接続する。この場合に用いられる接続方法としてより具体的には、例えば以下に説明するi)特徴量を利用して室内空間画像同士を接続する方法と、ii)配置を利用して室内空間画像を接続する方法、の二通りが挙げられる。   When a plurality of indoor image data to which the same property identification data is added are received, a plurality of indoor image data are transmitted for one real estate property, that is, a plurality of indoor space There will be. In this case, the image processing unit 337 connects the indoor space image R corresponding to each indoor image data, and generates an indoor space image representing a three-dimensional model of the entire real estate including the plurality of indoor spaces. More specifically, when there are two indoor spaces connected via a door, for example, as shown in FIG. 8B, the image processing unit 337 generates indoor image data of each of the indoor spaces. , A portion common to the indoor space image R1 and the indoor space image R2 respectively corresponding to the indoor image data (the door image DR in the case illustrated in FIG. 8B) is detected, and the detection is performed. The indoor space image R1 and the indoor space image R2 are connected so that the result is shared. More specifically, the connection method used in this case is, for example, i) a method of connecting indoor space images using feature amounts described below, and ii) connecting an indoor space image using arrangement. Method.

i)特徴量を利用して室内空間画像同士を接続する方法
特徴量を利用して室内空間画像同士を接続する方法を用いる場合、画像処理部337は、元の室内画像データに映っている室内空間における特徴的な部分(例えば、窓又はその室内空間同士を行き来するためのドア等)の画像の特徴量を、室内空間画像ごとに検出する。より具体的に、画像処理部337は、図8(B)に例示するドア画像DRについて、室内空間画像R1側から見た場合のその特徴量と、室内空間画像R2側から見た場合のその特徴量と、をそれぞれ検出する。このときの「特徴量」とは、例えばドアの場合は、ドア全体の形状、ドアノブの位置、ドア表面の模様又は色合い等の特徴を定量的に示すパラメータである。また、例えば二つの室内空間に共通の窓の場合の特徴量とは、窓としての全体形状、その構造上の特徴(左右引き戸形式等)、色合い(透明か否かを含む)等の特徴を定量化したパラメータである。そして、画像処理部337は、室内空間画像R1及び室内空間画像R2についてそれぞれ検出した上記特徴量を比較し、それらが同一のドア又は窓等に相当すると判定された場合、それらを間に介して、室内空間画像R1と室内空間画像R2を接続する。なお、上記特徴量を検出する場合、上記ドア等のように壁等の一部ではなく、当該壁や床等の全体を対象として特徴量を検出するように構成することもできる。
i) Method of Connecting Indoor Space Images Using Feature Amount In the case of using a method of connecting indoor space images using feature amounts, the image processing unit 337 uses the method of connecting the indoor space images reflected in the original indoor image data. A characteristic amount of an image of a characteristic portion in the space (for example, a window or a door for moving between the indoor spaces) is detected for each indoor space image. More specifically, the image processing unit 337 determines the characteristic amount of the door image DR illustrated in FIG. 8B when viewed from the indoor space image R1 side and the characteristic amount when viewed from the indoor space image R2 side. And the feature amount are detected. The “feature value” at this time is, for example, in the case of a door, a parameter quantitatively indicating a feature such as a shape of the entire door, a position of a door knob, a pattern or a color of a door surface, and the like. In addition, for example, the feature quantity in the case of a window common to two indoor spaces includes features such as the overall shape of the window, its structural features (eg, left and right sliding door type), and colors (including whether or not it is transparent). These are quantified parameters. Then, the image processing unit 337 compares the feature amounts detected for the indoor space image R1 and the indoor space image R2, respectively, and when it is determined that they correspond to the same door or window, the image processing unit 337 intervenes therebetween. , The indoor space image R1 and the indoor space image R2 are connected. When detecting the characteristic amount, the characteristic amount may be detected not for a part of the wall or the like like the door or the like but for the entire wall or floor.

ii)配置を利用して室内空間画像同士を接続する方法
配置を利用して室内空間画像同士を接続する方法を用いる場合、画像処理部337は、元の室内画像データに映っている室内空間における上記特徴的な部分の画像の、それが含まれている室内空間画像の部分(例えば、それが含まれている壁画像)における配置を、室内空間画像ごとに検出する。より具体的に、画像処理部337は、図8(B)に例示するドア画像DRについて、室内空間画像R1側から見た場合の壁全体におけるその配置と、室内空間画像R2側から見た場合の壁全体におけるその配置と、をそれぞれ検出する。このときの「配置」とは、例えばドアの場合は、ドア全体の寸法、又はそれが含まれている壁におけるその位置(例えば、その壁の端部からの距離や壁全体の広さに対する比率を含む。以下、同様。)を示すパラメータである。また、例えば二つの室内空間に共通の窓の場合は、窓全体の寸法、又はそれが含まれている壁におけるその位置を示すパラメータである。そして、画像処理部337は、室内空間画像R1及び室内空間画像R2についてそれぞれ検出した上記配置を比較し、それらが同一のドア又は窓等に相当すると判定された場合、それらを間に介して、室内空間画像R1と室内空間画像R2を接続する。
ii) Method of connecting indoor space images using arrangement When using a method of connecting indoor space images using arrangement, the image processing unit 337 performs the processing in the indoor space reflected in the original indoor image data. The arrangement of the image of the characteristic portion in the portion of the indoor space image including the image (for example, the wall image including the image) is detected for each indoor space image. More specifically, the image processing unit 337 arranges the door image DR illustrated in FIG. 8B on the entire wall when viewed from the indoor space image R1 side and when viewed from the indoor space image R2 side. And its arrangement over the entire wall of the. The “arrangement” at this time means, for example, in the case of a door, the dimensions of the entire door, or its position on the wall containing the door (for example, the distance from the end of the wall or the ratio to the width of the entire wall). . The same applies hereinafter.) For example, in the case of a window common to two indoor spaces, the parameter is a parameter indicating the size of the entire window or its position on a wall including the window. Then, the image processing unit 337 compares the above-described arrangements detected for the indoor space image R1 and the indoor space image R2, and if it is determined that they correspond to the same door or window, the image processing unit 337 interposes them. The indoor space image R1 and the indoor space image R2 are connected.

次いで、室内空間画像生成部336は、生成された室内空間画像R等に対して、その不動産物件として必要な他の物件情報を付加し、物件情報データベース321に登録すべき物件情報を生成し、当該物件情報を物件情報データベース321に登録する。   Next, the indoor space image generation unit 336 adds other necessary property information as the real estate property to the generated indoor space image R and the like, generates property information to be registered in the property information database 321, The property information is registered in the property information database 321.

図4に戻って、ページ提供部331は、物件情報サイトにアクセスしたいずれかの一般消費者端末1からの要求に応じて、本実施形態の間取り作成/表示ページを、ネットワークNWを介して一般消費者端末1へ提供(送信)する。また、ページ提供部331は、物件情報サイトにアクセスしたいずれかの一般消費者端末1からの上記不動産物件の検索要求に応じて、上記物件情報掲載ページ(後述する室内空間画像等を含む)を、ネットワークNWを介して、当該検索要求を送信した一般消費者端末1へ提供する。   Returning to FIG. 4, the page providing unit 331 generalizes the floor plan creation / display page of the present embodiment via the network NW in response to a request from any of the general consumer terminals 1 accessing the property information site. Provide (send) to the consumer terminal 1. In addition, the page providing unit 331 displays the property information posting page (including an indoor space image described later) in response to a search request for the real estate property from any of the general consumer terminals 1 accessing the property information site. , Via the network NW to the general consumer terminal 1 that transmitted the search request.

図9は、本実施形態の間取り作成/表示ページの一例を示す図である。図9では、上記軌跡を入力するための軌跡入力領域R10が、一般消費者端末1の操作表示部14のディスプレイの画面内に表示されている例を示している。図9に示すように、本実施形態の間取り作成/表示ページには、軌跡入力領域R10、及び画像表示領域R20等が設けられている。軌跡入力領域R10には、入力領域100と、入力ボタン111と、送信ボタン112と、が設けられている。入力ボタン111は、一般消費者端末1のユーザが不動産物件の間取り図の作成を開始する際に操作される。この入力ボタン111が操作されることにより、間取り作成/表示ページが表示されている一般消費者端末1のシステム制御部13は、例えば、それまでに入力されていた軌跡データ等を初期化する。入力領域100は、間取り図の作成が所望される不動産物件を構成する構成物を示す線が、一つの構成物ごとに、操作表示部14のタッチパネルを用いてフリーハンドで入力される領域である。この入力領域100を用いて入力された線の軌跡(図3(B)参照)に対応する軌跡データ等、及び間取り作成/表示ページが表示されている一般消費者端末1を他の一般消費者端末1から識別するための端末識別データを含む間取り画像データ要求は、一つの構成物を示す当該軌跡データ及び端末識別データが入力される度に、一般消費者端末1から、ネットワークNWを介して情報提供サーバ3に送信される。この軌跡データ等及び端末識別データの送信に当たって、システム制御部13は、送信ボタン112が操作されたタイミングで当該送信を行う。   FIG. 9 is a diagram illustrating an example of a floor plan creation / display page according to the present embodiment. FIG. 9 shows an example in which the trajectory input region R10 for inputting the trajectory is displayed on the screen of the display of the operation display unit 14 of the general consumer terminal 1. As shown in FIG. 9, the floor plan creation / display page of this embodiment is provided with a locus input area R10, an image display area R20, and the like. In the trajectory input area R10, an input area 100, an input button 111, and a transmission button 112 are provided. The input button 111 is operated when the user of the general consumer terminal 1 starts creating a floor plan of a real estate property. By operating the input button 111, the system control unit 13 of the general consumer terminal 1 on which the floor plan creation / display page is displayed initializes, for example, trajectory data and the like that have been input so far. The input area 100 is an area in which a line indicating a component that constitutes a real estate property for which a floor plan is desired to be created is input by a free hand using the touch panel of the operation display unit 14 for each component. . The general consumer terminal 1 on which the trajectory data and the like corresponding to the trajectory of the line input using the input area 100 (see FIG. 3B) and the floor plan creation / display page are displayed by other general consumers A floor plan image data request including terminal identification data for identifying from the terminal 1 is transmitted from the general consumer terminal 1 via the network NW every time the trajectory data indicating one component and the terminal identification data are input. The information is transmitted to the information providing server 3. In transmitting the trajectory data and the like and the terminal identification data, the system control unit 13 performs the transmission at a timing when the transmission button 112 is operated.

画像表示領域R20は、操作表示部14を用いた一般消費者のスクロール操作により間取り作成/表示ページがスクロールすることで画面に表示されることになる。画像表示領域R20には、表示領域200、修正ボタン201、三次元化ボタン202、及び物件検索ボタン203が含まれている。表示領域200は、情報提供サーバ3から一つの構成物ごとに送信されてきた上記間取り画像データに相当する間取り画像が表示される。間取り画像としては、初めに、入力領域100を用いて入力された線の軌跡に対応する二次元の間取り画像が表示される。修正ボタン201は、表示領域200に表示されている間取り画像を修正するための線又は点の入力が、例えば一つの構成物ごとに行われる際に、操作される。修正ボタン201が操作されたことが検出されると、システム制御部13は、表示領域200を用いた新たな(修正用の)フリーハンドでの線の入力を可能とする。修正用に入力された線の軌跡は、修正用の上記軌跡データ等として、一つの構成物ごとに、ネットワークNWに送信され、情報提供サーバ3において対応する間取り画像データが修正される。修正後の間取り画像データは、上記端末識別データにより、再度、ネットワークNWを介して一般消費者端末1に送信され、対応する修正後の間取り画像が表示領域200に改めて表示される。   The image display area R20 is displayed on the screen by scrolling the layout creation / display page by a general consumer scroll operation using the operation display unit 14. The image display area R20 includes a display area 200, a correction button 201, a three-dimensionalization button 202, and a property search button 203. The display area 200 displays a floor plan image corresponding to the floor plan image data transmitted from the information providing server 3 for each component. As the floor plan image, first, a two-dimensional floor plan image corresponding to the trajectory of the line input using the input area 100 is displayed. The correction button 201 is operated when a line or a point for correcting the floor plan image displayed in the display area 200 is input, for example, for each component. When the operation of the correction button 201 is detected, the system control unit 13 enables input of a new (for correction) freehand line using the display area 200. The trajectory of the line input for correction is transmitted to the network NW for each component as the trajectory data for correction or the like, and the corresponding floor plan image data is corrected in the information providing server 3. The modified floor plan image data is transmitted to the general consumer terminal 1 again via the network NW based on the terminal identification data, and the corresponding corrected floor plan image is displayed again in the display area 200.

三次元化ボタン202は、表示領域200に二次元の間取り画像が表示されている状態で、その間取り画像を三次元化した三次元モデルに相当する三次元の間取り画像を表示領域200に表示する際に操作される。三次元化ボタン202が操作されると、システム制御部13は、その操作に対応する三次元化要求を、三次元化ボタン202が操作された一般消費者端末1を他の一般消費者端末1から識別するための端末識別データと共に、ネットワークNWを介して情報提供サーバ3に送信する。そして、情報提供サーバ3から、当該三次元化に対応した三次元の間取り画像データが上記端末識別データに基づいて送信されてきたら、システム制御部13は、その三次元の間取り画像データに相当する三次元の間取り画像を表示領域200に表示する。   The three-dimensionalization button 202 displays a three-dimensional floor plan image corresponding to a three-dimensional model obtained by three-dimensionalizing the two-dimensional floor plan image in the display area 200 in a state where the two-dimensional floor plan image is displayed in the display area 200. It is operated when. When the three-dimensionalization button 202 is operated, the system control unit 13 sends a three-dimensionalization request corresponding to the operation to the general consumer terminal 1 on which the three-dimensionalization button 202 is operated and the other general consumer terminals 1. The information is transmitted to the information providing server 3 via the network NW together with the terminal identification data for identifying from the server. When three-dimensional floor plan image data corresponding to the three-dimensional processing is transmitted from the information providing server 3 based on the terminal identification data, the system control unit 13 corresponds to the three-dimensional floor plan image data. The three-dimensional floor plan image is displayed in the display area 200.

物件検索ボタン203は、表示領域200に表示されている間取り画像に相当する間取りを有する不動産物件を検索する際に操作される。物件検索ボタン203が操作された後に、システム制御部13は、上記表示されている間取り画像に相当する間取り図の他に検索条件がある場合に、当該検索条件を入力させるための図示しない検索条件入力画面を操作表示部14のディスプレイに表示させ、当該検索条件を入力させる。この検索条件入力画面を用いて入力される上記検索条件は、例えば後ほど図10を用いて説明する物件情報掲載ページ内の検索条件指定領域R1に表示される検索条件が該当する。そして、システム制御部13は、当該検索条件を含む上記検索要求を、当該システム制御部13が含まれている一般消費者端末1を他の一般消費者端末1から識別するための端末識別データと共に、ネットワークNWを介して情報提供サーバ3に送信する。その後、情報提供サーバ3から、当該検索要求に対応した物件情報掲載ページが送信されてきたら、システム制御部13は、それを操作表示部14のディスプレイに表示させる。   The property search button 203 is operated when searching for a real estate property having a floor plan corresponding to the floor plan image displayed in the display area 200. After the property search button 203 has been operated, the system control unit 13 sets a search condition (not shown) for inputting the search condition when there is a search condition other than the floor plan corresponding to the displayed floor plan image. An input screen is displayed on the display of the operation display unit 14, and the search condition is input. The search condition input using the search condition input screen corresponds to, for example, a search condition displayed in a search condition designation area R1 in a property information posting page described later with reference to FIG. Then, the system control unit 13 sends the search request including the search condition together with terminal identification data for identifying the general consumer terminal 1 including the system control unit 13 from other general consumer terminals 1. , To the information providing server 3 via the network NW. Thereafter, when a property information posting page corresponding to the search request is transmitted from the information providing server 3, the system control unit 13 displays the same on the display of the operation display unit 14.

図10は、本実施形態の物件情報が掲載された物件情報掲載ページの一例を示す図である。図10は、上記検索要求に含まれていた検索条件により検索された賃貸物件の一覧が表示された例を示している。図10に示すように、本実施形態の物件情報掲載ページには、検索条件指定領域R1、物件一覧表示領域R2、及び広告表示領域R3等が設けられている。検索条件指定領域R1は、不動産物件の検索条件を指定するための領域である。検索条件指定領域R1には、図10に例示する地域指定欄、間取り選択欄、及び検索条件の指定の際に選択可能に表示されて参照される外観写真又は室内空間写真が表示される。このとき、当該外観写真又は室内空間写真は、物件情報データベース321内に登録されている不動産物件の外観写真又は室内空間写真である(図2参照)。また、検索条件指定領域R1に表示される外観写真又は室内空間写真としては、例えば、間取り選択欄で選択された間取りの不動産物件についての外観写真又は室内空間写真に絞って表示されてもよい。物件一覧表示領域R2は、指定された検索条件により検索された不動産物件の一覧を表示する領域である。物件一覧表示領域R2には、検索された不動産物件毎に区切られた物件表示領域R2a、物件表示領域R2b、物件表示領域R2c、…、が、所定の表示順序で設けられている。一般消費者端末1が物件情報掲載ページを受信した時点では、図10に示すように、表示順序が上位に設定された物件表示領域R2a、物件表示領域R2b、及び物件表示領域R2cが画面に表示される。そして、一般消費者のスクロール操作により物件情報掲載ページがスクロールすることで、表示順序が物件表示領域R2cより下位に設定された物件表示領域R2d以降が画面に表示されることになる。それぞれの物件表示領域には、物件情報中の物件情報の一部(例えば、物件名、物件種別、賃料、所在地、交通、専有面積、間取りなど)、及び詳細ページへのリンク文字やボタンなどが表示される(問合せボタンが表示される場合もある)。例えば、物件表示領域R2aに表示された物件名101及び“詳細を見る”102は、詳細ページへのリンク文字であり、このリンクがクリック又はタップされると、ページ提供部331により詳細ページが提供されることになる。詳細ページには、物件情報中の物件情報のほぼ全部、仲介業者情報、及び問合せボタンが表示される(資料請求ボタンが表示される場合もある)。更に、詳細ページには、その不動産物件についての広告としてのパノラマ画像(本実施形態の室内空間画像を含む)やスタッフコメントなどが表示される。広告表示領域R3は、選択に応じて不動産物件の広告(例えば、詳細ページへのリンクが設定されたバナー広告)を表示するための領域である。このような広告表示領域R3は、物件情報掲載ページ以外にも、特定のサイト(物件情報サイトには限定されない)から提供されるページ(例えば、ブログページなど)にも設けられる場合もある。   FIG. 10 is a diagram illustrating an example of a property information posting page on which property information of the present embodiment is posted. FIG. 10 shows an example in which a list of rental properties searched according to the search conditions included in the search request is displayed. As shown in FIG. 10, the property information posting page of the present embodiment is provided with a search condition designation area R1, a property list display area R2, an advertisement display area R3, and the like. The search condition specification area R1 is an area for specifying search conditions for real estate properties. In the search condition specification region R1, an area specification column and a floor plan selection column illustrated in FIG. 10, and an appearance photograph or an indoor space photograph that is displayed so as to be selectable when designating the search condition and referred to are displayed. At this time, the exterior photograph or the interior space photograph is an exterior photograph or an interior space photograph of a real estate property registered in the property information database 321 (see FIG. 2). In addition, as the appearance photograph or the indoor space photograph displayed in the search condition specification region R1, for example, the display may be narrowed down to the appearance photograph or the indoor space photograph of the real estate property of the floor plan selected in the floor plan selection column. The property list display area R2 is an area for displaying a list of real estate properties searched according to specified search conditions. In the property list display area R2, a property display area R2a, a property display area R2b, a property display area R2c, and the like, which are separated for each searched real estate property, are provided in a predetermined display order. When the general consumer terminal 1 receives the property information posting page, the property display area R2a, property display area R2b, and property display area R2c, in which the display order is set higher, are displayed on the screen as shown in FIG. Is done. Then, by scrolling the property information posting page by a general consumer's scroll operation, the property order display area R2d whose display order is set lower than the property display area R2c is displayed on the screen. In each property display area, part of the property information in the property information (for example, property name, property type, rent, location, traffic, occupied area, floor plan, etc.), and link letters and buttons to detailed pages Is displayed (in some cases, an inquiry button is displayed). For example, the property name 101 and the “see details” 102 displayed in the property display area R2a are link characters to a detail page, and when the link is clicked or tapped, the detail page is provided by the page providing unit 331. Will be done. On the detail page, almost all of the property information in the property information, broker information, and an inquiry button are displayed (a material request button may be displayed). Further, on the detail page, a panoramic image (including the indoor space image of the present embodiment) as an advertisement for the real estate, a staff comment, and the like are displayed. The advertisement display area R3 is an area for displaying an advertisement of a real estate property (for example, a banner advertisement in which a link to a detailed page is set) according to the selection. Such an advertisement display region R3 may be provided on a page (for example, a blog page) provided from a specific site (not limited to the property information site), in addition to the property information posting page.

次いで、システム制御部33の検索部332は、上記間取り作成/表示ページ(図9参照)を用いて一般消費者端末1から送信されてきた上記間取り画像データ要求に含まれている上記軌跡データ等に基づいて、基準データデータベース322内を検索し、当該軌跡データ等に対応した構成物の基準データ(図3(B)参照)を特定する。より具体的に、例えば、図3(B)に「部屋1」として示されている軌跡を示す軌跡データ等が送信されてきた場合、検索部332は、当該軌跡データ等に基づいて基準データデータベース322内を検索し、当該「部屋1」の基準データを特定する。これにより、間取り画像データ生成部333は、検索部332からの基準データの特定情報に基づき、当該特定された基準データを基準データデータベース322から読み出して、当該基準データに対応する間取り図に相当する間取り画像データを生成する。例えば、図3(B)に「部屋1」として示されている基準データを読み出した場合、間取り画像データ生成部333は、それに対応する一つの部屋の図面として、上記軌跡データ等により示される軌跡全体の幅及び奥行きを有する矩形の図面に相当する間取り画像データを生成する。なお、一般消費者端末1から、上記修正ボタン201の操作に対応した上記修正用の軌跡データ等が新たに送信されてきた場合、検索部332は、当該新たに送信されてきた軌跡データ等に基づいて基準データデータベース322内を検索して対応する基準データを特定し、更に、間取り画像データ生成部333は、特定された基準データを基準データデータベース322から読み出して、それに対応する間取り図に相当する間取り画像データを新たに生成する(即ち、修正する)。   Next, the search unit 332 of the system control unit 33 uses the above-described floor plan creation / display page (see FIG. 9) to transmit the above-described trajectory data and the like included in the floor plan image data request transmitted from the general consumer terminal 1. , The reference data database 322 is searched to identify the reference data (see FIG. 3B) of the component corresponding to the trajectory data and the like. More specifically, for example, when trajectory data or the like indicating a trajectory indicated as “room 1” in FIG. 3B is transmitted, the search unit 332 searches the reference data database based on the trajectory data or the like. 322 is searched, and the reference data of the “room 1” is specified. Thereby, the floor plan image data generation unit 333 reads the specified reference data from the reference data database 322 based on the specification information of the reference data from the search unit 332, and corresponds to a floor plan corresponding to the reference data. Generate floor plan image data. For example, when the reference data indicated as “room 1” in FIG. 3B is read, the floor plan image data generation unit 333 determines the corresponding one of the rooms as a drawing of the trajectory indicated by the trajectory data and the like. It generates floor plan image data corresponding to a rectangular drawing having the entire width and depth. When the general trajectory data or the like for correction corresponding to the operation of the correction button 201 is newly transmitted from the general consumer terminal 1, the search unit 332 searches the newly transmitted trajectory data or the like. The reference data database 322 is searched based on the reference data, and the corresponding reference data is specified. Further, the floor plan image data generation unit 333 reads the specified reference data from the reference data database 322 and corresponds to the corresponding floor plan. To generate (ie, correct) the floor plan image data.

ここで、一般消費者端末1からの上記三次元化ボタン202の操作に対応した要求に基づき、間取り画像データ生成部333は、基準データに対応した二次元の間取り画像データに対応する(即ち、当該二次元の間取り画像を三次元化した)三次元モデルを示す三次元の間取り画像データを生成する。この、三次元の間取り画像データの生成については、後ほど図11及び図12を用いて詳述する。その後、表示制御部334は、間取り画像データ生成部333により生成された間取り画像データを、間取り画像データ要求を送信してきた一般消費者端末1に、上記端末識別データに基づいて送信する。これにより、間取り画像データが送信された一般消費者端末1では、当該間取り画像データに対応する間取り画像(即ち、二次元の間取り画像又は三次元の間取り画像)を、上記間取り作成/表示ページの画像表示領域R20を用いて表示する。物件情報取得部335は、上記間取り画像が表示されている一般消費者端末1から上記物件検索ボタン203の操作に対応した検索要求が送信されてきたら、当該検索要求に含まれている検索条件を用いて物件情報データベース321内を検索し、その検索結果に相当する物件情報をページ提供部331に出力させる。これにより、ページ提供部331は、出力された物件情報を含む上記物件情報提供ページ(図10参照)を、上記検索要求を送信してきた一般消費者端末1に、上記端末識別データに基づいて送信する。そして、当該物件情報提供ページが送信された一般消費者端末1では、それを操作表示部14のディスプレイに表示する。なお、上述した検索要求に対応した物件情報取得部335による物件情報の検索等については、後ほど図13を用いて詳述する。   Here, based on a request corresponding to the operation of the three-dimensionalization button 202 from the general consumer terminal 1, the floor plan image data generation unit 333 corresponds to the two-dimensional floor plan image data corresponding to the reference data (ie, Three-dimensional floor plan image data representing a three-dimensional model (three-dimensionalized from the two-dimensional floor plan image) is generated. The generation of the three-dimensional floor plan image data will be described later in detail with reference to FIGS. After that, the display control unit 334 transmits the floor plan image data generated by the floor plan image data generation unit 333 to the general consumer terminal 1 that has transmitted the floor plan image data request based on the terminal identification data. Thereby, in the general consumer terminal 1 to which the floor plan image data has been transmitted, the floor plan image (that is, the two-dimensional floor plan image or the three-dimensional floor plan image) corresponding to the floor plan image data is displayed on the floor plan creation / display page. The image is displayed using the image display area R20. When a search request corresponding to the operation of the property search button 203 is transmitted from the general consumer terminal 1 on which the floor plan image is displayed, the property information acquisition unit 335 determines the search condition included in the search request. The property information database 321 is used to search the property information database 321, and property information corresponding to the search result is output to the page providing unit 331. Accordingly, the page providing unit 331 transmits the property information providing page (see FIG. 10) including the output property information to the general consumer terminal 1 that has transmitted the search request based on the terminal identification data. I do. Then, the general consumer terminal 1 to which the property information providing page is transmitted displays the property information providing page on the display of the operation display unit 14. The search of the property information by the property information acquisition unit 335 in response to the above search request will be described later in detail with reference to FIG.

次いで、間取り画像データ生成部333による、三次元の間取り画像データの生成について、具体的に図11及び図12を用いて説明する。なお、図11及び図12は、本実施形態の三次元の間取り画像データの作成処理を例示する図である。   Next, generation of three-dimensional floor plan image data by the floor plan image data generation unit 333 will be specifically described with reference to FIGS. 11 and 12 are diagrams exemplifying a process of creating three-dimensional floor plan image data according to the present embodiment.

間取り画像データ生成部333は、先ず、一般消費者端末1から送信されてきた上記軌跡データ等と上記基準データとに基づいて二次元の間取り画像データを生成し、それを一般消費者端末1に送信して、対応する二次元の間取り画像を表示させる。ここで、当該表示された二次元の間取り画像の間取り図が、例えば図11(A)に示す間取り図FPであったとする。図11(A)に例示する間取り図FPは、図3(A)に例示した間取り図FPにおける左下の部屋RMF1(即ち、ベランダに面した左側の部屋)の間取り図である。図11(A)に示す間取り図FPでは、一つの部屋RMF1が壁WLF1乃至壁WLF4により構成されており、壁WLF1には引き戸SDF1があり、壁WLF2には引き戸SDF3があり、壁WLF3には窓WFがあり、壁WLF4には引き戸SDF2がある。図11(A)に例示する間取り図FPの間取り図画像が表示されている一般消費者端末1から上記三次元化要求が送信されてくると、間取り画像データ生成部333は、間取り図FPの間取り図画像を三次元化した三次元モデルを生成し、それに基づいて、図11(B)に例示する三次元の間取り画像に相当する三次元の間取り画像データを生成する。より具体的に、間取り画像データ生成部333は、図11(A)に示す壁WLF1乃至壁WLF4の位置及び長さに基づいて、例えば家屋としての標準的な天井高さを部屋RMF1としての天井高さと決定し、その天井高さをもった三次元モデルを生成することで、図11(B)に例示する三次元の間取り画像に相当する三次元の間取り画像データを生成する。図11(B)に例示する三次元の間取り画像では、外観視される四つの壁画像WL1乃至壁画像WL4を含んで三次元の間取り画像が構成されている。そして、壁画像WL1には引き戸SDF1の引き戸画像SD1が含まれており、壁画像WL2には引き戸SDF3の引き戸画像SD3が含まれており、壁画像WL3には窓WFの窓画像WDが含まれており、壁画像WL4には引き戸SDF2の引き戸画像SD2が含まれている。また、間取り画像データ生成部333は、引き戸SDF1乃至引き戸SDF3、及び窓WFの当該三次元の間取り画像における水平方向のそれぞれの位置及び間口を、図11(A)に例示する間取り図FPに対応した位置及び間口とする。更に、間取り画像データ生成部333は、引き戸SDF1乃至引き戸SDF3、及び窓Wの当該三次元の間取り画像における鉛直方向の位置及び高さを、引き戸SDF1乃至引き戸SDF3、並びに窓WFそれぞれとしての標準的な位置及び高さとする。また、間取り画像データ生成部333は、図11(B)に例示する三次元の間取り画像データ(即ち、部屋RMF1を外観視する三次元の間取り画像データ)に加えて、図12(A)及び図12(B)に例示する、当該部屋RMF1を内観視する三次元の間取り画像データも生成する。即ち、間取り画像データ生成部333は、例えば、図11(A)に例示する間取りFPの部屋RMF1の中央に立って壁WLF1及び壁WLF4を視野に入れたユーザの視点及び視線で見た部屋RMF1を内観視する三次元の間取り画像データを、図12(A)に例示するように生成する。図12(A)に例示する三次元の間取り画像では、内観視される二つ壁画像WL1及び壁画像WL4を含んで三次元の間取り画像が構成されている。そして、壁画像WL1には引き戸画像SD1が含まれており、壁画像WL4には引き戸画像SD2が含まれている。更に、間取り画像データ生成部333は、当該部屋RMF1の中央に立って壁WLF2及び壁WLF3を視野に入れたユーザの視点及び視線で見た部屋RMF1を内観視する三次元の間取り画像データを、図12(B)に例示するように生成する。図12(B)に例示する三次元の間取り画像では、内観視される二つ壁画像WL2及び壁画像WL3を含んで三次元の間取り画像が構成されている。そして、壁画像WL2には引き戸画像SD3が含まれており、壁画像WL3には窓画像WDが含まれている。その後、表示制御部334は、間取り画像データ生成部333により生成された各三次元の間取り画像データを、上記三次元化要求を送信してきた一般消費者端末1に対して、端末識別データに基づいてネットワークNWを介してそれぞれ送信し、それらに対応する三次元の間取り図画像を表示させる。   First, the floor plan image data generation unit 333 generates two-dimensional floor plan image data based on the trajectory data and the like and the reference data transmitted from the general consumer terminal 1, and sends the generated two-dimensional floor plan image data to the general consumer terminal 1. Send and display the corresponding two-dimensional floor plan image. Here, it is assumed that the displayed floor plan of the two-dimensional floor plan image is, for example, the floor plan FP shown in FIG. The floor plan FP illustrated in FIG. 11A is a floor plan of the lower left room RMF1 (that is, the left room facing the veranda) in the floor plan FP illustrated in FIG. 3A. In the floor plan FP shown in FIG. 11A, one room RMF1 includes walls WLF1 to WLF4, the wall WLF1 has a sliding door SDF1, the wall WLF2 has a sliding door SDF3, and the wall WLF3 has a sliding door SDF3. There is a window WF and a sliding door SDF2 on the wall WLF4. When the three-dimensionalization request is transmitted from the general consumer terminal 1 on which the floor plan image of the floor plan FP illustrated in FIG. 11A is displayed, the floor plan image data generation unit 333 generates the floor plan image FP. A three-dimensional model is generated by converting the floor plan image into a three-dimensional image. Based on the generated three-dimensional model, three-dimensional floor plan image data corresponding to the three-dimensional floor plan image illustrated in FIG. 11B is generated. More specifically, based on the positions and lengths of the walls WLF1 to WLF4 shown in FIG. 11A, the floor plan image data generation unit 333 sets, for example, a standard ceiling height as a house to a ceiling as a room RMF1. By determining the height and generating a three-dimensional model having the ceiling height, three-dimensional floor plan image data corresponding to the three-dimensional floor plan image illustrated in FIG. 11B is generated. In the three-dimensional floor plan image illustrated in FIG. 11B, a three-dimensional floor plan image is configured to include four wall images WL1 to WL4 viewed from the outside. The wall image WL1 includes the sliding door image SD1 of the sliding door SDF1, the wall image WL2 includes the sliding door image SD3 of the sliding door SDF3, and the wall image WL3 includes the window image WD of the window WF. The wall image WL4 includes a sliding door image SD2 of the sliding door SDF2. In addition, the floor plan image data generation unit 333 corresponds to the horizontal position FP of the sliding doors SDF1 to SDF3 and the window WF in the three-dimensional floor plan image in the three-dimensional floor plan image according to the floor plan FP illustrated in FIG. Position and frontage. Furthermore, the floor plan image data generation unit 333 determines the vertical position and height of the sliding doors SDF1 to SDF3 and the window W in the three-dimensional floor plan image in the standard manner as the sliding doors SDF1 to SDF3 and the window WF. Position and height. Further, in addition to the three-dimensional floor plan image data illustrated in FIG. 11B (that is, three-dimensional floor plan image data for externally viewing the room RMF1), the floor plan image data generation unit 333 also includes Also, three-dimensional floor plan image data for internally viewing the room RMF1 illustrated in FIG. 12B is generated. That is, the floor plan image data generation unit 333 stands, for example, at the center of the room RMF1 of the floor plan FP illustrated in FIG. 11A and views the room RMF1 viewed from the viewpoint and the line of sight of the wall WLF1 and the wall WLF4. 12A is generated as illustrated in FIG. 12A. In the three-dimensional floor plan image illustrated in FIG. 12A, a three-dimensional floor plan image is configured to include the two-wall image WL1 and the wall image WL4 that are viewed in the interior. The wall image WL1 includes the sliding door image SD1, and the wall image WL4 includes the sliding door image SD2. Further, the floor plan image data generating unit 333 stands in the center of the room RMF1 and views the wall WLF2 and the wall WLF3 with the user's viewpoint and the three-dimensional floor plan image data for internally viewing the room RMF1 viewed from the line of sight. It is generated as illustrated in FIG. In the three-dimensional floor plan image illustrated in FIG. 12B, a three-dimensional floor plan image is configured to include the two-wall image WL2 and the wall image WL3 that are viewed in the interior. The wall image WL2 includes the sliding door image SD3, and the wall image WL3 includes the window image WD. Thereafter, the display control unit 334 sends the three-dimensional floor plan image data generated by the floor plan image data generation unit 333 to the general consumer terminal 1 that has transmitted the three-dimensionalization request based on the terminal identification data. And sends them via the network NW to display corresponding three-dimensional floor plan images.

そして、上記修正ボタン201の操作に対応して、例えば窓WFを床からの窓とする旨の修正用の軌跡データ等が送信されてきたら、間取り画像データ生成部333は、図11(B)に例示する三次元の間取り画像における窓画像WDを床からの窓とする修正を行い、当該高さの修正後の窓WFを有する部屋RMF1の三次元の間取り画像に相当する三次元の間取り画像データを生成する。その後、表示制御部334は、上記修正された三次元の間取り画像データを、上記修正用の軌跡データ等を送信してきた一般消費者端末1にネットワークNWを介して送信し、当該修正後の三次元の間取り画像データに相当する三次元の間取り画像を表示させる。一方、上記修正ボタン201の操作に対応して、例えば窓WFの幅を拡げる旨の修正用の軌跡データ等が送信されてきたら、間取り画像データ生成部333は、図11(B)に例示する三次元の間取り画像における窓画像WDの幅を当該軌跡データ等により示される幅まで拡げる修正を行い、当該幅の修正後の窓WFを有する部屋RMF1の三次元の間取り画像に相当する三次元の間取り画像データを生成する。その後、表示制御部334は、上記修正された三次元の間取り画像データを、上記修正用の軌跡データ等を送信してきた一般消費者端末1にネットワークNWを介して送信し、当該修正後の三次元の間取り画像データに相当する三次元の間取り画像を表示させる。   Then, in response to the operation of the correction button 201, for example, when locus data for correction indicating that the window WF is a window from the floor is transmitted, the floor plan image data generation unit 333 proceeds to FIG. The window image WD in the three-dimensional floor plan image illustrated in FIG. 3 is corrected to be a window from the floor, and the three-dimensional floor plan image corresponding to the three-dimensional floor plan image of the room RMF1 having the window WF after the height correction is performed. Generate data. After that, the display control unit 334 transmits the corrected three-dimensional floor plan image data to the general consumer terminal 1 that has transmitted the correction trajectory data and the like via the network NW, and A three-dimensional floor plan image corresponding to the original floor plan image data is displayed. On the other hand, if, for example, trajectory data for correction indicating that the width of the window WF is to be expanded is transmitted in response to the operation of the correction button 201, the floor plan image data generation unit 333 exemplifies the processing in FIG. 11B. The width of the window image WD in the three-dimensional floor plan image is corrected to be expanded to the width indicated by the trajectory data and the like, and the three-dimensional floor plan image corresponding to the three-dimensional floor plan image of the room RMF1 having the window WF having the corrected width is obtained. Generate floor plan image data. After that, the display control unit 334 transmits the corrected three-dimensional floor plan image data to the general consumer terminal 1 that has transmitted the correction trajectory data and the like via the network NW, and A three-dimensional floor plan image corresponding to the original floor plan image data is displayed.

次いで、物件情報取得部335は、上記間取り画像が表示されている(図9参照)一般消費者端末1から上記物件検索ボタン203の操作に対応した検索要求が送信されてきたら、当該検索要求に含まれている検索条件を用いて物件情報データベース321内を検索する。ここで、一般消費者端末1から送信されてくる検索要求には、上記間取り作成/表示ページの表示領域200に表示されている三次元の間取り画像に相当する三次元の間取り画像データが含まれている場合の他に、図10に例示する物件情報掲載ページの検索条件指定領域R1に表示されている外観写真又は室内空間写真に相当する写真画像データが含まれている場合がある。そこで、物件情報取得部335は、検索要求に上記写真画像データが含まれている場合は、当該写真画像データを用いて物件情報データベース321内を検索し(特に、物件情報データベース321に登録されている外観画像と室内写真画像を検索し)、その検索結果としての写真画像を含む物件情報をページ提供部331に出力させる。これに対し、検索要求に上記三次元の間取り画像データが含まれている場合、物件情報取得部335は、この三次元の間取り画像データと、物件情報データベース321に登録されている室内空間画像(三次元の室内空間画像)のそれぞれと、を比較し、検索要求に含まれている三次元の間取り画像データに類似する室内空間画像を検索する。そして、物件情報取得部335は、その検索結果としての(三次元の)室内空間画像を含む物件情報を、物件情報データベース321からページ提供部331に出力させる。これらにより、ページ提供部331は、各出力された物件情報(即ち、検索結果としての上記写真画像又は上記室内空間画像を含む物件情報)を含む上記物件情報提供ページ(図10参照)を、上記検索要求を送信してきた一般消費者端末1に、上記端末識別データに基づいて送信し、その操作表示部14のディスプレイに表示させる。   Next, when a search request corresponding to the operation of the property search button 203 is transmitted from the general consumer terminal 1 on which the floor plan image is displayed (see FIG. 9), the property information acquisition unit 335 responds to the search request. The property information database 321 is searched using the included search conditions. Here, the search request transmitted from the general consumer terminal 1 includes three-dimensional floor plan image data corresponding to the three-dimensional floor plan image displayed in the display area 200 of the floor plan creation / display page. In addition to the above case, there may be cases in which photographic image data corresponding to the exterior photograph or the indoor space photograph displayed in the search condition designation area R1 of the property information posting page illustrated in FIG. 10 is included. Therefore, when the search request includes the above-described photo image data, the property information acquisition unit 335 searches the property information database 321 using the photo image data (in particular, when the property request is registered in the property information database 321). The exterior information and the indoor photo image are searched for), and the property information including the photo image as the search result is output to the page providing unit 331. On the other hand, when the search request includes the three-dimensional floor plan image data, the property information acquisition unit 335 determines the three-dimensional floor plan image data and the indoor space image ( (3D indoor space image), and searches for an indoor space image similar to the 3D floor plan image data included in the search request. Then, the property information acquisition unit 335 causes the page providing unit 331 to output the property information including the (three-dimensional) indoor space image as the search result from the property information database 321. Accordingly, the page providing unit 331 sets the property information providing page (see FIG. 10) including the output property information (that is, property information including the photograph image or the indoor space image as a search result) as described above. The search request is transmitted to the general consumer terminal 1 that has transmitted the request based on the terminal identification data, and is displayed on the display of the operation display unit 14.

次に、検索要求に上記三次元の間取り画像データが含まれている場合における、当該三次元の間取り画像データを用いた類似する室内空間画像の検索方法について、具体的に図13を用いて説明する。図13は、本実施形態の検索処理を説明する図である。   Next, a method for searching for a similar indoor space image using the three-dimensional floor plan image data when the search request includes the three-dimensional floor plan image data will be specifically described with reference to FIG. I do. FIG. 13 is a diagram illustrating the search processing according to the present embodiment.

今、検索要求に含まれていた上記三次元の間取り画像データに相当する三次元の間取り画像が、図13(A)に例示する三次元の間取り画像RM10であったとする。図13(A)に例示する三次元の間取り画像RM10は、壁画像WL10乃至壁画像WL13で囲まれており、壁画像WL10には引き戸画像SD10が含まれており、壁画像WL11には窓画像WD12が含まれており、壁画像WL12には窓画像WD11が含まれている。そして、このような三次元の間取り画像RM10に対応する三次元の間取り画像データが含まれた検索要求が一般消費者端末1から送信されてくると、物件情報取得部335は、予め設定された特徴量抽出アルゴリズム(より具体的には、例えばディープラーニング技術におけるセマンティック・セグメンテション法等)により、四つの壁画像WL10乃至壁画像WL13それぞれの特徴量(特徴点ということもある)を抽出する。このときの特徴量としては、例えば、HOG(Histograms of Oriented Gradients)特徴量が抽出される。HOG特徴量は、画像の局所領域から抽出された輝度勾配を示す特徴量である。HOG特徴量は、特徴量抽出アルゴリズムに従って、画像から局所領域を分割したセル(例えば、局所領域をn×nのブロックに分割し、分割されたブロックをm×m(mは自然数)に分割したセル)ごとに勾配強度と勾配方向が算出され勾配方向ヒストグラムが生成、正規化されることで抽出される。或いは、画像の特徴量として、エッジに着目したEOH(Edge of Orientation Histograms)特徴量、或いは輝度に着目したHaar-like特徴量が抽出されてもよい。その他、画像の特徴量として、SIFT(Scale-Invariant Feature Transform)特徴量やSURF(Speeded Up Robust features)特徴量等、公知の種々の特徴量、又はこれらの組合せた特徴量が抽出されてもよい。   Now, it is assumed that the three-dimensional floor plan image corresponding to the three-dimensional floor plan image data included in the search request is the three-dimensional floor plan image RM10 illustrated in FIG. The three-dimensional floor plan image RM10 illustrated in FIG. 13A is surrounded by wall images WL10 to WL13, the wall image WL10 includes a sliding door image SD10, and the wall image WL11 includes a window image. The wall image WL12 includes a window image WD11. Then, when a search request including the three-dimensional floor plan image data corresponding to such a three-dimensional floor plan image RM10 is transmitted from the general consumer terminal 1, the property information acquisition unit 335 sets a preset value. A feature value extraction algorithm (more specifically, for example, a semantic segmentation method in a deep learning technique) extracts feature values (also referred to as feature points) of each of the four wall images WL10 to WL13. . As the feature at this time, for example, HOG (Histograms of Oriented Gradients) feature is extracted. The HOG feature amount is a feature amount indicating a luminance gradient extracted from a local region of the image. The HOG feature amount is obtained by dividing a local region from an image into cells (for example, dividing the local region into n × n blocks and dividing the divided blocks into m × m (m is a natural number)) according to a feature amount extraction algorithm. The gradient strength and gradient direction are calculated for each cell, and a gradient direction histogram is generated and normalized to be extracted. Alternatively, an EOH (Edge of Orientation Histograms) feature that focuses on edges or a Haar-like feature that focuses on luminance may be extracted as a feature of an image. In addition, various known feature amounts such as SIFT (Scale-Invariant Feature Transform) feature amount and SURF (Speeded Up Robust features) feature amount, or a combination of these may be extracted as the image feature amount. .

壁画像WL10乃至壁画像WL13それぞれの特徴量が抽出されたら、次いで、物件情報取得部335は、当該抽出された特徴量に基づいて一つの壁画像を特定する。このとき、物件情報取得部335は、例えば、抽出された特徴量が最も大きい一の壁画像を特定してもよいし、或いは、壁画像WL10乃至壁画像WL13それぞれの特徴量の相対値に基づいて、予め設定された規則に沿って一の壁画像を特定してもよい。図13(A)に例示する場合において、例えば壁画像WL11が特定されたとする。次いで、物件情報取得部335は、図13(A)に例示する場合において、特定された壁画像WL11と、物件情報データベース321に登録されている室内空間画像における壁画像のそれぞれと、の間の類似度を算出する。   After the characteristic amounts of the wall images WL10 to WL13 are extracted, the property information acquisition unit 335 specifies one wall image based on the extracted characteristic amounts. At this time, the property information acquisition unit 335 may specify, for example, the one wall image with the largest extracted feature amount, or based on the relative values of the feature amounts of the wall images WL10 to WL13. Then, one wall image may be specified according to a preset rule. In the case illustrated in FIG. 13A, it is assumed that the wall image WL11 is specified, for example. Next, in the case illustrated in FIG. 13A, the property information acquisition unit 335 determines between the specified wall image WL11 and each of the wall images in the indoor space image registered in the property information database 321. Calculate the similarity.

ここで、物件情報取得部335は、予め設定された画像マッチングアルゴリズムにより上記類似度(一致度)を判定することができる。この判定には、例えば、上記特徴量が用いられる。例えば、物件情報取得部335は、特定された壁画像WL11の特徴量と、上記室内空間画像における壁画像のそれぞれの特徴量と、の一致度を算出し、算出した一致度が閾値(例えば、80%)以上であるかを上記画像マッチングアルゴリズムにより判定し、一致度が閾値以上であれば、特定された壁画像WL11の特徴量と、上記室内空間画像における壁画像とが一致する(又は類似する)と判定する。   Here, the property information acquisition unit 335 can determine the similarity (coincidence) using a preset image matching algorithm. For this determination, for example, the above-described feature amount is used. For example, the property information acquisition unit 335 calculates the degree of coincidence between the characteristic amount of the specified wall image WL11 and the characteristic amount of each of the wall images in the indoor space image. 80%) or more is determined by the image matching algorithm. If the degree of coincidence is equal to or greater than the threshold value, the feature amount of the specified wall image WL11 matches the wall image in the indoor space image (or similarity). To do).

一方、図13(B)に例示する三次元の室内空間画像MRM10が、物件情報データベース321に登録されているとする。室内空間画像MRM10は、壁画像MWL10乃至壁画像MWL13で囲まれており、壁画像MWL10には引き戸画像MSD10が含まれており、壁画像MWL11には窓画像MWD12が含まれており、壁画像MWL12には窓画像MWD11が含まれている。このような室内空間画像MRM10が物件情報データベース321に登録されている場合、物件情報取得部335は、上記特徴量抽出アルゴリズムにより、四つの壁画像MWL10乃至壁画像MWL13それぞれの特徴量を抽出する。そして、上記画像マッチングアルゴリズムにより、図13(A)に例示する壁画像WL11と、図13(B)に例示する壁画像MWL11と、が一致(類似)していると判定されたとする。   On the other hand, it is assumed that a three-dimensional indoor space image MRM10 illustrated in FIG. 13B is registered in the property information database 321. The indoor space image MRM10 is surrounded by wall images MWL10 to MWL13, the wall image MWL10 includes a sliding door image MSD10, the wall image MWL11 includes a window image MWD12, and the wall image MWL12. Includes a window image MWD11. When such an indoor space image MRM10 is registered in the property information database 321, the property information acquisition unit 335 extracts the feature amounts of the four wall images MWL10 to MWL13 by the above-described feature amount extraction algorithm. Then, it is assumed that the image matching algorithm determines that the wall image WL11 illustrated in FIG. 13A and the wall image MWL11 illustrated in FIG. 13B match (similarly).

次いで、物件情報取得部335は、図13(A)に例示する壁画像WL11に対して予め設定された第1位置関係(例えば右隣)にある壁画像WL10の上記特徴量と、図13(B)に例示する壁画像MWL11に対して上記第1位置関係にある壁画像MWL10の上記特徴量と、の間の類似度を、上記画像マッチングアルゴリズムを用いて算出する。そして、壁画像WL10と、壁画像MWL10と、の類似度が予め設定された閾値以上である場合、次いで、物件情報取得部335は、壁画像WL11に対して予め設定された第2位置関係(例えば左隣)にある壁画像WL12の上記特徴量と、図13(B)に例示する壁画像MWL11に対して上記第2位置関係にある壁画像MWL12の上記特徴量と、の間の類似度を、上記画像マッチングアルゴリズムを用いて更に算出する。そして、壁画像WL12と、壁画像MWL12と、の類似度が予め設定された閾値以上である場合、物件情報取得部335は、図13(A)に例示する三次元の間取り画像RM10と、壁画像MWL10乃至壁画像MWL12を含む図13(B)に例示する室内空間画像MRM10と、が一致(類似)するとして検索する。そして、物件情報取得部335は、その検索結果としての室内空間画像を含む物件情報をページ提供部331に出力させ、それを含む上記物件情報提供ページを、上記検索要求を送信してきた一般消費者端末1に、上記端末識別データに基づいて送信し、その操作表示部14のディスプレイに表示させる。   Next, the property information acquisition unit 335 determines the feature amount of the wall image WL10 in the first positional relationship (for example, the right side) set in advance with respect to the wall image WL11 illustrated in FIG. The similarity between the feature amount of the wall image MWL10 having the first positional relationship with the wall image MWL11 exemplified in B) is calculated using the image matching algorithm. Then, when the similarity between the wall image WL10 and the wall image MWL10 is equal to or greater than a preset threshold, the property information acquisition unit 335 then determines the second positional relationship (for the wall image WL11). For example, the similarity between the above-described feature amount of the wall image WL12 adjacent to the left) and the above-described feature amount of the wall image MWL12 having the second positional relationship with the wall image MWL11 illustrated in FIG. Is further calculated using the image matching algorithm. Then, when the similarity between the wall image WL12 and the wall image MWL12 is equal to or greater than a preset threshold, the property information acquisition unit 335 outputs the three-dimensional floor plan image RM10 illustrated in FIG. A search is performed assuming that the room space image MRM10 illustrated in FIG. 13B including the image MWL10 to the wall image MWL12 matches (similarly). Then, the property information acquisition unit 335 causes the page providing unit 331 to output the property information including the indoor space image as the search result, and displays the property information providing page including the property information on the general consumer who has transmitted the search request. The data is transmitted to the terminal 1 based on the terminal identification data, and is displayed on the display of the operation display unit 14.

[2.情報提供システムSの動作]
次に、図14乃至図16を参照して、本実施形態の情報提供システムSの動作について説明する。
[2. Operation of Information Providing System S]
Next, an operation of the information providing system S of the present embodiment will be described with reference to FIGS.

[2−1.物件情報生成処理について]
初めに、上記室内空間画像生成部336を中心として実行される、本実施形態の物件情報処理について、図14を用いて説明する。図14は、本実施形態の物件情報生成処理の全体を示すシーケンス図等である。
[2-1. Property information generation processing]
First, the property information processing of the present embodiment, which is executed mainly by the indoor space image generation unit 336, will be described with reference to FIG. FIG. 14 is a sequence diagram and the like showing the entire property information generation process of the present embodiment.

図14(A)に示すように、本実施形態の物件情報処理では、初めに、全天球カメラCが不動産物件内の一の室内空間に設置されてその電源ボタンがオンとされると、全天球カメラCの制御部21は、カメラ部20を制御して、当該室内空間内の全方位をパノラマ画像として撮像する(ステップS1)。そして、制御部21は、操作表示部23のシャッタボタンが操作されたか否かを監視する(ステップS2)。ステップS2の監視において、シャッタボタンが操作されないうちは(ステップS2:NO)、制御部21はステップS1に戻って引き続き全天球画像の撮像を継続する。一方、ステップS2の監視において、シャッタボタンが操作されたら(ステップS2:YES)、次いで、制御部21は、当該シャッタボタンが操作されたタイミングで撮像されている全天球画像を、全天球カメラCが設置されている室内空間の室内画像として記憶部22に記憶させる(ステップS3)。   As shown in FIG. 14A, in the property information processing of the present embodiment, first, when the omnidirectional camera C is installed in one indoor space in a real estate property and its power button is turned on, The control unit 21 of the omnidirectional camera C controls the camera unit 20 to capture all directions in the indoor space as a panoramic image (step S1). Then, the control unit 21 monitors whether the shutter button of the operation display unit 23 has been operated (step S2). In the monitoring of step S2, as long as the shutter button is not operated (step S2: NO), the control unit 21 returns to step S1 and continuously captures the omnidirectional image. On the other hand, in the monitoring of step S2, if the shutter button is operated (step S2: YES), then, the control unit 21 converts the spherical image captured at the timing when the shutter button is operated into a spherical image. The image is stored in the storage unit 22 as an indoor image of the indoor space where the camera C is installed (step S3).

次いで、制御部21は、ステップS3で記憶させた室内画像に相当する室内画像データを情報提供サーバ3に送信する旨の送信操作が、操作表示部23において実行されたか否かを監視する(ステップS4)。ステップS4の監視において、当該送信操作が実行されない場合(ステップS4:NO)、制御部21は、ステップS1に戻って全天球画像の撮像を継続する。一方、ステップS4の判定において、送信操作が実行された場合(ステップS4:YES)、制御部21は、ステップS3で記憶した室内画像に対して当該室内画像に関連付けられる物件識別データ及び室内空間識別データ並びに上記設置位置データを付加し、通信部24及びネットワークNW経由で情報提供サーバ3に送信する(ステップS5)。なお、このとき付加される物件識別データ及び室内空間識別データ並びに設置位置データは、例えば全天球カメラCが設置された段階で、例えば操作表示部23を用いて、その設置を行った不動産仲介業者等により入力されて記憶部22に記憶されているものである。   Next, the control unit 21 monitors whether or not a transmission operation for transmitting the indoor image data corresponding to the indoor image stored in step S3 to the information providing server 3 is performed on the operation display unit 23 (step S3). S4). In the monitoring of step S4, when the transmission operation is not performed (step S4: NO), the control unit 21 returns to step S1 and continues to capture the omnidirectional image. On the other hand, when the transmission operation is performed in the determination of step S4 (step S4: YES), the control unit 21 determines the room identification stored in step S3 and the property identification data and the indoor space identification associated with the indoor image. The data and the installation position data are added and transmitted to the information providing server 3 via the communication unit 24 and the network NW (step S5). The property identification data, the indoor space identification data, and the installation position data added at this time are, for example, when the omnidirectional camera C is installed, for example, by using the operation display unit 23, the real estate agency that installed the camera. The information is input by a trader or the like and stored in the storage unit 22.

次いで、例えば情報提供サーバ3の電源がオンとされた後に、いずれかの全天球カメラCから、上記物件識別データ及び室内空間識別データ並びに設置位置データが付加された室内画像データが受信された場合、情報提供サーバ3の室内空間画像生成部336は、上記画像処理部337等により当該受信した室内画像データに映っている室内空間の三次元モデルを表わす上記室内空間画像を生成すると共に、それに対応する上記他の物件情報を付加して、物件情報を生成する(ステップS6)。このステップS6については、後ほど図14(B)を用いて詳述する。次いで、室内空間画像生成部336は、ステップS6で生成された物件情報を、対応する物件識別データ及び室内空間識別データに関連付けて物件情報データベース321に登録(記憶)する(ステップS7)。   Next, for example, after the power of the information providing server 3 is turned on, the room image data to which the property identification data, the indoor space identification data, and the installation position data are added is received from any of the spherical cameras C. In this case, the indoor space image generation unit 336 of the information providing server 3 generates the indoor space image representing the three-dimensional model of the indoor space reflected in the received indoor image data by the image processing unit 337 and the like, and generates the indoor space image. The corresponding other property information is added to generate property information (step S6). Step S6 will be described later in detail with reference to FIG. Next, the indoor space image generation unit 336 registers (stores) the property information generated in step S6 in the property information database 321 in association with the corresponding property identification data and indoor space identification data (step S7).

次いで、上記ステップS6の物件情報生成処理について、図14(B)を用いてより具体的に説明する。   Next, the property information generation processing in step S6 will be described more specifically with reference to FIG.

即ち、いずれかの全天球カメラCから送信されてきた室内画像データに対して物件情報の生成処理を行う場合(図14(A)ステップS6)、室内空間画像生成部336は、当該室内画像データに映っている室内空間の三次元モデルを表わす上記室内空間画像を生成する。より具体的に、境界線抽出部338は、当該室内画像データに相当する室内画像から、対応する室内空間の天井に相当する天井画像と各壁に相当する壁画像との上記境界線等を、それぞれ抽出する(ステップS60。図6(A)参照。)。ステップS60で各境界線BCW1等が室内画像Dから抽出されたら、次いで、画像抽出部339は、上記各境界線BCW1等に基づいて、各境界線BCW1等で囲まれる面(図6(A)参照)を、上記天井画像CL等として抽出する(ステップS61)。ステップS61で天井画像CL等が抽出されたら、次いで、交点抽出部340は、上記各境界線BCW1等に基づいて、各境界線BCW1等が交わる交点を、当該室内空間の部屋角CNとしてそれぞれ抽出する(ステップS62)。ステップS62で部屋角CNが抽出されたら、次いで、水平距離検出部341は、室内画像Dに基づいて、ステップS62で抽出された各部屋角CNへの、全天球カメラCからの水平距離を検出する(ステップS63)。ステップS63で各部屋角CNまでの全天球カメラCからの水平距離が検出されたら、次いで、距離算出部342は、ステップS62で抽出された各部屋角CNへの、全天球カメラCのカメラ部20からの距離Lを算出する(ステップS64)。ステップS64で各部屋角CNへのカメラ部20からの距離Lがそれぞれ算出されたら、次いで、画像処理部337は、ステップS61で抽出されている各天井画像CL等に対して、当該算出された距離Lを用いた伸縮処理及び膨張処理を施し、各天井画像CL等における歪みを補正する(ステップS65。図7参照。)。なお、上述した天井画像CLに関する歪み補正処理等は、同様に床画像FLに対しても実施することができる。   That is, when performing the process of generating the property information on the indoor image data transmitted from any spherical camera C (step S6 in FIG. 14A), the indoor space image generation unit 336 sets the indoor image data The indoor space image representing the three-dimensional model of the indoor space reflected in the data is generated. More specifically, the boundary line extraction unit 338 calculates the boundary line between the ceiling image corresponding to the ceiling of the corresponding indoor space and the wall image corresponding to each wall from the indoor image corresponding to the room image data, Each is extracted (step S60; see FIG. 6A). After the respective boundary lines BCW1 and the like are extracted from the indoor image D in step S60, the image extracting unit 339 then determines a plane surrounded by the respective boundary lines BCW1 and the like based on the respective boundary lines BCW1 and the like (FIG. 6A). Is extracted as the ceiling image CL or the like (step S61). When the ceiling image CL or the like is extracted in step S61, the intersection extracting unit 340 then extracts, based on each of the boundary lines BCW1 or the like, an intersection at which each of the boundary lines BCW1 or the like intersects as the room angle CN of the indoor space. (Step S62). After the room angle CN is extracted in step S62, the horizontal distance detection unit 341 then calculates the horizontal distance from the spherical camera C to each room angle CN extracted in step S62 based on the indoor image D. It is detected (step S63). When the horizontal distance from the omnidirectional camera C to each room angle CN is detected in step S63, the distance calculation unit 342 then transmits the omnidirectional camera C to each room angle CN extracted in step S62. The distance L from the camera unit 20 is calculated (step S64). When the distance L from the camera unit 20 to each room angle CN is calculated in step S64, the image processing unit 337 then calculates the calculated ceiling image CL or the like extracted in step S61. The expansion and contraction processing and the expansion processing using the distance L are performed to correct the distortion in each ceiling image CL and the like (step S65; see FIG. 7). Note that the above-described distortion correction processing and the like for the ceiling image CL can be similarly performed on the floor image FL.

その後、画像処理部337は、ステップS65でそれぞれ生成された補正壁画像MW1等を室内空間に相当する六面図(即ち壁図四面分並びに天井図及び床図の六面図)として組み合わせることで、上記ステップS6で受信した室内画像データに映っている室内空間の三次元モデルを表わす上記室内空間画像Rを生成する(ステップS66。図8(A)参照。)。   After that, the image processing unit 337 combines the corrected wall images MW1 and the like generated in step S65 as a six-view diagram corresponding to the indoor space (that is, four wall diagrams and a ceiling view and a floor view). Then, the indoor space image R representing the three-dimensional model of the indoor space reflected in the indoor image data received in step S6 is generated (step S66; see FIG. 8A).

次いで、室内空間画像生成部336は、同一の物件識別データが付加された複数の室内画像データが受信されているか否かを判定する(ステップS67)。ステップS67の判定において、同一の物件識別データが付加された複数の室内画像データが受信されていない場合(ステップS67:NO)、室内空間画像生成部336は、後述するステップS69に移行する。一方、ステップS67の判定において、同一の物件識別データが付加された複数の室内画像データが受信されている場合(ステップS67:YES)、画像処理部337は、各室内画像データに対応する上記室内空間画像Rを接続し、当該複数の室内空間を含む不動産物件全体の三次元モデルを表す室内空間画像を生成する(ステップS68。上記i)及びii)記載の手法参照。)。次いで、室内空間画像生成部336は、上記ステップS60乃至ステップS68により生成された室内空間画像R等に対して、その不動産物件として必要な他の物件情報を付加し、図14(A)ステップS7で物件情報データベース321に登録すべき物件情報を生成する(ステップS69)。その後、室内空間画像生成部336は、図14(A)ステップS7に移行する。   Next, the indoor space image generation unit 336 determines whether or not a plurality of indoor image data to which the same property identification data has been added has been received (step S67). If it is determined in step S67 that a plurality of indoor image data to which the same property identification data has been added has not been received (step S67: NO), the indoor space image generation unit 336 proceeds to step S69 described below. On the other hand, if it is determined in step S67 that a plurality of indoor image data to which the same property identification data has been added has been received (step S67: YES), the image processing unit 337 determines that the indoor corresponding to each indoor image data. The spatial images R are connected to generate an indoor space image representing a three-dimensional model of the entire real estate including the plurality of indoor spaces (step S68; see the above-described methods i) and ii). ). Next, the indoor space image generation unit 336 adds other property information necessary as the real estate property to the indoor space image R or the like generated in steps S60 to S68, and then proceeds to step S7 in FIG. Then, the property information to be registered in the property information database 321 is generated (step S69). Thereafter, the indoor space image generation unit 336 proceeds to step S7 in FIG.

[2−2.三次元の間取り画像の生成処理について]
次に、上記間取り画像データ生成部333を中心として実行される、本実施形態の三次元の間取り画像の生成処理について、図15を用いて説明する。図15は、本実施形態の三次元の間取り画像の生成処理を示すシーケンス図である。
[2-2. 3D Floor Plan Image Generation Processing]
Next, a process of generating a three-dimensional floor plan image of the present embodiment, which is executed mainly by the floor plan image data generation unit 333, will be described with reference to FIG. FIG. 15 is a sequence diagram illustrating a process of generating a three-dimensional floor plan image according to the present embodiment.

図15に示すように、本実施形態の三次元の間取り画像データの生成処理では、例えば一般消費者端末1におけるユーザの操作に応じて物件情報サイトにアクセスしてログインが完了した後、上記間取り作成/表示ページを送信する旨の要求が、一般消費者端末1からネットワークNWを介して情報提供サーバ3に送信される(ステップS10)。そして、情報提供サーバ3のページ提供部331は、当該要求に対応して図9に例示する間取り作成/表示ページを、ネットワークNWを介して一般消費者端末1に提供する(ステップS11)。次いで、間取り作成/表示ページが送信された一般消費者端末1のシステム制御部13は、受信した間取り作成/表示ページを操作表示部14のディスプレイに表示する(ステップS12。図9参照。)。   As shown in FIG. 15, in the generation processing of the three-dimensional floor plan image data of the present embodiment, for example, after accessing the property information site in accordance with the user operation on the general consumer terminal 1 and completing the login, A request to transmit the creation / display page is transmitted from the general consumer terminal 1 to the information providing server 3 via the network NW (step S10). Then, in response to the request, the page providing unit 331 of the information providing server 3 provides the floor plan creation / display page illustrated in FIG. 9 to the general consumer terminal 1 via the network NW (step S11). Next, the system control unit 13 of the general consumer terminal 1 to which the floor plan creation / display page has been transmitted displays the received floor plan creation / display page on the display of the operation display unit 14 (step S12; see FIG. 9).

次いで、表示されている間取り作成/表示ページの入力領域100を用いて、間取り図の作成が所望される不動産物件を構成する構成物を示す線が、一つの構成物についてフリーハンドで入力されると(ステップS13)、当該線の軌跡に相当する軌跡データ等が、一般消費者端末1の端末識別データと共にネットワークNWを介して情報提供サーバ3に送信される(ステップS14)。次いで、情報提供サーバ3の検索部332は、受信した軌跡データ等に基づいて基準データデータベース322内を検索して対応する基準データを特定する(ステップS15)。次いで、間取り画像データ生成部333は、特定された基準データを基準データデータベース322から読み出して、それに対応する間取り図に相当する二次元の間取り画像データを生成する(ステップS16)。次いで、表示制御部334は、生成された二次元の間取り画像データを、ステップS14で軌跡データ等と共に送信されてきた端末識別データに基づき、当該端末識別データにより識別される一般消費者端末1に送信する(ステップS17)。次いで、二次元の間取り画像データが送信された一般消費者端末1のシステム制御部13は、受信した二次元の間取り画像データに相当する一つの構成物についての二次元の間取り図FPの間取り画像(図3(A)又は図11(A)参照)を、操作表示部14のディスプレイに表示された間取り作成/表示ページの表示領域200に表示する(ステップS18)。次いで、システム制御部13は、間取り作成/表示ページの修正ボタン201が操作されたか否かを、例えば予め設定された時間だけ監視する(ステップS19)。ステップS19の判定において修正ボタン201が操作された場合(ステップS19:YES)、表示領域200に表示されている二次元の間取り図を修正すべく、システム制御部13は、上記ステップS13に戻って、当該修正用の線等の入力を待機する。修正用の線等が入力された場合、その後は、当該修正用の線等に相当する軌跡の軌跡データ等を対象として、上記ステップS13以降が繰り返される。   Then, using the input area 100 of the displayed floor plan creation / display page, a line indicating a component constituting a real estate property for which a floor plan is desired to be created is input freehand for one component. (Step S13), the trajectory data corresponding to the trajectory of the line is transmitted to the information providing server 3 via the network NW together with the terminal identification data of the general consumer terminal 1 (step S14). Next, the search unit 332 of the information providing server 3 searches the reference data database 322 based on the received trajectory data and the like to specify the corresponding reference data (Step S15). Next, the floor plan image data generation unit 333 reads out the specified reference data from the reference data database 322, and generates two-dimensional floor plan image data corresponding to the floor plan corresponding thereto (step S16). Next, the display control unit 334 transmits the generated two-dimensional floor plan image data to the general consumer terminal 1 identified by the terminal identification data based on the terminal identification data transmitted together with the locus data and the like in step S14. It transmits (step S17). Next, the system control unit 13 of the general consumer terminal 1 to which the two-dimensional floor plan image data has been transmitted is the two-dimensional floor plan FP floor plan image FP of one component corresponding to the received two-dimensional floor plan image data. (See FIG. 3A or FIG. 11A) is displayed in the display area 200 of the floor plan creation / display page displayed on the display of the operation display unit 14 (step S18). Next, the system control unit 13 monitors whether the modification button 201 of the floor plan creation / display page has been operated, for example, for a preset time (step S19). If the correction button 201 is operated in the determination of step S19 (step S19: YES), the system control unit 13 returns to step S13 to correct the two-dimensional floor plan displayed in the display area 200. , And waits for input of the correction line or the like. When a correction line or the like is input, thereafter, the above-described step S13 and subsequent steps are repeated for the trajectory data of the trajectory corresponding to the correction line and the like.

一方、ステップS19の判定において、修正ボタン201の操作がない場合(ステップS19:NO)、次いで、システム制御部13は、間取り作成/表示ページの三次元化ボタン202が操作されたか否かを、例えば予め設定された時間だけ監視する(ステップS20)。ステップS20の判定において、三次元化ボタン202が操作された場合(ステップS20:YES)、表示領域200に表示されている二次元の間取り図FPを三次元化すべく、システム制御部13は、上記三次元化要求を、端末識別データと共にネットワークNWを介して情報提供サーバ3に送信する(ステップS21)。次いで、当該三次元化要求を受信した情報提供サーバ3の間取り画像データ生成部333は、表示領域200に表示されている二次元の間取り図FPの間取り画像データに基づき、例えば図11及び図12を用いて説明した方法により、当該二次元の間取り画像を三次元化した三次元モデルに相当する三次元の間取り画像データを生成する(ステップS22)。次いで、表示制御部334は、生成された三次元の間取り画像データを、ステップS21で三次元化要求と共に送信されてきた端末識別データに基づき、当該端末識別データにより識別される一般消費者端末1に送信する(ステップS23)。次いで、三次元の間取り画像データが送信された一般消費者端末1のシステム制御部13は、受信した三次元の間取り画像データに相当する三次元の間取り図の間取り画像(図11(B)又は図12参照)を、上記間取り作成/表示ページの表示領域200に表示する(ステップS24)。   On the other hand, in the determination of step S19, when there is no operation of the correction button 201 (step S19: NO), the system control unit 13 determines whether the three-dimensionalization button 202 of the floor plan creation / display page has been operated. For example, monitoring is performed for a preset time (step S20). If it is determined in step S20 that the three-dimensionalization button 202 has been operated (step S20: YES), the system control unit 13 sets the three-dimensional floor plan FP displayed in the display area 200 to three-dimensionally. The three-dimensional request is transmitted to the information providing server 3 via the network NW together with the terminal identification data (step S21). Next, the floor plan image data generation unit 333 that has received the three-dimensionalization request receives the floor plan image data of the two-dimensional floor plan FP displayed in the display area 200, for example, based on the floor plan image data of FIGS. By using the method described above, three-dimensional floor plan image data corresponding to a three-dimensional model obtained by converting the two-dimensional floor plan image into three dimensions is generated (step S22). Next, the display control unit 334 converts the generated three-dimensional floor plan image data into the general consumer terminal 1 identified by the terminal identification data based on the terminal identification data transmitted together with the three-dimensional request in step S21. (Step S23). Next, the system control unit 13 of the general consumer terminal 1 to which the three-dimensional floor plan image data has been transmitted is the three-dimensional floor plan floor plan image (FIG. 11B or FIG. 11B) corresponding to the received three-dimensional floor plan image data. 12 is displayed in the display area 200 of the floor plan creation / display page (step S24).

[2−3.三次元の間取り画像の生成処理について]
最後に、上記物件情報取得部335を中心として実行される、本実施形態の検索処理について、図16を用いて説明する。図16は、本実施形態の検索処理を示すシーケンス図である。
[2-3. 3D Floor Plan Image Generation Processing]
Finally, a search process according to the present embodiment, which is executed mainly by the property information acquisition unit 335, will be described with reference to FIG. FIG. 16 is a sequence diagram illustrating a search process according to the present embodiment.

図16に示すように、本実施形態の検索処理では、例えば一般消費者端末1における表示されている上記間取り作成/表示ページにおける物件検索ボタン203が操作されたか否かを、当該一般消費者端末1のシステム制御部13が監視する(ステップS30)。ステップS30の監視において物件検索ボタン203が操作されない場合(ステップS30:NO)、システム制御部13は、そのまま当該監視を継続する。一方、ステップS30の監視において、物件検索ボタン203が操作された場合(ステップS30:YES)、システム制御部13は、当該物件検索ボタン203の操作に対応した上記検索要求を、ネットワークNWを介して情報提供サーバ3に送信する(ステップS31)。この検索要求は、情報提供サーバ3の物件情報取得部335により受信される。ここで、上記検索要求には、上述したように、上記間取り作成/表示ページの表示領域200に表示されている三次元の間取り画像に相当する三次元の間取り画像データが含まれている場合と、上記外観写真又は室内空間写真に相当する写真画像データが含まれている場合がある。そこで、物件情報取得部335は、受信した検索要求に基づき、当該検索要求が、上記三次元の間取り画像データを用いた検索を要求しているか否かを判定する(ステップS32)。ステップS32の判定において、検索要求が上記写真画像データを用いた検索を要求している場合(ステップS32:NO)、次いで、物件情報取得部335は、当該写真画像データを用いて、特に物件情報データベース321に登録されている外観画像及び室内写真画像を検索し、その検索結果としての写真画像データに対応する不動産物件を特定する(ステップS33)。その後、物件情報取得部335は、後述するステップS42に移行する。   As shown in FIG. 16, in the search processing of the present embodiment, for example, it is determined whether or not the property search button 203 in the floor plan creation / display page displayed on the general consumer terminal 1 has been operated. The first system control unit 13 monitors (step S30). When the property search button 203 is not operated in the monitoring of step S30 (step S30: NO), the system control unit 13 continues the monitoring as it is. On the other hand, in the monitoring of step S30, when the property search button 203 is operated (step S30: YES), the system control unit 13 sends the search request corresponding to the operation of the property search button 203 via the network NW. The information is transmitted to the information providing server 3 (step S31). This search request is received by the property information acquisition unit 335 of the information providing server 3. Here, as described above, the search request includes three-dimensional floor plan image data corresponding to the three-dimensional floor plan image displayed in the display area 200 of the floor plan creation / display page. In some cases, photographic image data corresponding to the exterior photograph or the indoor space photograph is included. Therefore, based on the received search request, the property information acquisition unit 335 determines whether the search request requests a search using the three-dimensional floor plan image data (step S32). If it is determined in step S32 that the search request requests a search using the photo image data (step S32: NO), then the property information acquisition unit 335 uses the photo image data to perform The exterior image and the indoor photographic image registered in the database 321 are searched, and a real estate property corresponding to the photographic image data as the search result is specified (step S33). After that, the property information acquiring unit 335 proceeds to Step S42 described later.

一方、ステップS32の判定において、上記検索要求が上記三次元の間取り画像データを用いた検索を要求している場合(ステップS32:YES)、次いで、物件情報取得部335は、上記検索要求から当該三次元の間取り画像データを抽出する(ステップS34)。次いで、物件情報取得部335は、抽出した三次元の間取り画像データに相当する三次元の間取り画像を構成する複数の壁画像から、一の壁画像を特定する(ステップS35)。このステップS35では、上述した特徴量を用いた手法により、一の壁画像が特定される。次いで、物件情報取得部335は、特定された壁画像(例えば、図13(A)に例示する壁画像WL11)と、物件情報データベース321に登録されている室内空間画像における壁画像のそれぞれと、の間の類似度を算出し、それに基づいて、ステップS35で特定された壁画像に対して一致又は類似する室内空間画像における壁画像を第1登録壁画像として特定する(ステップS36)。このステップS36では、上述した画像マッチングアルゴリズムにより、類似度が算出される。次いで、物件情報取得部335は、ステップS34で抽出した三次元の間取り画像データに相当する三次元の間取り画像を構成する複数の壁画像から、ステップS35で特定された壁画像に対して、上記第1位置関係としての右隣にある壁画像を特定する(ステップS37)。次いで、物件情報取得部335は、ステップS37で特定された壁画像(例えば、図13(A)に例示する壁画像WL10)と、上記第1登録壁画像に対して室内空間画像において右隣にある壁画像と、の間の類似度を算出し、それに基づいて、ステップS37で特定された右隣の壁画像に対して一致又は類似する室内空間画像における壁画像を、第2登録壁画像として特定する(ステップS38)。次いで、物件情報取得部335は、ステップS34で抽出した三次元の間取り画像データに相当する三次元の間取り画像を構成する複数の壁画像から、ステップS35で特定された壁画像に対して、上記第2位置関係としての左隣にある壁画像を特定する(ステップS39)。次いで、物件情報取得部335は、ステップS39で特定された壁画像(例えば、図13(A)に例示する壁画像WL12)と、上記第1登録壁画像に対して室内空間画像において左隣にある壁画像と、の間の類似度を算出し、それに基づいて、ステップS39で特定された左隣の壁画像に対して一致又は類似する室内空間画像における壁画像を、第3登録壁画像として特定する(ステップS40)。次いで、物件情報取得部335は、上記第1登録壁画像乃至上記第3登録壁画像を含む室内空間画像と、上記検索要求から抽出した三次元の間取り画像データに相当する三次元の間取り画像とが一致又は類似しているとして、当該第1登録壁画像乃至当該第3登録壁画像を含む室内空間画像を、類似室内空間画像として、物件情報データベース321において検索する(ステップS41)。次いで、物件情報取得部335は、その検索結果としての室内空間画像を含む物件情報をページ提供部331に出力させ、それを含む上記物件情報提供ページを、上記検索要求を送信してきた一般消費者端末1に、上記端末識別データに基づいて送信し(ステップS42)、その操作表示部14のディスプレイに表示させる(ステップS43)。   On the other hand, in the determination of step S32, if the search request requests a search using the three-dimensional floor plan image data (step S32: YES), then, the property information acquisition unit 335 determines the search request from the search request. The three-dimensional floor plan image data is extracted (step S34). Next, the property information acquisition unit 335 specifies one wall image from a plurality of wall images constituting a three-dimensional floor plan image corresponding to the extracted three-dimensional floor plan image data (step S35). In this step S35, one wall image is specified by the method using the above-described feature amount. Next, the property information acquisition unit 335 determines the identified wall image (for example, the wall image WL11 illustrated in FIG. 13A), and each of the wall images in the indoor space image registered in the property information database 321. Is calculated, and a wall image in the indoor space image that matches or is similar to the wall image specified in step S35 is specified as the first registered wall image based on the similarity (step S36). In this step S36, the similarity is calculated by the above-described image matching algorithm. Next, the property information acquisition unit 335 converts the plurality of wall images constituting the three-dimensional floor plan image corresponding to the three-dimensional floor plan image data extracted in step S34 from the plurality of wall images specified in step S35 to the wall image specified in step S35. The right side wall image as the first positional relationship is specified (step S37). Next, the property information acquisition unit 335 places the wall image specified in step S37 (for example, the wall image WL10 illustrated in FIG. 13A) on the right of the first registered wall image in the indoor space image. The similarity between a certain wall image and the wall image in the indoor space image that matches or is similar to the right adjacent wall image specified in step S37 is determined as the second registered wall image based on the similarity. It is specified (step S38). Next, the property information acquisition unit 335 converts the plurality of wall images constituting the three-dimensional floor plan image corresponding to the three-dimensional floor plan image data extracted in step S34 from the plurality of wall images specified in step S35 to the wall image specified in step S35. The left adjacent wall image as the second positional relationship is specified (step S39). Next, the property information acquisition unit 335 places the wall image specified in step S39 (for example, the wall image WL12 illustrated in FIG. 13A) on the left side of the indoor space image with respect to the first registered wall image. The similarity between a certain wall image and the wall image in the indoor space image that matches or is similar to the left adjacent wall image specified in step S39 is determined as the third registered wall image based on the similarity. It is specified (Step S40). Next, the property information acquisition unit 335 generates an indoor space image including the first to third registered wall images and a three-dimensional floor plan image corresponding to the three-dimensional floor image data extracted from the search request. Are matched or similar, a room space image including the first registered wall image to the third registered wall image is searched in the property information database 321 as a similar room space image (step S41). Next, the property information acquisition unit 335 causes the page providing unit 331 to output the property information including the indoor space image as the search result, and displays the property information providing page including the property information on the general consumer who transmitted the search request. The data is transmitted to the terminal 1 based on the terminal identification data (step S42), and is displayed on the display of the operation display unit 14 (step S43).

以上説明したように、本実施形態の情報提供システムSにおける検索処理によれば、二次元の図面としての間取り図の画像がない場合でも、ユーザが指定する三次元の間取り画像データを用いて、所望される不動産物件の物件情報を当該ユーザに提示することができる。   As described above, according to the search processing in the information providing system S of the present embodiment, even when there is no floor plan image as a two-dimensional drawing, using the three-dimensional floor plan image data specified by the user, Property information of a desired real estate property can be presented to the user.

また、三次元の間取り画像データに相当する三次元の間取り画像を構成する複数の壁画像について、その特徴量を用いた一致度又は類似度の判定を行って類似する室内空間画像を特定するので、所望される不動産物件により近い不動産物件の物件情報を当該ユーザに提示することができる。   In addition, for a plurality of wall images constituting a three-dimensional floor plan image corresponding to the three-dimensional floor plan image data, a similar indoor space image is specified by determining the degree of coincidence or similarity using the feature amount. The property information of the real estate property closer to the desired real estate property can be presented to the user.

更に、画像としての特徴量を取得し易い壁画像を用いることで、所望される不動産物件により近い不動産物件の物件情報を的確にユーザに提示することができる。   Further, by using a wall image from which a feature amount as an image can be easily obtained, it is possible to accurately present the property information of a real estate property closer to a desired real estate property to a user.

更にまた、第1登録壁画像乃至第3登録壁画像の三つを用いること(図16参照)で、所望される不動産物件に更に近い不動産物件の物件情報を的確にユーザに提示することができる。   Furthermore, by using three of the first registered wall image to the third registered wall image (see FIG. 16), it is possible to accurately present the property information of the real estate nearer to the desired real estate to the user. .

また、写真画像又は室内空間画像のいずれかを用いることで(図16参照)、所望される不動産物件に近い不動産物件の物件情報を的確にユーザに提示することができる。   In addition, by using either the photograph image or the indoor space image (see FIG. 16), the property information of the real estate near the desired real estate can be accurately presented to the user.

なお、本実施形態の検索処理では、検索要求に含まれる三次元の間取り画像データに相当する三次元の間取り画像を用いた室内空間画像の特定に、当該三次元の間取り画像を構成する壁画像を用いたが、これ以外に、当該三次元の間取り画像を構成する天井画像を更に用いて室内空間画像を特定してもよい。この場合には、画像としての特徴量を取得し易い壁画像及び天井画像を用いることで、所望される不動産物件により近い不動産物件の物件情報を的確にユーザに提示することができる。   Note that, in the search processing of the present embodiment, in order to specify an indoor space image using a three-dimensional floor plan image corresponding to the three-dimensional floor plan image data included in the search request, a wall image constituting the three-dimensional floor plan image is specified. However, in addition to the above, the indoor space image may be specified by further using the ceiling image forming the three-dimensional floor plan image. In this case, by using the wall image and the ceiling image from which the feature amount as the image can be easily acquired, the property information of the real estate property closer to the desired real estate property can be accurately presented to the user.

また、図14乃至図16にそれぞれ示すシーケンス図に相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いは、インターネット等のネットワークから取得して記録しておき、これらを汎用のマイクロコンピュータで読み出して実行することにより、当該マイクロコンピュータを、本実施形態のシステム制御部13及びシステム制御部33として機能させることも可能である。   In addition, programs corresponding to the sequence diagrams shown in FIGS. 14 to 16 are recorded on a recording medium such as an optical disk or a hard disk, or obtained and recorded from a network such as the Internet, and these are stored in a general-purpose computer. By reading and executing the microcomputer, the microcomputer can also function as the system control unit 13 and the system control unit 33 of the present embodiment.

1、1−1、1−2、1−n 一般消費者端末
3 情報提供サーバ
11、24、31 通信部
12、22、32 記憶部
13、33 システム制御部
14、23 操作表示部
15、25、34 バス
20 カメラ部
21 制御部
100 入力領域
101 物件名
111 入力ボタン
112 送信ボタン
200 表示領域
201 修正ボタン
202 三次元化ボタン
203 物件検索ボタン
321 物件情報データベース
322 基準データデータベース
331 ページ提供部
332 検索部
333 間取り画像データ生成部
334 表示制御部
334 物件情報取得部
336 室内空間画像生成部
337 画像処理部
338 境界線抽出部
339 画像抽出部
340 交点抽出部
341 水平距離検出部
342 距離算出部
S 情報提供システム
D 室内画像
C、C1、C2、Cn 全天球カメラ
L 照明画像
CL 天井画像
W1、W2、W3、W4、WL1、WL2、WL3、WL4、WL10、WL11、WL12、WL13、MWL10、MWL11、MWL12、MWL13、 壁画像
WD、WD12、WD11、MWD11、MWD12 窓画像
WLF1、WLF2、WLF3、WLF4 壁
WF 窓
SDF1、SDF2、SDF3 引き戸
P 位置
R、R1、R2 室内空間画像
FL 床画像
NW ネットワーク
FP 間取り図
BCW1、BCW2、BCW3、BCW4、BW12、BW23、BW34、BW14、BFW1、BFW2、BFW3、BFW4 境界線
CN 部屋角
MCL 補正天井画像
MW1、MW2、MW3、MW4 補正壁画像
MFL 補正床画像
DR ドア画像
R10 軌跡入力領域
R20 画像表示領域
R1 検索条件指定領域
R2 物件一覧表示領域
R3 広告表示領域
R2a、R2b、R2c 物件表示領域
RM10 間取り画像
MRM10 室内空間画像
SD1、SD2、SD3、SD10、MSD10 引き戸
1, 1-1, 1-2, 1-n General consumer terminal 3 Information providing server 11, 24, 31 Communication unit 12, 22, 32 Storage unit 13, 33 System control unit 14, 23 Operation display unit 15, 25 , 34 Bus 20 Camera section 21 Control section 100 Input area 101 Property name 111 Input button 112 Send button 200 Display area 201 Modify button 202 Three-dimensionalization button 203 Property search button 321 Property information database 322 Reference data database 331 Page providing section 332 Search Unit 333 floor plan image data generation unit 334 display control unit 334 property information acquisition unit 336 indoor space image generation unit 337 image processing unit 338 boundary line extraction unit 339 image extraction unit 340 intersection extraction unit 341 horizontal distance detection unit 342 distance calculation unit S information Provision system D Indoor image C, C , C2, Cn spherical camera L illumination image CL ceiling image W1, W2, W3, W4, WL1, WL2, WL3, WL4, WL10, WL11, WL12, WL13, MWL10, MWL11, MWL12, MWL13, wall image WD, WD12, WD11, MWD11, MWD12 Window image WLF1, WLF2, WLF3, WLF4 Wall WF Window SDF1, SDF2, SDF3 Sliding door P position R, R1, R2 Indoor space image FL Floor image NW network FP Floor plan BCW1, BCW, BCW1, BCW3 BW12, BW23, BW34, BW14, BFW1, BFW2, BFW3, BFW4 Boundary line CN Room angle MCL Corrected ceiling image MW1, MW2, MW3, MW4 Corrected wall image MFL Corrected floor image DR Door image R10 Locus input area 20 image display area R1 search condition designation area R2 Property list display area R3 advertising display area R2a, R2b, R2c property display area RM10 floor plan image MRM10 indoor space image SD1, SD2, SD3, SD10, MSD10 sliding door

Claims (11)

不動産物件の画像が、複数の当該不動産物件ごとに登録画像として登録されたデータベースにアクセス可能な物件情報提供装置であって、
ユーザにより指定された三次元モデル画像である指定三次元モデル画像を含む検索要求を取得する取得手段と、
前記指定三次元モデル画像を構成する構成画像それぞれの特徴量に基づいて、特定の当該構成画像を特定構成画像として特定する第1特定手段と、
前記特定された特定構成画像と、前記登録画像のそれぞれと、の間の第1類似度を算出する第1算出手段と、
前記算出された第1類似度が予め設定された第1閾値以上である場合に、前記構成画像のうち前記特定構成画像に対して予め設定された位置関係にある関係構成画像と、前記算出された第1類似度が前記第1閾値以上であった前記登録画像である第1登録画像に対して前記位置関係にある前記登録画像と、の間の第2類似度を算出する第2算出手段と、
前記算出された第2類似度が予め設定された第2閾値以上である場合に、前記第1登録画像と、前記算出された第2類似度が前記第2閾値以上であった前記登録画像である第2登録画像と、を有する前記不動産物件の画像を、類似画像として前記データベースにおいて特定する第2特定手段と、
前記特定された類似画像を含む物件情報を、前記検索要求に対応する検索結果として前記ユーザに提示する提示手段と、
を備えることを特徴とする物件情報提示装置。
An image of a real estate property is a property information providing device that can access a database registered as a registration image for each of the plurality of real estate properties,
Acquiring means for acquiring a search request including a specified three-dimensional model image that is a three-dimensional model image specified by a user;
A first specifying unit that specifies a specific configuration image as a specific configuration image based on a feature amount of each of the configuration images configuring the designated three-dimensional model image;
First calculating means for calculating a first similarity between the specified specific constituent image and each of the registered images;
When the calculated first similarity is equal to or greater than a predetermined first threshold value, the relational constituent image having a predetermined positional relationship with respect to the specific constituent image among the constituent images, Second calculating means for calculating a second similarity between the first registered image, which is the registered image whose first similarity is equal to or greater than the first threshold, and the registered image in the positional relationship with the first registered image When,
When the calculated second similarity is equal to or greater than a preset second threshold, the first registered image and the registered image whose calculated second similarity is equal to or greater than the second threshold are A second specified image, a second specifying means for specifying an image of the real estate article having a similar image in the database,
Presenting means for presenting the property information including the specified similar image to the user as a search result corresponding to the search request;
A property information presentation device comprising:
前記第1特定手段は、複数の前記構成画像のうち、前記特徴量が最も大きい構成画像を前記特定構成画像として特定することを特徴とする請求項1に記載の物件情報提示装置。   2. The property information presentation device according to claim 1, wherein the first specifying unit specifies a constituent image having the largest feature amount among the plurality of constituent images as the specific constituent image. 3. 前記第1特定手段は、複数の前記構成画像間における各前記特徴量の相対値に基づいて前記特定構成画像を特定することを特徴とする請求項1又は請求項2に記載の物件情報提示装置。   3. The property information presentation device according to claim 1, wherein the first specifying unit specifies the specific configuration image based on a relative value of each of the feature amounts among a plurality of the configuration images. 4. . 前記特定構成画像は、前記指定三次元モデル画像を構成する構成壁画像それぞれの前記特徴量に基づいて特定された特定構成壁画像であり、
前記登録画像は、前記不動産物件の画像を構成する登録壁画像のそれぞれであり、
前記関係構成画像は、前記構成壁画像のうち前記特定構成壁画像に相隣接する構成壁画像であり、
前記第1登録画像は、前記算出された第1類似度が前記第1閾値以上であった前記登録壁画像であり、
前記第2登録画像は、前記算出された第2類似度が前記第2閾値以上であった前記登録壁画像であることを特徴とする請求項1から請求項3のいずれか一項に記載の物件情報提示装置。
The specific configuration image is a specific configuration wall image specified based on the feature amount of each of the configuration wall images constituting the designated three-dimensional model image,
The registered image is each of the registered wall images constituting the image of the real estate,
The relationship configuration image is a configuration wall image adjacent to the specific configuration wall image in the configuration wall image,
The first registered image is the registered wall image whose calculated first similarity is equal to or greater than the first threshold,
The said 2nd registration image is the said registration wall image in which the said calculated 2nd similarity was more than the said 2nd threshold value, The Claims 1 to 3 characterized by the above-mentioned. Property information presentation device.
前記特定構成画像は、前記指定三次元モデル画像を構成する構成壁画像又は構成天井画像それぞれの前記特徴量に基づいて特定された特定構成壁画像又は特定構成天井画像であり、
前記登録画像は、前記不動産物件の画像を構成する登録壁画像又は登録天井画像のそれぞれであり、
前記関係構成画像は、前記構成壁画像又は前記構成天井画像のうち前記特定構成画像に相隣接する構成壁画像又は構成天井画像であり、
前記第1登録画像は、前記算出された第1類似度が前記第1閾値以上であった前記登録壁画像又は前記登録天井画像であり、
前記第2登録画像は、前記算出された第2類似度が前記第2閾値以上であった前記登録壁画像又は前記登録天井画像であることを特徴とする請求項1から請求項3のいずれか一項に記載の物件情報提示装置。
The specific configuration image is a specific configuration wall image or a specific configuration ceiling image that is specified based on the feature amount of each of the configuration wall image or the configuration ceiling image that configures the designated three-dimensional model image,
The registered image is a registered wall image or a registered ceiling image constituting the image of the real estate property,
The relationship configuration image is a configuration wall image or a configuration ceiling image adjacent to the specific configuration image in the configuration wall image or the configuration ceiling image,
The first registered image is the registered wall image or the registered ceiling image whose calculated first similarity is equal to or greater than the first threshold,
The said 2nd registration image is the said registration wall image or the said registered ceiling image whose said calculated 2nd similarity was more than the said 2nd threshold value, The Claim 1 characterized by the above-mentioned. Article information presentation device according to one paragraph.
前記算出された第2類似度が前記第2閾値以上である場合に、前記構成画像のうち前記特定構成画像に対して予め設定された第2位置関係にある第2関係構成画像と、前記第1登録画像に対して前記第2位置関係にある前記登録画像と、の間の第3類似度を算出する第3算出手段を更に備え、
前記算出された第2類似度が前記第2閾値以上である場合に、前記第2特定手段は、前記第1登録画像と、前記第2登録画像と、前記算出された第3類似度が予め設定された第3閾値以上である前記登録画像である第3登録画像と、を有する前記不動産物件の画像を前記類似画像として特定することを特徴とする請求項1から請求項5のいずれか一項に記載の物件情報提示装置。
When the calculated second similarity is equal to or greater than the second threshold, a second related configuration image having a second positional relationship set in advance with respect to the specific configuration image among the configuration images; A third calculating unit configured to calculate a third similarity between one registered image and the registered image in the second positional relationship,
When the calculated second similarity is greater than or equal to the second threshold, the second specifying unit determines that the first registered image, the second registered image, and the calculated third similarity are The image of the real estate article having the third registered image which is the registered image which is equal to or more than a set third threshold value is specified as the similar image. Item information presentation device described in section.
前記特定構成画像は、前記指定三次元モデル画像を構成する構成壁画像それぞれの前記特徴量に基づいて特定された特定構成壁画像であり、
前記登録画像は、前記不動産物件の画像を構成する登録壁画像のそれぞれであり、
前記関係構成画像は、前記構成壁画像のうち前記特定構成画像に相隣接する構成壁画像であり、
前記第1登録画像は、前記算出された第1類似度が前記第1閾値以上であった前記登録壁画像であり、
前記第2登録画像は、前記算出された第2類似度が前記第2閾値以上であった前記登録壁画像であり、
前記第2関係構成画像は、前記構成壁画像のうち、前記第2位置関係で前記特定構成画像に接する構成壁画像であり、
前記第3登録画像は、前記算出された第3類似度が前記第3閾値以上であった前記登録壁画像であることを特徴とする請求項6に記載の物件情報提供装置。
The specific configuration image is a specific configuration wall image specified based on the feature amount of each of the configuration wall images constituting the designated three-dimensional model image,
The registered image is each of the registered wall images constituting the image of the real estate,
The related configuration image is a configuration wall image adjacent to the specific configuration image in the configuration wall image,
The first registered image is the registered wall image whose calculated first similarity is equal to or greater than the first threshold,
The second registered image is the registered wall image in which the calculated second similarity is equal to or greater than the second threshold,
The second related configuration image is a configuration wall image that is in contact with the specific configuration image in the second positional relationship among the configuration wall images,
The property information providing apparatus according to claim 6, wherein the third registered image is the registered wall image whose calculated third similarity is equal to or larger than the third threshold.
前記特定構成画像は、前記指定三次元モデル画像を構成する構成壁画像又は構成天井画像それぞれの前記特徴量に基づいて特定された特定構成壁画像又は特定構成天井画像であり、
前記登録画像は、前記不動産物件の画像を構成する登録壁画像又は登録天井画像のそれぞれであり、
前記関係構成画像は、前記構成壁画像又は前記構成天井画像のうち前記特定構成画像に相隣接する構成壁画像又は構成天井画像であり、
前記第1登録画像は、前記算出された第1類似度が前記第1閾値以上であった前記登録壁画像又は前記登録天井画像であり、
前記第2登録画像は、前記算出された第2類似度が前記第2閾値以上であった前記登録壁画像又は前記登録天井画像であり、
前記第2関係構成画像は、前記構成壁画像又は前記構成天井画像のうち、前記第2位置関係で前記特定構成画像に接する構成壁画像又は構成天井画像であり、
前記第3登録画像は、前記算出された第3類似度が前記第3閾値以上であった前記登録壁画像又は前記登録天井画像であることを特徴とする請求項6に記載の物件情報提示装置。
The specific configuration image is a specific configuration wall image or a specific configuration ceiling image that is specified based on the feature amount of each of the configuration wall image or the configuration ceiling image that configures the designated three-dimensional model image,
The registered image is a registered wall image or a registered ceiling image constituting the image of the real estate property,
The relationship configuration image is a configuration wall image or a configuration ceiling image adjacent to the specific configuration image in the configuration wall image or the configuration ceiling image,
The first registered image is the registered wall image or the registered ceiling image whose calculated first similarity is equal to or greater than the first threshold,
The second registered image is the registered wall image or the registered ceiling image whose calculated second similarity is equal to or greater than the second threshold,
The second related configuration image is a configuration wall image or a configuration ceiling image that is in contact with the specific configuration image in the second positional relationship among the configuration wall images or the configuration ceiling images,
The property information presentation device according to claim 6, wherein the third registered image is the registered wall image or the registered ceiling image whose calculated third similarity is equal to or greater than the third threshold. .
前記データベースには、前記不動産物件を三次元モデル化した三次元モデル画像である登録三次元モデル画像と、前記不動産物件の写真画像である登録写真画像と、が、それぞれ前記登録画像として前記複数の不動産物件ごとに登録されており、
前記第2特定手段は、前記登録三次元モデル画像又は前記登録写真画像の少なくともいずれか一方を前記類似画像として特定することを特徴とする請求項1から請求項8のいずれか一項に記載の物件情報提示装置。
In the database, a registered three-dimensional model image that is a three-dimensional model image obtained by modeling the real estate article, and a registered photographic image that is a photographic image of the real estate property, It is registered for each real estate property,
9. The apparatus according to claim 1, wherein the second identification unit identifies at least one of the registered three-dimensional model image and the registered photographic image as the similar image. 10. Property information presentation device.
不動産物件の画像が、複数の当該不動産物件ごとに登録画像として登録されたデータベースにアクセス可能なコンピュータに、
ユーザにより指定された三次元モデル画像である指定三次元モデル画像を含む検索要求を取得するステップと、
前記指定三次元モデル画像を構成する構成画像それぞれの特徴量に基づいて、特定の当該構成画像を特定構成画像として特定するステップと、
前記特定された特定構成画像と、前記登録画像のそれぞれと、の間の第1類似度を算出するステップと、
前記算出された第1類似度が予め設定された第1閾値以上である場合に、前記構成画像のうち前記特定構成画像に対して予め設定された位置関係にある関係構成画像と、前記算出された第1類似度が前記第1閾値以上であった前記登録画像である第1登録画像に対して前記位置関係にある前記登録画像と、の間の第2類似度を算出するステップと、
前記算出された第2類似度が予め設定された第2閾値以上である場合に、前記第1登録画像と、前記算出された第2類似度が前記第2閾値以上であった前記登録画像である第2登録画像と、を有する前記不動産物件の画像を、類似画像として前記データベースにおいて特定するステップと、
前記特定された類似画像を含む物件情報を、前記検索要求に対応する検索結果として前記ユーザに提示するステップと、
を実行させることを特徴とする物件情報提示プログラム。
A computer that can access the database registered as a registered image for each of the real estate properties,
Obtaining a search request including a specified three-dimensional model image that is a three-dimensional model image specified by a user;
Based on the characteristic amount of each of the constituent images constituting the specified three-dimensional model image, a step of specifying the specific constituent image as a specific constituent image,
Calculating a first similarity between the specified specific constituent image and each of the registered images;
When the calculated first similarity is equal to or greater than a predetermined first threshold value, the relational constituent image having a predetermined positional relationship with respect to the specific constituent image among the constituent images, Calculating a second similarity between the registered image having the positional relationship with respect to the first registered image, which is the registered image whose first similarity is equal to or greater than the first threshold,
When the calculated second similarity is equal to or greater than a second threshold set in advance, the first registered image and the registered image in which the calculated second similarity is equal to or greater than the second threshold are used. Specifying an image of the real estate object having a second registered image as a similar image in the database;
Presenting the property information including the specified similar image to the user as a search result corresponding to the search request;
A property information presentation program characterized by executing
不動産物件の画像が、複数の当該不動産物件ごとに登録画像として登録されたデータベースにアクセス可能なコンピュータにより実行される物件情報提示方法であって、
ユーザにより指定された三次元モデル画像である指定三次元モデル画像を含む検索要求を取得するステップと、
前記指定三次元モデル画像を構成する構成画像それぞれの特徴量に基づいて、特定の当該構成画像を特定構成画像として特定するステップと、
前記特定された特定構成画像と、前記登録画像のそれぞれと、の間の第1類似度を算出するステップと、
前記算出された第1類似度が予め設定された第1閾値以上である場合に、前記構成画像のうち前記特定構成画像に対して予め設定された位置関係にある関係構成画像と、前記算出された第1類似度が前記第1閾値以上であった前記登録画像である第1登録画像に対して前記位置関係にある前記登録画像と、の間の第2類似度を算出するステップと、
前記算出された第2類似度が予め設定された第2閾値以上である場合に、前記第1登録画像と、前記算出された第2類似度が前記第2閾値以上であった前記登録画像である第2登録画像と、を有する前記不動産物件の画像を、類似画像として前記データベースにおいて特定するステップと、
前記特定された類似画像を含む物件情報を、前記検索要求に対応する検索結果として前記ユーザに提示するステップと、
を含むことを特徴とする物件情報提示方法。
An image of a real estate article is a property information presentation method executed by a computer capable of accessing a database registered as a registration image for each of the plurality of real estate articles,
Obtaining a search request including a specified three-dimensional model image that is a three-dimensional model image specified by a user;
Based on the characteristic amount of each of the constituent images constituting the specified three-dimensional model image, a step of specifying the specific constituent image as a specific constituent image,
Calculating a first similarity between the specified specific constituent image and each of the registered images;
When the calculated first similarity is equal to or greater than a predetermined first threshold value, the relational constituent image having a predetermined positional relationship with respect to the specific constituent image among the constituent images, Calculating a second similarity between the registered image having the positional relationship with respect to the first registered image, which is the registered image whose first similarity is equal to or greater than the first threshold,
When the calculated second similarity is equal to or greater than a second threshold set in advance, the first registered image and the registered image in which the calculated second similarity is equal to or greater than the second threshold are used. Specifying an image of the real estate object having a second registered image as a similar image in the database;
Presenting the property information including the specified similar image to the user as a search result corresponding to the search request;
A property information presentation method characterized by including:
JP2018155782A 2018-08-22 2018-08-22 Property information presentation device, property information presentation method, and property information presentation program Active JP7213036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018155782A JP7213036B2 (en) 2018-08-22 2018-08-22 Property information presentation device, property information presentation method, and property information presentation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018155782A JP7213036B2 (en) 2018-08-22 2018-08-22 Property information presentation device, property information presentation method, and property information presentation program

Publications (2)

Publication Number Publication Date
JP2020030609A true JP2020030609A (en) 2020-02-27
JP7213036B2 JP7213036B2 (en) 2023-01-26

Family

ID=69622580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018155782A Active JP7213036B2 (en) 2018-08-22 2018-08-22 Property information presentation device, property information presentation method, and property information presentation program

Country Status (1)

Country Link
JP (1) JP7213036B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023163420A (en) * 2022-04-28 2023-11-10 株式会社スペースリー Three-dimensional model generation device and three-dimensional model generation program
WO2025169626A1 (en) * 2024-02-05 2025-08-14 ソニーグループ株式会社 Information processing method, information processing device, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149681A (en) * 2000-11-08 2002-05-24 Fuji Xerox Co Ltd Method and system for retrieval service of real estate item, retrieval system, retrieval requesting device, retrieval mediating device, and retrieving device
JP2004288170A (en) * 2003-03-05 2004-10-14 Olympus Corp Three-dimensional model retrieval method and system
JP2006277166A (en) * 2005-03-29 2006-10-12 Fujitsu Ltd 3D shape comparison program and 3D similar shape search program
WO2011078174A1 (en) * 2009-12-24 2011-06-30 株式会社ニコン Retrieval support system, retrieval support method, and retrieval support program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149681A (en) * 2000-11-08 2002-05-24 Fuji Xerox Co Ltd Method and system for retrieval service of real estate item, retrieval system, retrieval requesting device, retrieval mediating device, and retrieving device
JP2004288170A (en) * 2003-03-05 2004-10-14 Olympus Corp Three-dimensional model retrieval method and system
JP2006277166A (en) * 2005-03-29 2006-10-12 Fujitsu Ltd 3D shape comparison program and 3D similar shape search program
WO2011078174A1 (en) * 2009-12-24 2011-06-30 株式会社ニコン Retrieval support system, retrieval support method, and retrieval support program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023163420A (en) * 2022-04-28 2023-11-10 株式会社スペースリー Three-dimensional model generation device and three-dimensional model generation program
JP7540671B2 (en) 2022-04-28 2024-08-27 株式会社スペースリー Three-dimensional model generating device and three-dimensional model generating program
WO2025169626A1 (en) * 2024-02-05 2025-08-14 ソニーグループ株式会社 Information processing method, information processing device, and program

Also Published As

Publication number Publication date
JP7213036B2 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
US10664897B2 (en) System, medium, and method for recommending home décor items based on an image of a room
US11610238B1 (en) System and method for collecting and managing property information
CN106033435B (en) Item identification method and device, indoor map generation method and device
US20130222373A1 (en) Computer program, system, method and device for displaying and searching units in a multi-level structure
US12211150B2 (en) System and method of object detection and interactive 3D models
JP7201743B2 (en) Cloud type cyber mall system
CN106127552A (en) A kind of virtual scene display method, Apparatus and system
US20210042809A1 (en) System and method for intuitive content browsing
KR101781890B1 (en) Real estate mediating system
WO2012075589A1 (en) Method and system for virtual shopping
KR102311567B1 (en) Method for Offering Perusal Service of Specific Position Information on Plural Layer in Spatial Information through Marker Generated Based on Electronic Map
JP7213036B2 (en) Property information presentation device, property information presentation method, and property information presentation program
KR20180029690A (en) Server and method for providing and producing virtual reality image about inside of offering
TW201810170A (en) A method applied for a real estate transaction information providing system
US9230366B1 (en) Identification of dynamic objects based on depth data
Tamboli et al. Canonical 3D object orientation for interactive light-field visualization
Pereira et al. Mirar: Mobile image recognition based augmented reality framework
Shukla et al. Augmented Reality Product Showcase E-commerce Application
JP2004070861A (en) House floor plan retrieval program and house floor plan retrieval device
KR102656584B1 (en) Real estate information management server based on video images and method of proving real estate information using the same
JP7149132B2 (en) Display control device, display control method and display control program
Takin et al. A framework for using advanced visualization tools for residential property management
An et al. Unified framework for automatic image stitching and rectification
Xiong et al. Indoor scene texturing based on single mobile phone images and 3D model fusion
Fu et al. A vr-based indoor visualization system from floorplan images with deep learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230116

R150 Certificate of patent or registration of utility model

Ref document number: 7213036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250