JP7767783B2 - Image processing device and program - Google Patents
Image processing device and programInfo
- Publication number
- JP7767783B2 JP7767783B2 JP2021144658A JP2021144658A JP7767783B2 JP 7767783 B2 JP7767783 B2 JP 7767783B2 JP 2021144658 A JP2021144658 A JP 2021144658A JP 2021144658 A JP2021144658 A JP 2021144658A JP 7767783 B2 JP7767783 B2 JP 7767783B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- processing device
- image processing
- fixed point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置及びプログラムに関する。 The present invention relates to an image processing device and a program.
従来、分譲マンション等の販売においては、購入検討者に内覧してもらうためのプレハブ等のモデルルームを建築していた。購入検討者は、モデルルームに実際に足を運んで、部屋のイメージを確認していた。
近年では、購入検討者の自宅等において購入検討者に同様の体感をしてもらうべく、モデルルームと同様の空間をバーチャルな環境に用意し、PC(パーソナルコンピュータ)等を用いて内覧してもらう取り組みも行われるようになってきている。
In the past, when selling condominiums and other properties, model rooms such as prefabricated buildings were constructed for potential buyers to view. Potential buyers would actually visit the model rooms to get an idea of what the rooms would look like.
In recent years, efforts have been made to provide potential buyers with a similar experience in their own homes by creating virtual environments similar to model rooms and allowing them to view the property using a PC (personal computer).
3DCG(3-Dimensional Computer Graphics)で構成されたものをWebブラウザで動作させるのは、技術的に難しい。そこで、上記した取り組みでは、バーチャルな空間をWeb(ウェブ)ブラウザに表示させるために、例えば、バーチャルな空間を、3Dのパノラマ画像としてWebブラウザに表示させている(例えば、特許文献1)。 It is technically difficult to run something made up of 3DCG (3-Dimensional Computer Graphics) in a web browser. Therefore, in the above-mentioned efforts, in order to display a virtual space in a web browser, for example, the virtual space is displayed in the web browser as a 3D panoramic image (for example, Patent Document 1).
パノラマ画像の場合、どの部屋のどの位置を視点としたパノラマ画像を生成するのかということが問題になる。特許文献1に記載のものは、パノラマ画像を生成する位置を、人手によって設定するものであり、手間がかかっていた。 When it comes to panoramic images, the problem is determining which room and which position to use as the viewpoint for generating the panoramic image. With the technology described in Patent Document 1, the position for generating the panoramic image must be set manually, which is time-consuming.
そこで、本発明は、より簡易にパノラマ画像を生成することが可能な画像処理装置及びプログラムを提供することを目的とする。 Therefore, the present invention aims to provide an image processing device and program that can more easily generate panoramic images.
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、物体の三次元画像を取得する画像取得手段と、上方向から前記物体の内部を表す平面図を取得する平面図取得手段と、前記平面図取得手段が取得した前記平面図から領域を検出する領域検出手段と、前記領域検出手段が検出した領域から対象領域を選定する領域選定手段と、前記領域選定手段が選定した前記対象領域に対して定点を設定する定点設定手段と、前記定点設定手段が設定した前記定点におけるパノラマ画像を、前記物体の三次元画像から生成するパノラマ画像生成手段と、を備える、画像処理装置である。
第2の発明は、第1の発明の画像処理装置において、前記領域選定手段は、大きさが閾値以上である前記領域を、前記対象領域として選定する、画像処理装置である。
第3の発明は、第1の発明又は第2の発明の画像処理装置において、前記領域選定手段は、各領域の用途に係る情報に基づいて前記対象領域を選定する、画像処理装置である。
第4の発明は、第1の発明から第3の発明までのいずれかの画像処理装置において、前記定点設定手段は、前記領域の面積及び縦横比に基づく定点設定ルールに基づいて、前記定点を設定する、画像処理装置である。
第5の発明は、第1の発明から第4の発明までのいずれかの画像処理装置において、前記物体に係る画像を受け付ける物体画像受付手段を備え、前記画像取得手段は、前記物体画像受付手段が受け付けた前記画像が前記平面図である場合に、前記平面図から生成された前記物体の三次元画像を取得する、画像処理装置である。
第6の発明は、第1の発明から第4の発明までのいずれかの画像処理装置において、前記物体に係る画像を受け付ける物体画像受付手段と、前記物体画像受付手段が受け付けた前記画像が前記物体の三次元画像である場合に、前記物体の三次元画像から前記平面図を生成する平面図生成手段と、を備える、画像処理装置である。
第7の発明は、第1の発明から第6の発明までのいずれかの画像処理装置において、前記画像取得手段が取得した前記物体の三次元画像を中心とした水平な同心円の円周上において周方向に移動した位置から前記物体の三次元画像を撮影した、前記物体の三次元画像に対する複数の撮影画像を生成する撮影画像生成手段と、前記撮影画像生成手段が生成した前記複数の撮影画像を、周方向に順に結合した合成画像を生成する合成画像生成手段と、を備える、画像処理装置である。
第8の発明は、第1の発明から第7の発明までのいずれかの画像処理装置としてコンピュータを機能させるためのプログラムである。
The present invention solves the above problems by the following means.
The first invention is an image processing device comprising an image acquisition means for acquiring a three-dimensional image of an object, a plan view acquisition means for acquiring a plan view showing the inside of the object from above, an area detection means for detecting an area from the plan view acquired by the plan view acquisition means, an area selection means for selecting a target area from the area detected by the area detection means, a fixed point setting means for setting a fixed point for the target area selected by the area selection means, and a panoramic image generation means for generating a panoramic image at the fixed point set by the fixed point setting means from the three-dimensional image of the object.
A second invention is the image processing device according to the first invention, wherein the region selection means selects the region whose size is equal to or greater than a threshold as the target region.
A third invention is the image processing device of the first or second invention, wherein the area selection means selects the target area based on information relating to the use of each area.
A fourth invention is an image processing device in which, in any of the first to third inventions, the fixed point setting means sets the fixed point based on a fixed point setting rule based on the area and aspect ratio of the region.
A fifth invention is an image processing device that is any of the first to fourth inventions, and is provided with an object image receiving means that receives an image related to the object, and the image acquisition means acquires a three-dimensional image of the object generated from the plan view when the image received by the object image receiving means is the plan view.
A sixth invention is an image processing device that is any of the image processing devices of the first to fourth inventions, and that includes an object image receiving means that receives an image related to the object, and a plan view generation means that, when the image received by the object image receiving means is a three-dimensional image of the object, generates the plan view from the three-dimensional image of the object.
The seventh invention is an image processing device that is any of the first to sixth inventions, and is equipped with a captured image generation means that generates a plurality of captured images of the three-dimensional image of the object, the three-dimensional image of the object being captured from positions moved circumferentially on the circumference of a horizontal concentric circle centered on the three-dimensional image of the object acquired by the image acquisition means, and a composite image generation means that generates a composite image by combining the plurality of captured images generated by the captured image generation means in a circumferential order.
An eighth aspect of the present invention is a program for causing a computer to function as any one of the image processing devices according to the first to seventh aspects of the present invention.
本発明によれば、より簡易にパノラマ画像を生成することが可能な画像処理装置及びプログラムを提供することができる。 The present invention provides an image processing device and program that can more easily generate panoramic images.
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
<画像処理システム100>
図1は、本実施形態に係る画像処理システム100の全体概要図及び画像処理装置1の機能ブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, this is merely an example, and the technical scope of the present invention is not limited to this example.
(Embodiment)
<Image Processing System 100>
FIG. 1 is a schematic diagram of an image processing system 100 according to this embodiment and a functional block diagram of an image processing device 1. As shown in FIG.
図1に示す画像処理システム100は、画像処理装置1と、画像入力端末3と、ユーザ端末4と、Webサーバ5とを備えたシステムである。
画像処理システム100は、画像入力端末3が、パノラマ画像を作成したい画像データを、画像処理装置1に送信する。すると、画像処理装置1が、画像データを判別して、パノラマ画像の生成に必要な画像データを生成した上で、自動でパノラマ画像を生成し、生成した画像を、Webサーバ5の所定の記憶装置に格納させる。そうすることで、ユーザ端末4がWebサーバ5にアクセスすることで、ユーザ端末4にパノラマ画像を表示させる。
The image processing system 100 shown in FIG. 1 is a system including an image processing device 1, an image input terminal 3, a user terminal 4, and a web server 5.
In the image processing system 100, the image input terminal 3 transmits image data for creating a panoramic image to the image processing device 1. The image processing device 1 then identifies the image data, generates the image data necessary to generate the panoramic image, automatically generates the panoramic image, and stores the generated image in a predetermined storage device of the web server 5. In this way, the user terminal 4 accesses the web server 5, causing the user terminal 4 to display the panoramic image.
画像処理装置1と、画像入力端末3と、Webサーバ5とは、通信ネットワークN1を介して通信可能に接続されている。また、ユーザ端末4と、Webサーバ5とは、通信ネットワークN2を介して通信可能に接続されている。通信ネットワークN1及びN2は、例えば、インターネット回線等であり、有線であるか無線であるかを問わない。また、図1では、画像入力端末3及びユーザ端末4を1つのみ図示しているが、複数有していてももちろんよい。
以下において、画像処理装置1は、住宅(物体)のモデルルームを例に、内覧に適するパノラマ画像を生成するものについて説明する。
The image processing device 1, the image input terminal 3, and the web server 5 are communicatively connected via a communication network N1. The user terminal 4 and the web server 5 are communicatively connected via a communication network N2. The communication networks N1 and N2 are, for example, internet lines, and may be wired or wireless. Although only one image input terminal 3 and one user terminal 4 are shown in FIG. 1, a plurality of them may of course be provided.
In the following, the image processing device 1 will be described as generating a panoramic image suitable for viewing, taking as an example a model room of a house (object).
<画像処理装置1>
画像処理装置1は、画像入力端末3から受信した画像データに対して画像処理を行って、インテリアのパノラマ画像と、エクステリアのパノラマ画像を生成する装置である。
画像処理装置1は、例えば、サーバである。画像処理装置1は、その他、PC等であってもよい。
また、画像処理装置1を構成するハードウェアの数に制限はない。必要に応じて、1又は複数で構成してもよい。また、画像処理装置1は、例えば、クラウドであってもよい。
<Image processing device 1>
The image processing device 1 is a device that performs image processing on image data received from the image input terminal 3 to generate a panoramic image of the interior and a panoramic image of the exterior.
The image processing device 1 is, for example, a server, but may also be a PC or the like.
Furthermore, there is no limit to the number of pieces of hardware that constitute the image processing device 1. As needed, the image processing device 1 may be configured with one or more pieces of hardware. Furthermore, the image processing device 1 may be, for example, a cloud.
画像処理装置1は、制御部10と、記憶部20と、通信インタフェース部29とを備える。
制御部10は、画像処理装置1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
The image processing device 1 includes a control unit 10 , a storage unit 20 , and a communication interface unit 29 .
The control unit 10 is a central processing unit (CPU) that controls the entire image processing device 1. The control unit 10 works in cooperation with the above-mentioned hardware to execute various functions by appropriately reading and executing an operating system (OS) and application programs stored in the storage unit 20.
制御部10は、画像受付部11(物体画像受付手段)と、2D(2-Dimensions)画像取得部12(平面図取得手段、平面図生成手段)と、3D(3-Dimensions)画像取得部13(画像取得手段)と、領域検出処理部14(領域検出手段、領域選定手段)と、定点設定部15(定点設定手段)と、パノラマ画像生成部16(パノラマ画像生成手段)と、撮影画像生成部18(撮影画像生成手段)と、合成画像生成部19(合成画像生成手段)とを備える。 The control unit 10 includes an image receiving unit 11 (object image receiving means), a 2D (2-Dimensions) image acquisition unit 12 (floor plan acquisition means, floor plan generation means), a 3D (3-Dimensions) image acquisition unit 13 (image acquisition means), an area detection processing unit 14 (area detection means, area selection means), a fixed point setting unit 15 (fixed point setting means), a panoramic image generation unit 16 (panoramic image generation means), a captured image generation unit 18 (captured image generation means), and a composite image generation unit 19 (composite image generation means).
画像受付部11は、画像処理の対象である住宅の画像データを、画像入力端末3から受け付ける。画像入力端末3から受け付ける画像データは、例えば、間取図や見取図等の平面図を示す2D画像を示す画像データであってもよいし、3D画像(三次元画像)を示す3DCG(三次元空間画像)データであってもよい。
2D画像取得部12は、画像受付部11が受け付けた画像データが3DCGデータであった場合に、3DCGデータから2D画像の画像データを生成することで、2D画像を取得する。2D画像取得部12は、3DCGデータから、例えば、3D画像を上方向から下方向に内部を俯瞰した画像として、2D画像を生成できる。
The image receiving unit 11 receives image data of a house to be subjected to image processing from the image input terminal 3. The image data received from the image input terminal 3 may be, for example, image data representing a 2D image showing a floor plan such as a floor plan or a sketch, or may be 3DCG (three-dimensional space image) data representing a 3D image (three-dimensional image).
When the image data accepted by the image accepting unit 11 is 3DCG data, the 2D image acquiring unit 12 acquires a 2D image by generating image data of a 2D image from the 3DCG data. The 2D image acquiring unit 12 can generate a 2D image from the 3DCG data, for example, as an image of the interior of the 3D image viewed from above to below.
3D画像取得部13は、画像受付部11が受け付けた画像データが2D画像の画像データであった場合に、2D画像の画像データから3DCGデータを生成することで、3D画像を取得する。
ここで、2D画像の画像データから3DCGデータを生成するのに、例えば、既知のソフトウェアを用いて行うことができる。例えば、2D画像の画像データを、簡易な3DCG(三次元空間画像)を生成する既知のソフトウェア(以降、このソフトウェアを「簡易CG生成ソフト」ともいう。)のインプットデータとして入力すれば、3DCGデータを作成することができる。
When the image data received by the image receiving unit 11 is image data of a 2D image, the 3D image obtaining unit 13 obtains a 3D image by generating 3DCG data from the image data of the 2D image.
Here, 3DCG data can be generated from image data of a 2D image using, for example, known software. For example, 3DCG data can be created by inputting image data of a 2D image as input data into known software for generating simple 3DCG (three-dimensional spatial images) (hereinafter, this software will also be referred to as "simple CG generation software").
領域検出処理部14は、2D画像から領域を検出する。より具体的には、領域検出処理部14は、2D画像のシルエット線を抽出して、抽出したシルエット線に基づいて領域を検出する。なお、領域検出処理部14による領域の検出は、上記のものに限定されず、公知の種々の手法によって検出できる。そして、領域検出処理部14が検出した領域の形状は、例えば、矩形であったり、円形であったり、多角形であったり、と様々な形状の領域であってよい。
そして、領域検出処理部14は、検出した領域からパノラマ画像を作成する対象エリア(対象領域)を選定する。ここで、対象エリアとは、例えば、大きさが閾値以上の領域をいう。
The region detection processing unit 14 detects a region from the 2D image. More specifically, the region detection processing unit 14 extracts silhouette lines from the 2D image and detects a region based on the extracted silhouette lines. Note that the detection of a region by the region detection processing unit 14 is not limited to the above, and various known methods can be used for detection. The shape of the region detected by the region detection processing unit 14 may be, for example, a rectangle, a circle, a polygon, or any other shape.
The area detection processing unit 14 then selects a target area (target area) for creating a panoramic image from the detected area. Here, the target area refers to, for example, an area whose size is equal to or larger than a threshold value.
また、領域検出処理部14は、例えば、領域の用途に係る情報に基づいて対象エリアを選定してもよい。領域検出処理部14は、領域の用途に係る情報を、例えば、物体認識処理によって得てもよい。例えば、2D画像にトイレを示す図柄を含む場合に、領域検出処理部14は、領域の用途に係る情報として、トイレを得てもよい。また、領域の用途に係る情報を、予め2D画像の画像データに有している場合には、領域検出処理部14は、当該データから領域の用途に係る情報を得てもよい。 The area detection processing unit 14 may also select the target area based on, for example, information related to the area's purpose. The area detection processing unit 14 may obtain information related to the area's purpose by, for example, object recognition processing. For example, if the 2D image includes a design indicating a toilet, the area detection processing unit 14 may obtain "toilet" as information related to the area's purpose. Furthermore, if information related to the area's purpose is previously stored in the image data of the 2D image, the area detection processing unit 14 may obtain information related to the area's purpose from that data.
定点設定部15は、領域検出処理部14が選定した対象エリアに対して定点を設定する。ここで、定点は、パノラマ画像を生成する中心位置をいう。定点設定部15は、領域検出処理部14が選定した対象エリアに設定する定点の数及び位置を、例えば、定点ルール記憶部22に記憶された定点設定ルールに基づいて決定し、対象エリアに決定した定点を設定する。定点設定ルールは、対象エリアの面積及び縦横比に基づく定点の数と、定点の設置位置とを定めたものである。定点の数に関する定点設定ルールは、例えば、特定の面積(例えば、10m2)ごとに定点の数を1とする、といったものである。また、定点の位置に関する定点設定ルールは、例えば、対象エリアの縦横比のうち、比率の高い方向に並べて配置する、といったものである。 The fixed point setting unit 15 sets fixed points in the target area selected by the area detection processing unit 14. Here, the fixed point refers to the center position for generating a panoramic image. The fixed point setting unit 15 determines the number and positions of fixed points to be set in the target area selected by the area detection processing unit 14, for example, based on fixed point setting rules stored in the fixed point rule storage unit 22, and sets the determined fixed points in the target area. The fixed point setting rules define the number of fixed points and the installation positions of the fixed points based on the area and aspect ratio of the target area. An example of the fixed point setting rule regarding the number of fixed points is that the number of fixed points is one for every specific area (e.g., 10 m2 ). Furthermore, an example of the fixed point setting rule regarding the positions of the fixed points is that the fixed points are arranged in a direction with a higher aspect ratio of the target area.
パノラマ画像生成部16は、定点設定部15が設定した定点におけるパノラマ画像を、3DCGデータから生成する。パノラマ画像生成部16が生成するパノラマ画像は、対象エリア内の定点を中心に360度の室内の風景を画像化したものであり、インテリアの画像である。 The panoramic image generation unit 16 generates a panoramic image of the fixed point set by the fixed point setting unit 15 from the 3DCG data. The panoramic image generated by the panoramic image generation unit 16 is an image of a 360-degree indoor scene centered on the fixed point within the target area, and is an interior image.
撮影画像生成部18は、3D画像を中心とした水平な同心円の円周上において周方向に移動した複数の位置から3D画像を撮影した、複数の撮影画像を生成する。
合成画像生成部19は、撮影画像生成部18が生成した複数の撮影画像を、周方向に順に結合した合成画像を生成する。ここで生成した合成画像は、360度の方角から見た住宅の外観を画像化したものであり、エクステリアの画像である。
The captured image generating unit 18 generates a plurality of captured images by capturing 3D images from a plurality of positions moved in the circumferential direction on the circumference of horizontal concentric circles centered on the 3D image.
The composite image generating unit 19 generates a composite image by sequentially combining the multiple captured images generated by the captured image generating unit 18 in the circumferential direction. The generated composite image is an image of the exterior of the house as seen from 360 degrees.
記憶部20は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部20は、プログラム記憶部21と、定点ルール記憶部22とを備える。
プログラム記憶部21は、各種のプログラムを記憶する記憶領域である。プログラム記憶部21は、画像処理プログラム21aを記憶している。画像処理プログラム21aは、画像処理装置1の制御部10が実行する各種機能を行うためのプログラムである。
また、プログラム記憶部21は、簡易CG生成ソフトがインストールされていてもよい。
The storage unit 20 is a storage area such as a hard disk or semiconductor memory element for storing programs, data, etc. required for the control unit 10 to execute various processes.
The storage unit 20 includes a program storage unit 21 and a fixed point rule storage unit 22 .
The program storage unit 21 is a storage area for storing various programs. The program storage unit 21 stores an image processing program 21 a. The image processing program 21 a is a program for performing various functions executed by the control unit 10 of the image processing device 1.
Furthermore, the program storage unit 21 may have simple CG generation software installed.
定点ルール記憶部22は、対象エリアに設定する定点の数及び位置に関するルールである定点設定ルールを記憶する記憶領域である。
通信インタフェース部29は、通信ネットワークN1を介して、画像入力端末3及びWebサーバ5等との間の通信を行うためのインタフェースである。
ここで、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、画像処理装置1は、制御部、記憶部等を備えた情報処理装置であり、コンピュータの概念に含まれる。
The fixed point rule storage unit 22 is a storage area for storing fixed point setting rules, which are rules regarding the number and positions of fixed points to be set in a target area.
The communication interface unit 29 is an interface for communicating with the image input terminal 3 and the Web server 5, etc., via the communication network N1.
Here, a computer refers to an information processing device that includes a control unit, a storage device, etc., and the image processing device 1 is an information processing device that includes a control unit, a storage device, etc., and is included in the concept of a computer.
<画像入力端末3>
画像入力端末3は、パノラマ画像の作成を希望する、例えば、住宅メーカの担当者等が使用する端末であって、例えば、図1に示すようなPC等の据置型の端末である。画像入力端末3は、その他、タブレットに代表されるコンピュータの機能を併せ持った携帯型の端末等であってもよい。
画像入力端末3は、図示しないが、少なくとも制御部と、記憶部と、入力部と、出力部と、通信インタフェース部とを備える。
<Image input terminal 3>
The image input terminal 3 is a terminal used by, for example, a person in charge of a home builder who wishes to create a panoramic image, and is, for example, a stationary terminal such as a PC as shown in Fig. 1. The image input terminal 3 may also be a portable terminal that also has the functions of a computer, such as a tablet.
Although not shown, the image input terminal 3 includes at least a control unit, a storage unit, an input unit, an output unit, and a communication interface unit.
<ユーザ端末4>
ユーザ端末4は、住宅の購入を希望する購入検討者が有する端末であって、例えば、図1に示すようなタブレット等の携帯端末である。ユーザ端末4は、その他、スマートフォンや、ノートPC等の各種の端末であってもよい。
ユーザ端末4は、図示しないが、少なくとも制御部と、記憶部と、タッチパネルディスプレイ(又は、入力部及び出力部)と、通信インタフェース部とを備える。
また、ユーザ端末4には、Webブラウザがインストールされている。そして、ユーザ端末4は、Webブラウザを起動させ、Webサーバ5との間でWebを用いた通信をすることで、Webサーバ5から画像データを含むWebページを取得できる。
<User Terminal 4>
The user terminal 4 is a terminal owned by a prospective purchaser who wishes to purchase a home, and is, for example, a mobile terminal such as a tablet as shown in Fig. 1. The user terminal 4 may also be various other terminals such as a smartphone or a notebook PC.
Although not shown, the user terminal 4 includes at least a control unit, a storage unit, a touch panel display (or an input unit and an output unit), and a communication interface unit.
A web browser is also installed on the user terminal 4. The user terminal 4 can then launch the web browser and communicate with the web server 5 using the web, thereby obtaining web pages including image data from the web server 5.
<Webサーバ5>
Webサーバ5は、画像処理装置1が生成した画像データを含むWebページを記憶するサーバである。Webサーバ5は、図示しないが、少なくとも制御部と、記憶部と、通信インタフェース部とを備える。
<Web Server 5>
The web server 5 is a server that stores web pages including image data generated by the image processing device 1. Although not shown, the web server 5 includes at least a control unit, a storage unit, and a communication interface unit.
<画像処理装置1の処理>
次に、画像処理装置1による処理について、フローチャートに基づき説明する。
図2は、本実施形態に係る画像処理装置1の画像生成処理を示すフローチャートである。
図3は、本実施形態に係る画像処理装置1が受け付ける画像の例を示す図である。
図4は、本実施形態に係る画像処理装置1のインテリア画像生成処理を示すフローチャートである。
図5は、本実施形態に係る画像処理装置1のインテリア画像生成処理における具体例を示す図である。
図6は、本実施形態に係る画像処理装置1の定点ルール記憶部22及び定点の設定例を示す図である。
図7は、本実施形態に係る画像処理装置1のインテリア画像生成処理における具体例を示す図である。
図8は、本実施形態に係る画像処理装置1のエクステリア画像生成処理を示すフローチャートである。
図9は、本実施形態に係る画像処理装置1のエクステリア画像生成処理における具体例を示す図である。
<Processing of image processing device 1>
Next, the processing performed by the image processing device 1 will be described with reference to a flowchart.
FIG. 2 is a flowchart showing the image generation process of the image processing device 1 according to this embodiment.
FIG. 3 is a diagram showing an example of an image accepted by the image processing apparatus 1 according to this embodiment.
FIG. 4 is a flowchart showing the interior image generation process of the image processing device 1 according to this embodiment.
FIG. 5 is a diagram showing a specific example of the interior image generation process of the image processing device 1 according to this embodiment.
FIG. 6 is a diagram showing an example of the fixed point rule storage unit 22 and the setting of fixed points in the image processing apparatus 1 according to this embodiment.
FIG. 7 is a diagram showing a specific example of the interior image generation process of the image processing device 1 according to this embodiment.
FIG. 8 is a flowchart showing the exterior image generation process of the image processing device 1 according to this embodiment.
FIG. 9 is a diagram showing a specific example of the exterior image generation process of the image processing device 1 according to this embodiment.
画像入力端末3の制御部は、画像データを画像処理装置1に送信することで、図2のステップS(以下、「ステップS」を単に「S」という。)11において、画像処理装置1の制御部10(画像受付部11)は、画像入力端末3からパノラマ画像の生成対象である画像データを受け付ける。制御部10は、画像データとして、2D画像の画像データ又は3D画像の画像データである3DCGデータを受け付ける。
図3(A)は、住宅の間取り図を示す2D画像50であって、2D画像の一例である。また、図3(B)は、3DCGデータの住宅の外観図を示す3D画像55であって、3D画像の一例である。
2 (hereinafter, "step S" will be simply referred to as "S") 11, the control unit 10 (image receiving unit 11) of the image processing device 1 receives image data that is the target for generating a panoramic image from the image input terminal 3. The control unit 10 receives, as image data, image data of a 2D image or 3DCG data that is image data of a 3D image.
Fig. 3A is a 2D image 50 showing a floor plan of a house, which is an example of a 2D image, and Fig. 3B is a 3D image 55 showing an exterior view of the house in 3DCG data, which is an example of a 3D image.
S12において、制御部10は、画像入力端末3から受け付けた画像データが2D画像の画像データであるか否かを判断する。2D画像の画像データである場合(S12:YES)には、制御部10は、処理をS13に移す。他方、2D画像の画像データではない場合(S12:NO)には、制御部10は、処理をS14に移す。 In S12, the control unit 10 determines whether the image data received from the image input terminal 3 is image data for a 2D image. If it is image data for a 2D image (S12: YES), the control unit 10 proceeds to S13. On the other hand, if it is not image data for a 2D image (S12: NO), the control unit 10 proceeds to S14.
S13において、制御部10(3D画像取得部13)は、2D画像の画像データから3DCGデータを生成する。ここで、制御部10は、既知の簡易CG生成ソフトを用いて2D画像の画像データから3DCGデータを生成してもよい。また、制御部10は、他の装置(図示せず)に2D画像の画像データを送信し、他の装置で既知の簡易CG生成ソフトを用いて2D画像の画像データから3DCGデータを生成し、他の装置から3DCGデータを取得してもよい。その後、制御部10は、処理をS15に移す。
他方、S14において、制御部10(2D画像取得部12)は、3DCGデータから2D画像の画像データを生成する。
S15において、制御部10は、インテリア画像処理を行う。
In S13, the control unit 10 (3D image acquisition unit 13) generates 3DCG data from the image data of the 2D image. Here, the control unit 10 may generate the 3DCG data from the image data of the 2D image using known simple CG generation software. Alternatively, the control unit 10 may transmit the image data of the 2D image to another device (not shown), generate 3DCG data from the image data of the 2D image using known simple CG generation software in the other device, and acquire the 3DCG data from the other device. Thereafter, the control unit 10 proceeds to S15.
On the other hand, in S14, the control unit 10 (2D image acquisition unit 12) generates image data of a 2D image from the 3DCG data.
In S15, the control unit 10 performs interior image processing.
ここで、インテリア画像処理について、図4に基づき説明する。
図4のS21において、制御部10(領域検出処理部14)2D画像から領域を検出する。
制御部10は、まず、図5(A)に示すように、2D画像50からシルエット線51を抽出する。図5(A)では、一部のシルエット線51を符号により示している。
次に、制御部10は、図5(B)の2D画像60に示すように、抽出したシルエット線に基づいて領域を検出する。図5(B)では、検出した領域のうちの一部である矩形領域61から66までを符号により示している。
Here, the interior image processing will be described with reference to FIG.
In S21 of FIG. 4, the control unit 10 (area detection processing unit 14) detects an area from the 2D image.
First, as shown in Fig. 5A, the control unit 10 extracts silhouette lines 51 from a 2D image 50. In Fig. 5A, some of the silhouette lines 51 are indicated by symbols.
Next, the control unit 10 detects regions based on the extracted silhouette lines, as shown in the 2D image 60 of Fig. 5(B) In Fig. 5(B) , rectangular regions 61 to 66, which are part of the detected regions, are indicated by symbols.
図4のS22において、制御部10(領域検出処理部14)は、検出した領域から対象エリアを選定する。
制御部10は、検出した領域のうち、閾値以上の大きさの領域を、対象エリアとして選定する。図5(C)は、対象エリアを選定後の2D画像70を示し、対象エリア71から75を含む。対象エリア71から75は、図5(B)の矩形領域61から65に対応する。
In S22 of FIG. 4, the control unit 10 (area detection processing unit 14) selects a target area from the detected area.
The control unit 10 selects, from the detected regions, regions whose size is equal to or larger than a threshold value as target areas. Fig. 5(C) shows a 2D image 70 after the target areas have been selected, which includes target areas 71 to 75. The target areas 71 to 75 correspond to the rectangular regions 61 to 65 in Fig. 5(B).
図4のS23において、制御部10(定点設定部15)は、定点ルール記憶部22の定点設定ルールに基づいて、選定した対象エリアに定点を設定する。
ここで、定点設定ルールには、定点の数に関するルールと、設定位置に関するルールとがある。定点の数に関するルールは、対象エリアの大きさ(面積)に基づき、対象エリアの大きさが大きければ、定点の数も増える。
In S23 of FIG. 4, the control unit 10 ( fixed point setting unit 15 ) sets a fixed point in the selected target area based on the fixed point setting rule in the fixed point rule storage unit 22.
The fixed point setting rules include rules regarding the number of fixed points and rules regarding the setting locations. The rules regarding the number of fixed points are based on the size (area) of the target area, and the larger the target area, the more fixed points there are.
次に、設置位置に関するルールについて、図6に基づき説明する。
図6(A)は、定点ルール記憶部22に記憶される設定位置に関する定点設定ルールの例を示す。
図6(A)は、定点の数における定点の設定位置のルールを示す。図6(A)に示すルールは、矩形領域が縦方向にやや長い場合のルールの例である。定点の数が1の場合には、矩形領域の中央部に定点を設定する。また、定点の数が2の場合には、矩形領域の長辺方向に一定間隔を開けて定点を並べて設定する。定点の数が3の場合には、定点を線で結ぶと三角形状になるように定点を設定する。
図6(B)は、対象エリア31が横長の場合であって、定点が2である場合、2定点ルール32を、対象エリア31に適用して、適用後エリア33のように定点が設定される。
Next, the rules regarding the installation location will be described with reference to FIG.
FIG. 6A shows an example of fixed point setting rules related to setting positions stored in the fixed point rule storage unit 22.
Figure 6(A) shows the rules for setting the fixed points depending on the number of fixed points. The rules shown in Figure 6(A) are an example of rules for when the rectangular area is somewhat long vertically. When the number of fixed points is 1, the fixed point is set in the center of the rectangular area. When the number of fixed points is 2, the fixed points are set in a row at regular intervals along the long side of the rectangular area. When the number of fixed points is 3, the fixed points are set so that when connected by lines, they form a triangle.
In FIG. 6B, when the target area 31 is horizontally long and there are two fixed points, the two-fixed-point rule 32 is applied to the target area 31, and fixed points are set as in the area after application 33.
図7(A)は、定点を設定後の2D画像80を示す。2D画像80の対象エリア81から85までは、図5(C)の対象エリア71から75に対応する。対象エリア81から85には、それぞれ、定点マーク81aから85aまで及び82bを含む。 Figure 7(A) shows a 2D image 80 after fixed points have been set. Target areas 81 to 85 in the 2D image 80 correspond to target areas 71 to 75 in Figure 5(C). Target areas 81 to 85 include fixed point marks 81a to 85a and 82b, respectively.
図4のS24において、制御部10(パノラマ画像生成部16)は、3D画像を示す3DCGデータから各定点におけるパノラマ画像を生成する。その後、制御部10は、処理を図2のS16に移す。
図2のS16において、制御部10は、エクステリア画像処理を行う。
4, the control unit 10 (panoramic image generating unit 16) generates a panoramic image at each fixed point from the 3DCG data representing the 3D image. After that, the control unit 10 proceeds to S16 in FIG.
In S16 of FIG. 2, the control unit 10 performs exterior image processing.
ここで、エクステリア画像処理について、図8に基づき説明する。
図8のS31において、制御部10(撮影画像生成部18)は、水平位置から3D画像の物体を撮影した撮影画像を生成する。
S32において、制御部10(撮影画像生成部18)は、3D画像を中心とした水平な同心円の円周上において、周方向に移動した複数の位置から3D画像を撮影した、複数の撮影画像を生成する。
S33において、制御部10(合成画像生成部19)は、生成した複数の画像を、周方向に順に結合した合成画像を生成する。その後、制御部10は、処理を図2のS17に移す。
Here, the exterior image processing will be described with reference to FIG.
In S31 of FIG. 8, the control unit 10 (captured image generating unit 18) generates a captured image by capturing an object in a 3D image from a horizontal position.
In S32, the control unit 10 (captured image generation unit 18) generates a plurality of captured images by capturing 3D images from a plurality of positions moved circumferentially on the circumference of a horizontal concentric circle centered on the 3D image.
In S33, the control unit 10 (composite image generating unit 19) generates a composite image by combining the generated images in order in the circumferential direction. After that, the control unit 10 proceeds to S17 in FIG.
ここで、図9に基づき、エクステリア画像処理の処理を具体的に説明する。
まず、制御部10は、撮影用の3D画像90を準備する。
そして、制御部10(撮影画像生成部18)は、撮影用の3D画像90を中心とした水平な同心円の円周上において、周方向に移動した複数の位置のカメラC1、C2,C3,・・・から3D画像90を撮影した撮影画像91,92,93,・・・を生成する。なお、カメラC1,C2,C3,・・・は、撮影画像として取得する画像のアングルを決めるための仮想的なものである。
そして、制御部10(合成画像生成部19)は、撮影画像91,92,93,・・・の順番で結合した合成作業を生成する。
図2のS17において、制御部10は、Webサーバ5の所定の記憶領域に、生成した画像を格納する。その後、制御部10は、本処理を終了する。
Here, the exterior image processing will be specifically described with reference to FIG.
First, the control unit 10 prepares a 3D image 90 for imaging.
The control unit 10 (captured image generation unit 18) then generates captured images 91, 92, 93, ... obtained by capturing the 3D image 90 from cameras C1, C2, C3, ... at multiple positions moved in the circumferential direction on the circumference of horizontal concentric circles centered on the 3D image 90. Note that the cameras C1, C2, C3, ... are virtual cameras used to determine the angles of the images to be acquired as captured images.
Then, the control unit 10 (composite image generating unit 19) generates a composite image by combining the photographed images 91, 92, 93, . . . in this order.
2, the control unit 10 stores the generated image in a predetermined storage area of the web server 5. Thereafter, the control unit 10 ends this process.
図7(B)は、ユーザ端末4におけるパノラマ画像41の出力例を示す。
ユーザ端末がWebサーバ5に接続し、該当のWebページを出力する操作をすることで、Webサーバ5の制御部は、パノラマ画像41のデータを、ユーザ端末4に送信する。パノラマ画像41は、平面図領域42を含む。平面図領域は、パノラマ画像41を表示している対象エリアである表示エリア43が分かるように、表示エリア43は、視界可視部43pを含む。
ここで、ユーザ端末4において、パノラマ画像を表示させたい対象エリアを選択した場合に、最も見られている方向を最初に表示させるように、制御部10は、予め最も見られている方向を設定しておいてもよい。その場合、制御部10は、ユーザ端末4からの操作による利用ログを記憶しておくことで、最も見られている方向を決定することができる。
FIG. 7B shows an example of an output of a panoramic image 41 on the user terminal 4 .
When the user terminal connects to the web server 5 and performs an operation to output the corresponding web page, the control unit of the web server 5 transmits data of the panoramic image 41 to the user terminal 4. The panoramic image 41 includes a plan view area 42. The plan view area includes a display area 43 p, which is the target area in which the panoramic image 41 is displayed, so that the display area 43 can be seen.
Here, the control unit 10 may set the most viewed direction in advance so that the most viewed direction is displayed first when a target area for which a panoramic image is desired to be displayed is selected on the user terminal 4. In this case, the control unit 10 can determine the most viewed direction by storing a usage log based on operations from the user terminal 4.
このように、本実施形態の画像処理装置1によれば、以下のような効果がある。
(1)画像処理の対象である住宅の2D画像に含む領域から、パノラマ画像の生成対象にする対象エリアを選定して定点を設定する。また、2D画像の画像データを3D画像化した3DCGデータを用いて、設定した定点におけるパノラマ画像を生成する。
よって、パノラマ画像を生成する際に手間のかかる定点の設定を自動化して行うので、より簡易にパノラマ画像を生成できる。
As described above, the image processing device 1 of this embodiment has the following advantages.
(1) From the area included in the 2D image of the house that is the subject of image processing, a target area for generating a panoramic image is selected and a fixed point is set. In addition, a panoramic image at the set fixed point is generated using 3D CG data that is a 3D image of the image data of the 2D image.
Therefore, since the time-consuming task of setting fixed points when generating a panoramic image is automated, panoramic images can be generated more easily.
(2)パノラマ画像の生成対象にする対象エリアを、領域の大きさにより選定するので、例えば、住宅であれば、リビング等の比較的大きな部屋のパノラマ画像を生成対象にできる。よって、ユーザのニーズに合致した部分におけるパノラマ画像を生成できる。
(3)パノラマ画像の生成対象にする対象エリアを、領域の用途に係る情報に基づいて選定するので、例えば、住宅であれば、風呂場やトイレといった小さなエリアであっても、必要に応じてパノラマ画像の生成対象にできる。
(2) The target area for generating a panoramic image is selected based on the size of the area, so for example, in a house, a panoramic image of a relatively large room such as the living room can be generated. This allows a panoramic image of an area that meets the user's needs to be generated.
(3) The target area for generating a panoramic image is selected based on information related to the use of the area. For example, in a house, even a small area such as a bathroom or toilet can be used to generate a panoramic image as needed.
(4)領域の面積及び縦横比に基づく定点設定ルールに基づいて定点を設定するので、例えば、面積が広ければ、複数の定点を設定できる。また、領域の形状によって、定点の設定位置を決定する。よって、領域の大きさ及び形状に対して最適な定点を設定できる。 (4) Fixed points are set based on fixed point setting rules that are based on the area and aspect ratio of the region. For example, if the area is large, multiple fixed points can be set. Furthermore, the position at which the fixed points are set is determined based on the shape of the region. Therefore, it is possible to set fixed points that are optimal for the size and shape of the region.
(5)画像データが2D画像のものである場合に、3D画像の画像データを取得し、画像データが3DCGデータである場合に、2D画像を生成する。よって、物体の2D画像及び3D画像のうちのいずれかの画像データを受け付けたことに応じて、物体の内部を360度回転して閲覧が可能なインテリアのパノラマ画像を生成できる。 (5) If the image data is of a 2D image, image data of a 3D image is acquired, and if the image data is 3DCG data, a 2D image is generated. Thus, in response to receiving image data of either a 2D image or a 3D image of an object, a panoramic image of the interior can be generated that allows the interior of the object to be viewed by rotating 360 degrees.
(6)物体の3D画像を中心とした水平な同心円の円周上において周方向に移動した位置から物体の3D画像を撮影した、複数の物体の3D画像の撮影画像を生成し、生成した複数の撮影画像を、周方向に順に結合した合成画像を生成する。よって、外周の方向から物体の外部を閲覧可能なエクステリアのパノラマ画像を生成できる。 (6) 3D images of multiple objects are captured from positions moving circumferentially around a horizontal concentric circle centered on the 3D image of the object, generating 3D images of the object, and then combining the multiple captured images in the circumferential direction to generate a composite image. This allows for the generation of a panoramic exterior image that allows the outside of the object to be viewed from the periphery.
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments. Furthermore, the effects described in the embodiments are merely a list of the most favorable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. The above-described embodiments and the modified forms described below can also be used in appropriate combinations, but detailed explanations will be omitted.
(変形形態)
(1)本実施形態では、画像処理装置とWebサーバとは異なる装置であるものを例に説明したが、これに限定されない。情報処理装置にWebサーバの機能を有するようにすれば、1つの装置で画像の生成からユーザ端末による画像の閲覧までを実現できる。
また、本実施形態では、画像入力端末と画像処理装置とを別の装置として説明したが、これに限定されない。例えば、画像処理装置に入力部や出力部等を備えた、スタンドアロンの画像処理装置であってもよい。
さらに、本実施形態では、ユーザ端末にWebブラウザがインストールされており、Webブラウザを介してWebサーバに接続するものを例に説明したが、これに限定されない。ユーザ端末に、例えば、オフライン環境でも利用できるアプリケーションをインストールし、アプリケーションを起動させるとパノラマ画像が表示されるものであってもよい。その場合、Webサーバは、パノラマ画像をユーザ端末にダウンロードさせるためのサーバであってもよい。
(Modified form)
(1) In the present embodiment, the image processing device and the web server are different devices, but the present invention is not limited to this. If the information processing device has the functionality of a web server, a single device can perform operations from image generation to image viewing on a user terminal.
In addition, in the present embodiment, the image input terminal and the image processing device are described as separate devices, but this is not limiting. For example, the image processing device may be a standalone image processing device that includes an input unit, an output unit, etc.
Furthermore, in the present embodiment, a web browser is installed on the user terminal and the user connects to a web server via the web browser. However, this is not limiting. For example, an application that can be used offline may be installed on the user terminal, and a panoramic image may be displayed when the application is launched. In this case, the web server may be a server that downloads panoramic images to the user terminal.
(2)本実施形態では、定点設定ルールを定点ルール記憶部に有するものを例に説明したが、これに限定されない。定点設定ルールは、例えば、画像処理プログラムにロジックとして有していてもよい。
(3)本実施形態では、3D画像と2D画像のうちのいずれか一方の画像データを受け付けて処理をするものを例に説明したが、これに限定されない。3D画像と2D画像との両方の画像データがある場合には、両方の画像データを受け付けて処理をしてもよい。その場合には、他方の画像データを取得するための処理が不要になる。
(2) In the present embodiment, the fixed point setting rules are stored in the fixed point rule storage unit. However, the present invention is not limited to this. The fixed point setting rules may be stored as logic in an image processing program, for example.
(3) In the present embodiment, the image data of either a 3D image or a 2D image is received and processed, but this is not limiting. If image data of both a 3D image and a 2D image is available, both sets of image data may be received and processed. In this case, processing to acquire the other set of image data is not required.
(4)本実施形態では、住宅に関する画像について例示して説明したが、これに限定されない。例えば、自動車等であってもよい。自動車の場合には、シートを含む領域ごとに領域を抽出し、領域の大きさ及び縦横比によって定点を設定すればよい。 (4) In this embodiment, an image of a house has been described as an example, but the present invention is not limited to this. For example, an image of a car may also be used. In the case of a car, each area including the seat can be extracted, and fixed points can be set based on the size and aspect ratio of the area.
1 画像処理装置
3 画像入力端末
4 ユーザ端末
5 Webサーバ
10 制御部
11 画像受付部
12 2D画像取得部
13 3D画像取得部
14 領域検出処理部
15 定点設定部
16 パノラマ画像生成部
18 撮影画像生成部
19 合成画像生成部
20 記憶部
21a 画像処理プログラム
22 定点ルール記憶部
50,60,70,80 2D画像
55,90 3D画像
100 画像処理システム
REFERENCE SIGNS LIST 1 Image processing device 3 Image input terminal 4 User terminal 5 Web server 10 Control unit 11 Image reception unit 12 2D image acquisition unit 13 3D image acquisition unit 14 Area detection processing unit 15 Fixed point setting unit 16 Panoramic image generation unit 18 Captured image generation unit 19 Synthesized image generation unit 20 Storage unit 21a Image processing program 22 Fixed point rule storage unit 50, 60, 70, 80 2D image 55, 90 3D image 100 Image processing system
Claims (7)
上方向から前記物体の内部を表す平面図を取得する平面図取得手段と、
前記平面図取得手段が取得した前記平面図から領域を検出する領域検出手段と、
前記領域検出手段が検出した領域から対象領域を選定する領域選定手段と、
領域の面積及び縦横比に基づく定点設定ルールに基づいて、前記領域選定手段が選定した前記対象領域に対して定点を設定する定点設定手段と、
前記定点設定手段が設定した前記定点におけるパノラマ画像を、前記物体の三次元画像から生成するパノラマ画像生成手段と、
を備える、画像処理装置。 image acquisition means for acquiring a three-dimensional image of an object;
a plan view acquisition means for acquiring a plan view showing the inside of the object from above;
an area detection means for detecting an area from the plan view acquired by the plan view acquisition means;
an area selection means for selecting a target area from the areas detected by the area detection means;
a fixed point setting means for setting a fixed point for the target area selected by the area selection means based on a fixed point setting rule based on the area and aspect ratio of the area ;
a panoramic image generating means for generating a panoramic image at the fixed point set by the fixed point setting means from a three-dimensional image of the object;
An image processing device comprising:
前記領域選定手段は、大きさが閾値以上である前記領域を、前記対象領域として選定する、画像処理装置。 2. The image processing device according to claim 1,
The area selection means selects the area whose size is equal to or larger than a threshold as the target area.
前記領域選定手段は、各領域の用途に係る情報に基づいて前記対象領域を選定する、画像処理装置。 3. The image processing device according to claim 1,
The area selection means selects the target area based on information relating to the use of each area.
前記物体に係る画像を受け付ける物体画像受付手段を備え、
前記画像取得手段は、前記物体画像受付手段が受け付けた前記画像が前記平面図である場合に、前記平面図から生成された前記物体の三次元画像を取得する、画像処理装置。 4. The image processing device according to claim 1,
an object image receiving means for receiving an image of the object;
The image acquisition means, when the image accepted by the object image acceptance means is the plan view, acquires a three-dimensional image of the object generated from the plan view.
前記物体に係る画像を受け付ける物体画像受付手段と、
前記物体画像受付手段が受け付けた前記画像が前記物体の三次元画像である場合に、前記物体の三次元画像から前記平面図を生成する平面図生成手段と、
を備える、画像処理装置。 4. The image processing device according to claim 1,
an object image receiving means for receiving an image relating to the object;
a plan view generating means for generating the plan view from the three-dimensional image of the object when the image received by the object image receiving means is a three-dimensional image of the object;
An image processing device comprising:
前記画像取得手段が取得した前記物体の三次元画像を中心とした水平な同心円の円周上において周方向に移動した位置から前記物体の三次元画像を撮影した、前記物体の三次元画像に対する複数の撮影画像を生成する撮影画像生成手段と、
前記撮影画像生成手段が生成した前記複数の撮影画像を、周方向に順に結合した合成画像を生成する合成画像生成手段と、
を備える、画像処理装置。 6. The image processing device according to claim 1,
a photographed image generating means for generating a plurality of photographed images of the three-dimensional image of the object, the photographed images being obtained by photographing the three-dimensional image of the object from positions moved in a circumferential direction on the circumference of a horizontal concentric circle centered on the three-dimensional image of the object acquired by the image acquiring means;
a composite image generating means for generating a composite image by sequentially combining the plurality of photographed images generated by the photographed image generating means in a circumferential direction;
An image processing device comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021144658A JP7767783B2 (en) | 2021-09-06 | 2021-09-06 | Image processing device and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021144658A JP7767783B2 (en) | 2021-09-06 | 2021-09-06 | Image processing device and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023037856A JP2023037856A (en) | 2023-03-16 |
| JP7767783B2 true JP7767783B2 (en) | 2025-11-12 |
Family
ID=85514298
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021144658A Active JP7767783B2 (en) | 2021-09-06 | 2021-09-06 | Image processing device and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7767783B2 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020038657A (en) | 2018-09-05 | 2020-03-12 | 楽天株式会社 | Computer implementation method using artificial intelligence, ai system, and program |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9836885B1 (en) * | 2013-10-25 | 2017-12-05 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
-
2021
- 2021-09-06 JP JP2021144658A patent/JP7767783B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020038657A (en) | 2018-09-05 | 2020-03-12 | 楽天株式会社 | Computer implementation method using artificial intelligence, ai system, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023037856A (en) | 2023-03-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114140516B (en) | Automated analysis of image content to determine image acquisition locations | |
| JP5833772B2 (en) | Method and system for capturing and moving 3D models of real world objects and correctly scaled metadata | |
| CN111787242B (en) | Method and apparatus for virtual fitting | |
| EP3226211B1 (en) | Method and program of automatic three-dimensional solid modeling based on two-dimensional drawing | |
| CN111161336B (en) | Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and computer-readable storage medium | |
| EP3467787B1 (en) | Three-dimensional model generation system, three-dimensional model generation method, and program | |
| US12045901B2 (en) | System for providing removals simulation using virtual reality and augmented reality and brokering real estate therethrough | |
| JP7234264B2 (en) | MIXED REALITY DISPLAY DEVICE AND MIXED REALITY DISPLAY METHOD | |
| US20160381348A1 (en) | Image processing device and method | |
| US10290049B1 (en) | System and method for multi-user augmented reality shopping | |
| JP7368699B2 (en) | Image processing device, image communication system, image processing method, and program | |
| CN113436311B (en) | House pattern generation method and device | |
| JP7703838B2 (en) | IMAGE PROCESSING METHOD, PROGRAM, AND IMAGE PROCESSING SYSTEM | |
| JP2018088065A (en) | Information visualization system, information visualization method, and program | |
| US12394145B2 (en) | Feedback using coverage for object scanning | |
| CN114511668A (en) | Method, device and equipment for acquiring three-dimensional decoration image and storage medium | |
| JP7241812B2 (en) | Information visualization system, information visualization method, and program | |
| KR101724676B1 (en) | System for recording place information based on interactive panoramic virturl reality | |
| JP7767783B2 (en) | Image processing device and program | |
| JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
| JP2017182681A (en) | Image processing system, information processing apparatus, program | |
| JP7133900B2 (en) | Shooting position specifying system, shooting position specifying method, and program | |
| JP6577557B2 (en) | Information processing apparatus, information processing method, and information processing program | |
| CN113674397B (en) | A data processing method and device | |
| US20230206549A1 (en) | System and method of creating three-dimensional virtual models with a mobile device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240729 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250424 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250603 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250729 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250930 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20251013 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7767783 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |