[go: up one dir, main page]

JP2011095858A - Three-dimensional digitizer - Google Patents

Three-dimensional digitizer Download PDF

Info

Publication number
JP2011095858A
JP2011095858A JP2009247068A JP2009247068A JP2011095858A JP 2011095858 A JP2011095858 A JP 2011095858A JP 2009247068 A JP2009247068 A JP 2009247068A JP 2009247068 A JP2009247068 A JP 2009247068A JP 2011095858 A JP2011095858 A JP 2011095858A
Authority
JP
Japan
Prior art keywords
image
virtual space
distance
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009247068A
Other languages
Japanese (ja)
Inventor
Satoshi Furukawa
聡 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2009247068A priority Critical patent/JP2011095858A/en
Publication of JP2011095858A publication Critical patent/JP2011095858A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

【課題】連続性のある実画像に3次元情報を持たせ、仮想空間の任意の視点から実画像に含まれる物体を見ることが可能な画像データを生成する3次元デジタイザを提供する。
【解決手段】撮像手段2はカラー画像を撮像し、距離画像生成手段1は撮像手段2と重複する視野を持ち距離画像を生成する。撮像位置計測手段4は、撮像手段2および距離画像生成手段1による撮像位置と撮像方向とを計測する。座標変換手段3は、距離画像に規定した装置座標を位置計測手段4により計測した撮像位置および撮像方向を用いて実空間に規定されている3次元の実空間座標に変換する。座標変換手段3で得られた物体の実空間座標を用いることにより、仮想空間形成手段5では、物体のモデリングを行い仮想空間を形成する。さらに、外観形成手段6は、仮想空間に配置した物体に撮像手段で撮像した物体の外観をテクスチャとしてマッピングを行う。
【選択図】図1
Provided is a three-dimensional digitizer for generating three-dimensional information in a real image having continuity and generating image data capable of viewing an object included in the real image from an arbitrary viewpoint in a virtual space.
An image pickup means 2 picks up a color image, and a distance image generation means 1 has a field of view overlapping with the image pickup means 2 to generate a distance image. The imaging position measuring unit 4 measures an imaging position and an imaging direction by the imaging unit 2 and the distance image generating unit 1. The coordinate conversion unit 3 converts the device coordinates defined in the distance image into three-dimensional real space coordinates defined in the real space using the imaging position and imaging direction measured by the position measurement unit 4. By using the real space coordinates of the object obtained by the coordinate conversion means 3, the virtual space forming means 5 models the object to form a virtual space. Further, the appearance forming unit 6 performs mapping on the object arranged in the virtual space using the appearance of the object imaged by the imaging unit as a texture.
[Selection] Figure 1

Description

本発明は、建物のような物体に関する位置情報を3次元のデータに変換する3次元デジタイザに関するものである。   The present invention relates to a three-dimensional digitizer that converts position information about an object such as a building into three-dimensional data.

従来から、市街地の3次元モデルを作成するために、航空機に3次元計測を行うレーザスキャナを搭載して得た計測データを用いて地形と建造物などとを分離して3次元の都市モデルを自動的に生成する技術が提案されている(たとえば、特許文献1参照)。また、同様の技術として、地面の3次元的座標値を計測するために、カメラを車両に搭載するとともにカメラの位置情報を取得するセンシング部を車両に搭載し、センシング部により計測したカメラの視点位置とカメラで撮像した画像とから道路面の3次元形状を獲得する技術も知られている(たとえば、特許文献2参照)。   Conventionally, in order to create a 3D model of an urban area, a 3D city model is created by separating terrain and buildings using measurement data obtained by mounting a laser scanner that performs 3D measurement on an aircraft. A technique of automatically generating has been proposed (see, for example, Patent Document 1). Further, as a similar technique, in order to measure the three-dimensional coordinate value of the ground, a camera is mounted on the vehicle and a sensing unit that acquires camera position information is mounted on the vehicle, and the camera viewpoint measured by the sensing unit is measured. A technique for acquiring a three-dimensional shape of a road surface from a position and an image captured by a camera is also known (see, for example, Patent Document 2).

特許文献1には、地形や建造物の3次元データにテクスチャを貼り、3次元的に統合することによって、3次元市街地空間モデルを構築する旨の記載がある。また、特許文献2には、道路面の画像からスリット面の形状を獲得し、さらにスリット面を微小線分に分割するとともに、微小線分を正射影座標に変換したものをテクスチャデータとして用い、道路面の3次元座標値に当該テクスチャデータのマッピングを行うことが記載されている。   Patent Document 1 describes that a three-dimensional urban space model is constructed by pasting textures on three-dimensional data of terrain and buildings and integrating them three-dimensionally. Further, in Patent Document 2, the shape of the slit surface is acquired from the road surface image, the slit surface is further divided into minute line segments, and the minute line segments are converted into orthographic projection coordinates as texture data. It is described that the texture data is mapped to the three-dimensional coordinate values of the road surface.

特開2002−170102号公報JP 2002-170102 A 特開2002−74323号公報JP 2002-74323 A

上述したように、特許文献1および特許文献2には、3次元データにテクスチャのマッピングを行うことが記載されている。しかしながら、特許文献1に記載の技術では、航空写真データから上面画像の抽出を行う旨の記載があるが、3次元データに貼るためのテクスチャをどのようにして獲得するかは明らかではない。また、特許文献2に記載の技術では、道路面の画像をスリット面に分割し、さらにスリット面を微小線分に分割してテクスチャデータとして用いており、微小なテクスチャをタイル状に貼り合わせることになるから、道路面の画像を連続性のある画像に構成することが難しいという問題を有している。   As described above, Patent Document 1 and Patent Document 2 describe performing texture mapping on three-dimensional data. However, in the technique described in Patent Document 1, there is a description that the top image is extracted from the aerial photograph data, but it is not clear how to obtain a texture to be pasted on the three-dimensional data. Further, in the technique described in Patent Document 2, an image of a road surface is divided into slit surfaces, and further, the slit surfaces are divided into minute line segments and used as texture data, and a minute texture is pasted in a tile shape. Therefore, there is a problem that it is difficult to configure a road surface image into a continuous image.

本発明は上記事由に鑑みて為されたものであり、その目的は、連続性のある実画像に3次元情報を持たせることを可能にし、仮想空間の任意の視点から実画像に含まれる物体を見ることが可能な画像データを生成する3次元デジタイザを提供することにある。   The present invention has been made in view of the above-described reasons, and the object thereof is to enable a real image having continuity to have three-dimensional information, and an object included in the real image from an arbitrary viewpoint in the virtual space. It is an object of the present invention to provide a three-dimensional digitizer that generates image data that can be viewed.

本発明は、上記目的を達成するために、カラー画像または濃淡画像を撮像する撮像手段と、撮像手段と重複する視野を持ち視野内に存在する物体までの距離値を画素値とした距離画像を生成する距離画像生成手段と、撮像手段および距離画像生成手段による撮像位置と撮像方向とを計測する撮像位置計測手段と、距離画像に規定した装置座標を位置計測手段により計測した撮像位置および撮像方向を用いて実空間に規定されている3次元の実空間座標に変換する座標変換手段と、座標変換手段で得られた物体の実空間座標を用いて物体のモデリングを行うことにより仮想空間を形成する仮想空間形成手段と、仮想空間に配置した物体に撮像手段で撮像した物体の外観をテクスチャとしてマッピングを行う外観形成手段とを備えることを特徴とする。   In order to achieve the above object, the present invention provides a distance image having a pixel value as a distance value between an imaging unit that captures a color image or a grayscale image, and an object that has a field of view overlapping with the imaging unit and exists in the field of view. A distance image generating means to be generated; an imaging position measuring means for measuring an imaging position and an imaging direction by the imaging means and the distance image generating means; and an imaging position and an imaging direction in which device coordinates defined in the distance image are measured by the position measuring means A virtual space is formed by modeling the object using the real space coordinates of the object obtained by the coordinate transformation means that converts to the three-dimensional real space coordinates specified in the real space using the coordinate transformation means A virtual space forming unit that performs mapping on the object arranged in the virtual space by using the appearance of the object imaged by the imaging unit as a texture. That.

仮想空間形成手段は、撮像位置計測手段により計測した撮像位置と撮像方向との少なくとも一方が異なりかつ同一物体が視野内に含まれる複数の距離画像について、実空間座標の類似度を評価することにより異なる距離画像について同一物体と異なる物体とを識別し、同一物体を重ね合わせることにより異なる距離画像を連結するのが望ましい。   The virtual space forming unit evaluates the similarity of real space coordinates for a plurality of distance images in which at least one of the imaging position and the imaging direction measured by the imaging position measuring unit is different and the same object is included in the field of view. It is desirable to identify the same object and different objects for different distance images and connect the different distance images by overlapping the same objects.

また、仮想空間形成手段は、撮像位置計測手段により計測した撮像位置と撮像方向との少なくとも一方が異なりかつ同一物体が視野内に含まれる複数の距離画像を組み合わせることにより、特定の撮像位置および撮像方向において死角に存在する物体のモデリングを行うのが望ましい。   The virtual space forming means combines a plurality of distance images in which at least one of the imaging position and the imaging direction measured by the imaging position measuring means is different and the same object is included in the field of view, thereby combining a specific imaging position and imaging It is desirable to model an object that is in a blind spot in the direction.

さらに、仮想空間形成手段は、物体の実空間座標を用いて物体の形状を幾何学形状に単純化したベクトル画像によるモデリングを行うのが望ましい。   Furthermore, it is desirable that the virtual space forming unit performs modeling using a vector image obtained by simplifying the shape of the object into a geometric shape using the real space coordinates of the object.

この場合、外観形成手段により形成された仮想空間の画像を表示するモニタ装置と、モニタ装置に表示された仮想空間の画像に対して編集操作を行う操作装置とを備え、仮想空間形成手段は、モニタ装置に表示された仮想空間の画像において操作装置により基準となる形状が指示されると当該形状に対する相対関係を用いて幾何学形状のベクトル画像を生成するのが望ましい。   In this case, the display device includes a monitor device that displays an image of the virtual space formed by the appearance forming unit, and an operation device that performs an editing operation on the image of the virtual space displayed on the monitor device. When a reference shape is designated by the operation device in the virtual space image displayed on the monitor device, it is desirable to generate a geometric shape vector image using a relative relationship with the shape.

また、仮想空間形成手段は、時刻の異なる複数の距離画像の視野内にモデリングを行った同一の物体が含まれる場合であって、異なる距離画像における当該物体の位置の差分が規定範囲を超えている場合には当該物体を仮想空間に配置しないことが望ましい。   Further, the virtual space forming means is a case where the same object modeled is included in the field of view of a plurality of distance images at different times, and the difference in the position of the object in the different distance images exceeds a specified range. If it is, it is desirable not to place the object in the virtual space.

仮想空間形成手段は、日時の異なる複数の距離画像において実空間座標の同位置に含まれる物体の類似度を評価し、類似度に基づいて異なる距離画像における実空間座標の同位置に異なる物体が存在すると判断される場合に、当該位置には最新の距離画像からモデリングを行った物体を仮想空間に配置することが望ましい。   The virtual space forming means evaluates the similarity of objects included in the same position of the real space coordinates in a plurality of distance images with different dates and times, and different objects exist at the same position of the real space coordinates in different distance images based on the similarity. When it is determined that the object exists, it is desirable to place an object modeled from the latest distance image in the virtual space at the position.

さらに、仮想空間形成手段は、仮想空間を構成する画素間の最小距離を仮想空間内での物体の位置に関連付けてもよい。   Further, the virtual space forming unit may associate the minimum distance between pixels constituting the virtual space with the position of the object in the virtual space.

本発明の構成によれば、撮像手段と距離画像生成手段との視野を重複させておき、距離画像と撮像位置および撮像方向とを用いて実空間座標での物体のモデリングを行い、モデリングがなされた物体を仮想空間に配置し、さらに、撮像手段により撮像した物体の外観を仮想空間に配置した物体のテクスチャとしてマッピングを行うから、仮想空間における物体は、実空間における3次元の位置情報を持つようにモデル化され、しかも実空間における外観を有することになる。したがって、連続性を有した実画像に3次元情報を持たせることが可能になる。すなわち、仮想空間内の任意の視点から実空間の物体を見ることが可能になる画像データを生成することができる。   According to the configuration of the present invention, the field of view of the imaging unit and the distance image generation unit are overlapped, and the object is modeled in real space coordinates using the distance image, the imaging position, and the imaging direction, and modeling is performed. The object in the virtual space is mapped in the virtual space, and the appearance of the object imaged by the imaging means is mapped as the texture of the object in the virtual space, so the object in the virtual space has three-dimensional position information in the real space And has an appearance in real space. Therefore, it becomes possible to give three-dimensional information to a real image having continuity. That is, it is possible to generate image data that enables an object in real space to be viewed from an arbitrary viewpoint in the virtual space.

また、同一物体が視野内に含まれる複数の距離画像について、実空間座標の類似度を評価し、各距離画像に含まれる物体が同一物体か異なる物体かを識別し、同一物体を重ね合わせることにより距離画像を連結する構成では、複数の距離画像を用いることによって切れ目のない連続した仮想空間を形成することが可能になる。また、距離画像では物体との距離が近いほど分解能が高くなるから、物体との距離が近い距離画像を連結すれば、高精細な仮想空間を構築することが可能になる。   In addition, for multiple distance images in which the same object is included in the field of view, the similarity of real space coordinates is evaluated, whether the objects included in each distance image are the same object or different objects, and the same object is superimposed In the configuration in which the distance images are connected together, it is possible to form a continuous virtual space without a break by using a plurality of distance images. Further, in the distance image, the closer the distance to the object, the higher the resolution. Therefore, by connecting the distance images that are close to the object, a high-definition virtual space can be constructed.

同一物体が視野内に含まれる複数の距離画像を組み合わせて死角に存在する物体のモデリングを行う構成を採用すれば、いずれかの距離画像では死角に存在する物体でも他の距離画像で補完してモデリングを行うことが可能になる。   If you adopt a configuration that models multiple objects that exist in the blind spot by combining multiple distance images that contain the same object in the field of view, the object that exists in the blind spot will be complemented with other distance images in any one of the distance images. Modeling can be performed.

物体のモデリングに際して物体の形状を幾何学形状に単純化したベクトル画像を用いる構成を採用すると、物体の各部位ごとの座標値を用いて物体を記述する場合に比較して物体の記述に要するデータ量を大幅に低減することができる。   When using a configuration that uses a vector image in which the shape of the object is simplified to a geometric shape when modeling the object, the data required to describe the object compared to the case where the object is described using coordinate values for each part of the object The amount can be greatly reduced.

また、モニタ装置に仮想空間の画像を表示し、操作装置により基準位置となる形状を指示することによって、当該形状に対する相対関係を用いて幾何学形状のベクトル画像を生成する構成では、たとえば、物体の垂直面や水平面あるいは直角をなす2面などの情報を指定することにより、物体の形状に関する規則ないし知識を与えることで物体の形状を特定するための情報量が増加するから、物体のモデリングの精度が高くなる。   Further, in the configuration in which an image of the virtual space is displayed on the monitor device and the shape serving as the reference position is indicated by the operation device, and the vector image of the geometric shape is generated using the relative relationship with the shape, for example, an object By specifying information such as the vertical plane, horizontal plane, or two planes that form a right angle, the amount of information for specifying the shape of the object increases by giving rules or knowledge about the shape of the object. Increases accuracy.

時刻の異なる距離画像に含まれる同一の物体について物体の位置の差分が規定範囲を越えている場合に当該物体を仮想空間に配置しない構成を採用すると、人や自動車のように移動する物体を仮想空間から排除し、定位置に固定されている物体を配置した仮想空間を形成することができる。この場合、人や自動車であっても移動が少なければ仮想空間から除去することができないが、この種の不要な物体の多くを仮想空間から自動的に除去することにより、手作業での除去の手間を大幅に低減することができる。また、物体のモデリングを行っていることにより物体ごとに個別に扱うことができるから、仮想空間から個別の物体を除去する作業が容易である。   When the same object included in distance images at different times has a difference in the position of the object that exceeds the specified range, the object is not placed in the virtual space. It is possible to form a virtual space in which an object that is excluded from the space and fixed at a fixed position is arranged. In this case, even if it is a person or a car, it cannot be removed from the virtual space if there is little movement, but by manually removing many of this kind of unnecessary objects from the virtual space, manual removal is not possible. Time and effort can be greatly reduced. In addition, since each object can be handled individually by modeling the object, it is easy to remove the individual object from the virtual space.

日時の異なる距離画像について実空間座標の同位置に含まれる物体が非類似であるときに、最新の距離画像によりモデリングを行った物体を仮想空間に配置する構成を採用した場合には、建物の改築などに対応して仮想空間内の物体を最新の情報に自動的に置き換えることができる。すなわち、モデリングを行っていることにより建物のような物体を個別に扱うことができるから、物体単位での画像の入れ替えを容易に行うことができる。   When the object included in the same position of the real space coordinates for distant images with different date and time is dissimilar, the structure of the object modeled by the latest distance image is placed in the virtual space. The object in the virtual space can be automatically replaced with the latest information corresponding to the renovation. That is, since modeling is performed, an object such as a building can be handled individually, so that images can be easily replaced in units of objects.

仮想空間を構成する画素間の最小距離を物体の位置に関連付けておけば、仮想空間内での物体の位置に応じて解像度を変化させることが可能になる。たとえば、仮想空間内において詳細な画像を見せることが不都合な物体については最小距離を大きく設定して解像度を下げておき、詳細な画像を見せる必要がある物体については最小距離を小さく設定して解像度を高めておくことが可能になる。   If the minimum distance between pixels constituting the virtual space is associated with the position of the object, the resolution can be changed according to the position of the object in the virtual space. For example, for objects that are inconvenient to show detailed images in the virtual space, set the minimum distance to a large value and reduce the resolution, and for objects that need to show detailed images, set the minimum distance to a low value and set the resolution. Can be raised.

実施形態を示すブロック図である。It is a block diagram which shows embodiment. 同上に用いる距離画像生成手段の動作説明図である。It is operation | movement explanatory drawing of the distance image generation means used for the same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above.

本実施形態では、カラー画像または濃淡画像を撮像する撮像手段2と、視野内に存在する物体までの距離値を画素値とした距離画像を生成する距離画像生成手段1とを用い、距離画像を用いて実空間に存在する物体の3次元情報を抽出するとともに、実空間に対応付けた仮想空間における物体の3次元情報に、撮像手段2で撮像された画像のマッピングを行うことによって、実空間を実写した画像を用いながらも3次元情報を持つ仮想空間を形成することを可能にしている。撮像手段2は、カラー画像と濃淡画像(モノクロ画像)とのどちらを出力するものでもよいが、以下の説明ではカラー画像を用いるものとする。   In the present embodiment, the distance image is generated by using the imaging unit 2 that captures a color image or a grayscale image, and the distance image generation unit 1 that generates a distance image using a distance value to an object existing in the field of view as a pixel value. And extracting the three-dimensional information of the object existing in the real space, and mapping the image captured by the imaging unit 2 to the three-dimensional information of the object in the virtual space associated with the real space. This makes it possible to form a virtual space having three-dimensional information while using an image of the photographed image. The imaging unit 2 may output either a color image or a grayscale image (monochrome image), but in the following description, a color image is used.

本発明では、主として市街地などにおいて建物のような定位置に存在する物体に関する3次元情報を抽出することを目的としている。物体の撮像に際しては、撮影位置や撮影方向を変更しながら距離画像とカラー画像との静止画像を順次生成するほか、距離画像とカラー画像との動画像を生成してもよい。動画像は実質的に時間間隔の短い静止画像の集合として扱うことが可能である。   An object of the present invention is to extract three-dimensional information related to an object existing at a fixed position such as a building mainly in an urban area. When imaging an object, a still image of a distance image and a color image may be sequentially generated while changing a shooting position and a shooting direction, and a moving image of a distance image and a color image may be generated. A moving image can be handled as a set of still images having substantially short time intervals.

以下の説明では、まず3次元情報を抽出するための距離画像を生成する技術について説明し、その後、カラー画像と距離画像とを組み合わせて仮想空間を形成する技術について説明する。   In the following description, a technique for generating a distance image for extracting three-dimensional information will be described first, and then a technique for forming a virtual space by combining a color image and a distance image will be described.

距離画像の生成には、受光手段の視野に発光源から赤外線のような信号光を投光し、視野内に存在する物体(人を含む)での反射光を受光手段で受光し、投光から受光までの時間差に相当する情報を用いることにより、物体までの距離を検出する飛行時間法(Time Of Flight)の原理を用いる。すなわち、発光源から信号光を投光するとともに、信号光を投光している空間を受光手段で受光し、受光手段の出力を用いて物体までの距離を検出するアクティブ型の距離画像生成手段を用いる。   To generate a distance image, signal light such as infrared light is projected from the light source to the visual field of the light receiving means, and reflected light from an object (including a person) existing in the visual field is received by the light receiving means. By using information corresponding to the time difference from light reception to light reception, the principle of time of flight is used to detect the distance to the object. That is, the active distance image generating means for projecting the signal light from the light source, receiving the space where the signal light is projected by the light receiving means, and detecting the distance to the object using the output of the light receiving means Is used.

発光源からは時間経過に伴って強度が変化する信号光(変調光)を出射し、物体で反射され受光手段で受光された信号光と投光した信号光との位相差を、投光から受光までの時間差に相当する情報として用いる。信号光の変調波形には、正弦波、三角波、鋸歯状波、方形波などを用いることができる。正弦波、三角波、鋸歯状波を用いる場合には信号光の周期を一定周期とする。   The light source emits signal light (modulated light) whose intensity changes over time, and calculates the phase difference between the signal light reflected by the object and received by the light receiving means and the projected signal light. It is used as information corresponding to the time difference until light reception. As the modulation waveform of the signal light, a sine wave, a triangular wave, a sawtooth wave, a square wave, or the like can be used. When a sine wave, a triangular wave, or a sawtooth wave is used, the period of the signal light is set to a constant period.

また、方形波を用いる場合には信号光の周期を一定周期とするほか、オン期間(発光源の投光期間)とオフ期間(発光源の非投光期間)との比率を乱数的に変化させる技術を採用することも可能である。後者の構成については詳述しないが、オン期間とオフ期間とを多数回繰り返すことにより、乱数性によってオン期間とオフ期間とが1対1とみなせることを利用する。この動作では、周期性を有する周囲光の影響を軽減できる。   In addition, when using a square wave, in addition to making the period of the signal light constant, the ratio between the ON period (light emitting source light emitting period) and the OFF period (light emitting source non-light emitting period) is changed randomly. It is also possible to adopt a technique for making them. Although the latter configuration will not be described in detail, the fact that the on period and the off period can be regarded as one-to-one due to randomness by using the on period and the off period many times is used. In this operation, the influence of ambient light having periodicity can be reduced.

受光手段は、複数個の画素が2次元に配列された撮像素子を備える。撮像素子は、CCDイメージセンサやCMOSイメージセンサとして提供されている濃淡画像を撮像するための周知構成のものを用いることができる。この種の撮像素子を用いる場合には、周囲光による飽和を防止し、かつ信号光の成分を検出することができるように、波長選択フィルタおよび減光フィルタを用いるとともに、信号光の強度を高め、さらに距離を計測する範囲を近距離(数m程度)とすることが望ましい。   The light receiving means includes an imaging device in which a plurality of pixels are arranged two-dimensionally. As the image pickup element, a well-known configuration for picking up a gray image provided as a CCD image sensor or a CMOS image sensor can be used. When this type of image sensor is used, a wavelength selective filter and a neutral density filter are used and the intensity of signal light is increased so that saturation by ambient light can be prevented and signal light components can be detected. Further, it is desirable that the range for measuring the distance is a short distance (several meters).

周囲光の影響を軽減するには、距離画像生成手段に適した構造を有するように専用に設計された撮像素子を用いることが望ましい。この種の撮像素子としては、たとえば、周囲光成分に相当する電荷を廃棄し、信号光成分に相当する電荷を集積することによって、周囲光による飽和を防止する構成が知られている。この種の撮像素子を用いることにより、受光領域で生成した電荷のうち信号光ではない環境光ないし周囲光の成分を低減させることができ、信号光成分に対するダイナミックレンジを大きくとることが可能になる。   In order to reduce the influence of ambient light, it is desirable to use an image sensor that is specifically designed to have a structure suitable for the distance image generation means. As this type of imaging device, for example, a configuration is known in which the charge corresponding to the ambient light component is discarded and the charge corresponding to the signal light component is integrated to prevent saturation due to ambient light. By using this type of image sensor, it is possible to reduce components of ambient light or ambient light that are not signal light among the charges generated in the light receiving region, and it is possible to increase the dynamic range for the signal light component. .

撮像素子は、複数個の画素(受光領域)を有し、各受光領域では受光強度に応じた電荷量の電荷を生成する。また、受光領域ごとの受光感度が電気信号により制御可能であり、以下に説明するように信号光を受光するタイミングを制御することにより、投光と受光との位相差を含む情報を検出することができる。また、撮像素子では、各受光領域で生成された電荷を信号光の変調周期の整数倍(たとえば、10000周期)の期間に亘って蓄積した後に、外部に取り出すことにより異常値の発生を抑制している。   The image pickup element has a plurality of pixels (light receiving regions), and each light receiving region generates a charge having a charge amount corresponding to the light receiving intensity. Moreover, the light receiving sensitivity for each light receiving area can be controlled by an electric signal, and information including the phase difference between light projection and light reception is detected by controlling the timing of receiving the signal light as described below. Can do. In addition, in the image sensor, the charge generated in each light receiving region is accumulated over a period that is an integral multiple of the modulation period of the signal light (for example, 10000 periods) and then taken out to suppress the occurrence of abnormal values. ing.

以下では、理解を助けるために距離画像生成手段の一構成例として下記構成を想定して説明するが、この構成は本発明を限定する趣旨ではなく、信号光の変調波形、撮像素子の構成、撮像素子の制御などに関して、周知の種々の距離画像生成手段に提供された構成を用いることができる。   In the following, in order to help understanding, the following configuration is described as an example of a configuration example of the distance image generation unit, but this configuration is not intended to limit the present invention, but the modulation waveform of the signal light, the configuration of the imaging device, With respect to the control of the image sensor and the like, configurations provided in various known distance image generation means can be used.

以下の説明で用いる距離画像生成手段1は、図1に示すように、光(近赤外線を用いるのが望ましい)を出射する発光源11と、対象空間からの光を受光する撮像素子12とを備える。発光源11には、発光ダイオードやレーザダイオードのように入力の瞬時値に比例した光出力が得られる発光素子を用いる。また、発光源11から出射する光量を確保するために、発光源11は適数個の発光素子を用いて構成される。   As shown in FIG. 1, the distance image generating means 1 used in the following description includes a light emitting source 11 that emits light (preferably using near infrared rays) and an image sensor 12 that receives light from a target space. Prepare. The light emitting source 11 is a light emitting element such as a light emitting diode or a laser diode that can obtain a light output proportional to the instantaneous value of the input. Further, in order to ensure the amount of light emitted from the light source 11, the light source 11 is configured using an appropriate number of light emitting elements.

発光源11は、発光源11から出力された信号光を対象空間に投光する投光光学系13とともに投光手段を構成している。また、撮像素子12は、対象空間からの光を撮像素子12に入射させる受光光学系14とともに受光手段を構成している。投光光学系13と受光光学系14とは互いに近接して配置してあり、投光光学系13と受光光学系14との距離は視野に対して実質的に無視することができるものとする。   The light source 11 constitutes a light projecting unit together with a light projecting optical system 13 that projects the signal light output from the light source 11 to the target space. Further, the image sensor 12 constitutes a light receiving means together with a light receiving optical system 14 that makes light from the target space incident on the image sensor 12. The light projecting optical system 13 and the light receiving optical system 14 are arranged close to each other, and the distance between the light projecting optical system 13 and the light receiving optical system 14 can be substantially ignored with respect to the field of view. .

距離画像生成手段1には、発光源11を駆動するための変調信号を出力する変調信号生成部15と、変調信号生成部15から出力された変調信号に基づいて撮像素子12での受光タイミングを規定する受光タイミング信号を生成するタイミング制御部16と、撮像素子12から出力された受光信号を用いて対象空間に存在する物体までの距離を求めて距離画像を生成する距離画像生成部17とが設けられる。   The distance image generation means 1 includes a modulation signal generation unit 15 that outputs a modulation signal for driving the light emission source 11, and a light reception timing at the image sensor 12 based on the modulation signal output from the modulation signal generation unit 15. A timing control unit 16 that generates a prescribed light reception timing signal, and a distance image generation unit 17 that generates a distance image by obtaining a distance to an object existing in the target space using the light reception signal output from the image sensor 12. Provided.

変調信号生成部15は、出力電圧が一定周波数(たとえば、20MHz)の正弦波形で変化する変調信号を生成し、変調信号を発光源11に与えることにより、図2(a)(b)のように光出力が正弦波状に変化する信号光が発光源11から出射される。発光源11として発光ダイオードを用いる場合には、電流制限抵抗を介して発光ダイオードに変調信号の信号電圧を印加することにより、発光ダイオードの通電電流を変化させ信号光を出射させる。   The modulation signal generation unit 15 generates a modulation signal whose output voltage changes with a sine waveform having a constant frequency (for example, 20 MHz), and supplies the modulation signal to the light emission source 11, as shown in FIGS. Signal light whose light output changes in a sine wave form is emitted from the light source 11. When a light-emitting diode is used as the light-emitting source 11, a signal voltage of a modulation signal is applied to the light-emitting diode through a current limiting resistor, thereby changing a current flowing through the light-emitting diode and emitting signal light.

撮像素子12は、電子シャッタの技術を用いることで、受光タイミング信号に同期する期間にのみ受光強度に応じた電荷を生成することが可能になっている。また、受光領域で生成された電荷は、遮光された蓄積領域に転送され、蓄積領域において変調信号の複数周期(たとえば、10000周期)に相当する蓄積期間に蓄積された後、撮像素子12の外部に受光出力として取り出される。   The image pickup device 12 can generate an electric charge according to the received light intensity only during a period synchronized with the received light timing signal by using an electronic shutter technique. In addition, the charge generated in the light receiving region is transferred to the light-shielded accumulation region and accumulated in the accumulation region in an accumulation period corresponding to a plurality of periods (for example, 10000 periods) of the modulation signal. Is taken out as a light receiving output.

タイミング制御部16では、変調信号に同期する受光タイミング信号を生成する。ここでは、変調信号の1周期における異なる4位相を規定し、各位相ごとに一定時間幅の受光期間を設定する4種類の受光タイミング信号を生成するとともに、蓄積期間ごとに4種類の受光タイミング信号のうちの各1種類の受光タイミング信号を撮像素子12に与える。   The timing control unit 16 generates a light reception timing signal synchronized with the modulation signal. Here, four different light receiving timing signals are defined for defining four different phases in one cycle of the modulation signal, and setting a light receiving period having a certain time width for each phase, and four kinds of light receiving timing signals for each accumulation period. 1 is provided to the image sensor 12.

すなわち、1種類の受光タイミング信号で規定した受光期間において受光領域で生成した電荷を1回の蓄積期間において蓄積し、蓄積後の電荷を受光出力として撮像素子12の外部に取り出す処理を4回繰り返し、4回の蓄積期間で4種類の受光タイミング信号に対応する受光出力を撮像素子12の外部に取り出す。   That is, the process of accumulating the charge generated in the light receiving region in the light receiving region defined by one type of light receiving timing signal in one accumulation period and taking out the accumulated charge as a light receiving output to the outside of the image sensor 12 is repeated four times. Light reception outputs corresponding to four types of light reception timing signals are taken out of the image sensor 12 in four accumulation periods.

いま、図2(c)のように、受光タイミング信号を変調信号の1周期において90度ずつ異なる位相で規定しているものとする。この場合、各受光タイミング信号に対応する受光出力(電荷量)を、それぞれA0,A1,A2,A3とするときに、位相差ψ〔rad〕は下式で表される。
ψ=(A0−A2)/(A1−A3)
変調信号の周波数をf〔Hz〕とすれば、投光から受光までの時間差Δtは位相差ψを用いて、Δt=ψ/2π・fと表されるから、光速をc〔m/s〕とすると、物体までの距離は、c・ψ/4π・fと表すことができる。
Now, as shown in FIG. 2 (c), it is assumed that the light reception timing signal is defined by a phase different by 90 degrees in one cycle of the modulation signal. In this case, when the light reception outputs (charge amounts) corresponding to the respective light reception timing signals are A0, A1, A2, and A3, the phase difference ψ [rad] is expressed by the following equation.
ψ = (A0−A2) / (A1−A3)
If the frequency of the modulation signal is f [Hz], the time difference Δt from light projection to light reception is expressed as Δt = ψ / 2π · f using the phase difference ψ, so the speed of light is c [m / s]. Then, the distance to the object can be expressed as c · ψ / 4π · f.

すなわち、4種類の受光出力(電荷量)A0〜A3により物体までの距離を求めることができる。なお、受光期間の時間幅は、受光領域において適正な受光量が得られるように、適宜に設定することができる(たとえば、変調信号の4分の1周期に相当する時間幅とすることができる)。ただし、各受光期間の時間幅は互いに等しくすることが必要である。   That is, the distance to the object can be obtained from the four types of light reception outputs (charge amounts) A0 to A3. The time width of the light receiving period can be set as appropriate so that an appropriate amount of received light can be obtained in the light receiving region (for example, a time width corresponding to a quarter period of the modulation signal can be used). ). However, the time width of each light receiving period needs to be equal to each other.

距離画像生成部17では、受光出力(電荷量)A0〜A3に基づいて位相差ψを求め、距離に換算する上述の処理のほか、以下に説明する処理も行うことができる。距離画像生成部17はコンピュータを用いて構成され、上述した処理はコンピュータでプログラムを実行することにより実現される。また、距離画像生成部17だけではなく、発光源11および撮像素子12を除く構成は、コンピュータを用いて実現される。   In the distance image generation unit 17, in addition to the above-described processing for obtaining the phase difference ψ based on the light reception outputs (charge amounts) A0 to A3 and converting the phase difference ψ, processing described below can be performed. The distance image generation unit 17 is configured using a computer, and the above-described processing is realized by executing a program on the computer. Further, not only the distance image generation unit 17 but also the configuration excluding the light emission source 11 and the image sensor 12 is realized using a computer.

なお、上述の動作例では、4種類の受光タイミング信号を用いているが、3種類の受光タイミング信号でも位相差ψを求めることができ、環境光ないし周囲光が存在しない環境下では、2種類の受光タイミング信号でも位相差ψを求めることが可能である。   In the above-described operation example, four types of light reception timing signals are used. However, the phase difference ψ can be obtained using three types of light reception timing signals, and two types of light reception timing signals can be obtained in an environment where there is no ambient light or ambient light. It is possible to obtain the phase difference ψ even with the light reception timing signal.

また、上述の動作では、1画素について1個の受光領域を用いているから、4種類の受光出力(電荷量)A0〜A3を撮像素子12から取り出すために4回の蓄積期間が必要であるが、1画素について2個の受光領域を設ければ、変調信号の1周期で2種類の受光タイミング信号に対応する電荷を生成することが可能になるから、撮像素子12から2種類の受光タイミング信号に対応した受光出力を1回で読み出すことが可能になる。同様に、1画素に4個の受光領域を設ければ、変調信号の1周期で4種類の受光タイミング信号に対応する電荷を生成し、4種類の受光タイミング信号に対応する受光出力を1回で読み出すことが可能になる。   In the above-described operation, since one light receiving region is used for one pixel, four accumulation periods are required to extract four types of light receiving outputs (charge amounts) A0 to A3 from the image sensor 12. However, if two light receiving regions are provided for one pixel, it is possible to generate electric charges corresponding to two types of light receiving timing signals in one cycle of the modulation signal. The received light output corresponding to the signal can be read out once. Similarly, if four light receiving regions are provided in one pixel, charges corresponding to four types of light receiving timing signals are generated in one cycle of the modulation signal, and light receiving outputs corresponding to the four types of light receiving timing signals are generated once. It becomes possible to read by.

上述した距離画像生成手段1は、対象空間からの光を受光するための受光素子として複数個の画素が2次元配列された撮像素子12を用いているから、各画素の画素値として距離値を求めることにより距離画像が生成されることになる。生成された距離画像はコンピュータのメモリに格納される。   Since the above-described distance image generating means 1 uses the imaging element 12 in which a plurality of pixels are two-dimensionally arranged as a light receiving element for receiving light from the target space, the distance value is set as the pixel value of each pixel. As a result, a distance image is generated. The generated distance image is stored in the memory of the computer.

以下では、上述のようにして生成された距離画像を撮像手段2により撮像されたカラー画像とともに用いて仮想空間を形成する技術について説明する。   Hereinafter, a technique for forming a virtual space using the distance image generated as described above together with the color image captured by the imaging unit 2 will be described.

距離画像生成手段1および撮像手段2は、手持ちでの撮像が可能になるカメラハウジングに収納される。手持ち可能なカメラハウジングを用いることにより、車載で用いる場合のように車道に沿った場所だけを撮像するのではなく、市街地に形成された路地のような地形の入り組んだ場所でも撮像することが可能になる。同様に、建物の内部の撮像も可能になる。   The distance image generating means 1 and the imaging means 2 are housed in a camera housing that enables hand-held imaging. By using a camera housing that can be held by hand, it is possible to capture not only the location along the roadway as in the case of in-vehicle use, but also the location where the terrain is complicated such as an alley formed in an urban area. become. Similarly, the inside of a building can be imaged.

また、詳細な情報が必要な部分については近い距離から撮像して解像度を高めることが可能であるから、画像の解像度を可変にすることができる。   In addition, since it is possible to increase the resolution by capturing an image of a portion requiring detailed information from a short distance, the resolution of the image can be made variable.

撮像手段2は、距離画像生成手段1における受光手段と視野が重複するように配置される。望ましくは、撮像手段2の視野を受光手段の視野と一致させる。具体的には、図1に示すように、ダイクロイックミラーからなるハーフミラーM1を撮像素子12と受光光学系14との間に配置し、撮像手段2を構成する撮像素子21の受光面の前方にミラーM2を配置した構成を採用する。ハーフミラーM1は撮像素子12の受光面に対して45度の角度で傾斜するように配置され、ミラーM2はハーフミラーM1と平行かつ撮像素子21の受光面に対して45度の角度で傾斜するように配置される。   The imaging unit 2 is arranged so that the field of view overlaps with the light receiving unit in the distance image generating unit 1. Desirably, the visual field of the imaging means 2 is made to coincide with the visual field of the light receiving means. Specifically, as shown in FIG. 1, a half mirror M1 formed of a dichroic mirror is disposed between the image sensor 12 and the light receiving optical system 14, and in front of the light receiving surface of the image sensor 21 constituting the image pickup means 2. A configuration in which the mirror M2 is disposed is employed. The half mirror M1 is disposed so as to be inclined at an angle of 45 degrees with respect to the light receiving surface of the image sensor 12, and the mirror M2 is parallel to the half mirror M1 and inclined at an angle of 45 degrees with respect to the light receiving surface of the image sensor 21. Are arranged as follows.

この構成により、ハーフミラーM1は撮像素子12に入射する赤外線と撮像素子21に入射させる可視光線とを分離して赤外線を透過させるとともに可視光線をミラーM2に向かう向きに反射し、ミラーM2はハーフミラーM1からの可視光線が撮像素子21に入射されるように反射する。したがって、各撮像素子12,21と受光光学系14との距離を適宜に調節することにより、距離画像生成手段1と撮像手段2との視野を一致させることが可能になる。   With this configuration, the half mirror M1 separates the infrared light incident on the image sensor 12 and the visible light incident on the image sensor 21, transmits the infrared light and reflects the visible light toward the mirror M2, and the mirror M2 is half The visible light from the mirror M1 is reflected so as to enter the image sensor 21. Therefore, the field of view of the distance image generating means 1 and the imaging means 2 can be matched by appropriately adjusting the distances between the imaging elements 12 and 21 and the light receiving optical system 14.

なお、上述した構成は一例であって、距離画像生成手段1と撮像手段2との視野の全部が重複する構成のほか、一部が重複する構成を採用してもよい。たとえば、距離画像生成手段1を構成する撮像素子12に対応する受光光学系14とは別に、撮像素子21に対応する受光光学系を設けてもよい。あるいはまた、距離画像生成手段1の撮像素子12を撮像手段10の撮像素子21と兼用する構成を採用することも可能である。この場合、距離画像を生成する動作とカラー画像を撮像する動作とを切り替えることになる。   Note that the above-described configuration is an example, and a configuration in which a part of the visual field of the distance image generation unit 1 and the imaging unit 2 overlap may be adopted in addition to a configuration in which the entire visual field overlaps. For example, a light receiving optical system corresponding to the image sensor 21 may be provided separately from the light receiving optical system 14 corresponding to the image sensor 12 constituting the distance image generating means 1. Alternatively, a configuration in which the image sensor 12 of the distance image generating unit 1 is also used as the image sensor 21 of the image capturing unit 10 can be employed. In this case, the operation for generating the distance image and the operation for capturing the color image are switched.

このように、距離画像生成手段1と撮像手段2との視野の全部または一部を重複させ、視野の位置を合わせるだけの簡単な調整で、カラー画像における物体について距離の情報を対応付けることが可能になる。   In this way, it is possible to associate distance information with respect to an object in a color image with a simple adjustment by overlapping all or part of the field of view of the distance image generating unit 1 and the imaging unit 2 and matching the position of the field of view. become.

距離画像とカラー画像とを用いて仮想空間を形成するために、実空間における物体の位置を特定する必要がある。実空間に存在する物体と距離画像生成手段1との相対位置は距離画像によって知ることができるから、距離画像生成手段1に装置座標を規定しておけば、装置座標における物体の位置を距離画像から求めることができる。   In order to form a virtual space using the distance image and the color image, it is necessary to specify the position of the object in the real space. Since the relative position between the object existing in the real space and the distance image generating means 1 can be known from the distance image, if the apparatus coordinates are defined in the distance image generating means 1, the position of the object in the apparatus coordinates can be determined as the distance image. Can be obtained from

ここに、距離画像は、受光光学系14の中心を通して物体を見込むときの方向が各画素の位置に対応し、画素値が物体までの距離値であるから、物体の位置を極座標(球座標)で表していることになる。一方、実空間における物体の位置は、緯度と経度と高さとを用いた直交座標系で表すほうが扱いやすい。したがって、距離画像生成手段1から出力される距離画像から得られる極座標の座標値を、装置座標として規定した直交座標系の座標値に変換するために座標変換手段3を設けている。   Here, in the distance image, since the direction when the object is viewed through the center of the light receiving optical system 14 corresponds to the position of each pixel, and the pixel value is the distance value to the object, the position of the object is expressed in polar coordinates (spherical coordinates). It will be represented by. On the other hand, the position of an object in real space is easier to handle if it is represented by an orthogonal coordinate system using latitude, longitude, and height. Accordingly, the coordinate conversion means 3 is provided to convert the polar coordinate values obtained from the distance image output from the distance image generation means 1 into the coordinate values of the orthogonal coordinate system defined as the device coordinates.

座標変換手段3は、距離画像における物体の座標を極座標から装置座標に変換する第1変換部3aと、距離画像生成手段1に規定された装置座標を実空間に規定されている3次元の実空間座標に変換する第2変換部3bとを備える。第2変換部3bにおける装置座標から実空間座標への座標変換には、装置座標だけではなく、実空間座標に対する装置座標の相対関係の情報が必要である。そのため、距離画像生成手段1の撮像位置および撮像方向を計測する撮像位置計測手段4が設けられる。   The coordinate conversion unit 3 includes a first conversion unit 3a that converts the coordinates of the object in the distance image from polar coordinates to device coordinates, and the three-dimensional real data that defines the device coordinates defined in the distance image generation unit 1 in real space. And a second conversion unit 3b for converting into spatial coordinates. For the coordinate conversion from the device coordinates to the real space coordinates in the second conversion unit 3b, not only the device coordinates but also information on the relative relationship of the device coordinates to the real space coordinates is required. Therefore, an imaging position measuring unit 4 that measures the imaging position and imaging direction of the distance image generating unit 1 is provided.

撮像位置計測手段4は、実空間座標における撮像位置を計測する高精度GPS(global Positioning System)、距離画像生成手段1および撮像手段2の傾きを計測するジャイロセンサ、距離画像生成手段1および撮像手段2の向きを検出する地磁気センサを組み合わせてある。ここに、高精度GPSは、人工衛星からの情報に地上局の情報を組み合わせることにより、最大誤差を数十cm程度とする技術を意味している。したがって、撮像位置計測手段4では、実空間座標における撮像位置の3次元座標と、距離画像生成手段1および撮像手段2による撮像方向(3次元の各座標軸周りでの回転角度)とを計測することができる。上述のようにして撮像位置計測手段4により求めた実空間座標での撮像位置および撮像方向を、座標変換手段3の第2変換部3bにおいて、装置座標における物体の座標位置と組み合わせることによって、実空間座標での物体の座標位置が算出される。   The imaging position measuring means 4 is a high-precision GPS (global positioning system) that measures the imaging position in real space coordinates, a gyro sensor that measures the inclination of the distance image generating means 1 and the imaging means 2, the distance image generating means 1 and the imaging means. A geomagnetic sensor that detects the direction of 2 is combined. Here, high-accuracy GPS means a technique for setting the maximum error to about several tens of centimeters by combining information from an artificial satellite with ground station information. Therefore, the imaging position measuring unit 4 measures the three-dimensional coordinates of the imaging position in the real space coordinates and the imaging direction (the rotation angle around each three-dimensional coordinate axis) by the distance image generating unit 1 and the imaging unit 2. Can do. By combining the imaging position and the imaging direction in the real space coordinates obtained by the imaging position measuring unit 4 as described above with the coordinate position of the object in the device coordinates in the second conversion unit 3b of the coordinate conversion unit 3, The coordinate position of the object in space coordinates is calculated.

算出された実空間座標での物体の座標位置により、物体について3次元の位置情報が求められるから、仮想空間形成手段5において、物体をコンピュータグラフィックスのオブジェクトとして扱うことができるように物体のモデリングを行う。モデリングには、サーフェースモデルやワイヤーフレームモデルなど周知のモデルを用いることができるが、情報量が少なくなるようにベクトル画像を形成するモデリングを行うことが望ましい。   Since the three-dimensional position information of the object is obtained from the calculated coordinate position of the object in the real space coordinates, the object modeling is performed so that the virtual space forming unit 5 can handle the object as a computer graphics object. I do. For the modeling, a well-known model such as a surface model or a wire frame model can be used. However, it is desirable to perform modeling for forming a vector image so as to reduce the amount of information.

ここに、物体が、建物のようにひとまとまりのオブジェクトとして扱えるか否かを知識(規則)を用いて判別し、ひとまとまりのオブジェクトとして扱うことができる物体については、当該物体を個別のオブジェクトに分離する。   Here, it is determined using knowledge (rules) whether or not an object can be handled as a group of objects like a building, and for an object that can be handled as a group of objects, the object is defined as an individual object. To separate.

たとえば、「隣接する建物の間に隙間があれば、両建物は別のオブジェクトである」という知識があるとすれば、この知識を用いることにより、両建物を別のオブジェクトとして分離することができる。建物を個別のオブジェクトに分離する知識としては、隣接する建物の間隔や建物の形・色などの情報も併せて用いることが可能である。   For example, if there is knowledge that “if there is a gap between adjacent buildings, both buildings are different objects”, this knowledge can be used to separate both buildings as separate objects. . As knowledge for separating a building into individual objects, it is also possible to use information such as the interval between adjacent buildings and the shape and color of the building.

物体が建物である場合のように、比較的単純な形状であるときには、当該物体については幾何学形状に単純化したベクトル画像とする。市街地に存在する建物の多くは直方体状であり、また窓枠も矩形状であることが多いから、このような単純化は合理的である。   When the object has a relatively simple shape as in the case of a building, the object is a vector image simplified to a geometric shape. Such a simplification is reasonable because many buildings in the city are rectangular parallelepiped, and the window frame is often rectangular.

上述したように物体の座標位置が決定されるとともに、物体のモデリングが行われることにより、物体のモデルをコンピュータグラフィックスにより構築した仮想空間に配置することが可能になる。   As described above, the coordinate position of the object is determined and the modeling of the object is performed, whereby the object model can be arranged in a virtual space constructed by computer graphics.

ところで、本実施形態では、実空間の建物ような物体を仮想空間に対応付けて配置するから、1枚の距離画像には物体の全体を含めることができない場合が多い。また、仮想空間は、できるだけ広い範囲の実空間に対応付けることが要求される。そこで、仮想空間形成手段5が物体を仮想空間に配置するにあたっては、複数毎の距離画像を連結することにより一連に連続した仮想空間を形成する。   By the way, in this embodiment, since an object such as a building in real space is arranged in association with the virtual space, the entire object cannot often be included in one distance image. In addition, the virtual space is required to be associated with a real space as wide as possible. Therefore, when the virtual space forming means 5 places an object in the virtual space, a series of continuous virtual spaces are formed by connecting a plurality of distance images.

具体的には、図3に示すように、撮像位置と撮像方向との少なくとも一方が異なる複数枚(図示例は2枚)の距離画像(およびカラー画像)P1,P2を用いる。図示例は距離画像P1を取得した後に、撮像位置をずらして距離画像P2を取得した場合を想定している。撮像位置の変化は視野に比較して小さく、両距離画像P1,P2の視野内の大部分において物体Obの同領域を含むものとする。また、以下の説明において、図の左右方向をx方向、上下方向をy方向とする。   Specifically, as shown in FIG. 3, a plurality of (two in the illustrated example) distance images (and color images) P1 and P2 in which at least one of the imaging position and the imaging direction is different are used. In the illustrated example, it is assumed that the distance image P2 is acquired by shifting the imaging position after acquiring the distance image P1. The change in the imaging position is small compared to the field of view, and includes the same region of the object Ob in most of the field of view of both distance images P1 and P2. In the following description, the left-right direction in the figure is the x direction and the up-down direction is the y direction.

なお、視野の移動は、平行移動(撮像位置)だけではなく角度変化(撮像方向)も考慮する必要がある。とくに、距離画像生成手段1および撮像手段2は手持ちであるから、現実的には撮像方向を含める必要があるが、ここでは、単純化して平行移動のみについて考慮するものとする。   In addition, it is necessary to consider the angle change (imaging direction) as well as the parallel movement (imaging position) for the movement of the visual field. In particular, since the distance image generating means 1 and the imaging means 2 are handheld, it is actually necessary to include the imaging direction, but here, only the parallel movement is considered in a simplified manner.

上述のように2枚の距離画像P1,P2が得れると、まず両距離画像P1,P2を重ね合わせて相関係数を算出する。すなわち、この例では類似度として相関係数を用いる。その後、距離画像P1に対して距離画像P2を1画素分だけx方向あるいはy方向にずらして相関係数を求めるという処理を繰り返して、両距離画像P1,P2に重複部分が形成されなくなる状態まで相関係数を求め、相関係数の最大値を求める。相関係数が最大である重なり状態が両距離画像P1,P2の位置関係を表しているものとし、新たな距離画像P2を当該位置に配置する。   As described above, when the two distance images P1 and P2 are obtained, first, the distance coefficients P1 and P2 are overlapped to calculate a correlation coefficient. That is, in this example, a correlation coefficient is used as the similarity. Thereafter, the process of obtaining the correlation coefficient by shifting the distance image P2 by one pixel in the x direction or the y direction with respect to the distance image P1 is repeated until the overlapping portion is not formed in both the distance images P1 and P2. The correlation coefficient is obtained, and the maximum value of the correlation coefficient is obtained. It is assumed that the overlapping state in which the correlation coefficient is the maximum represents the positional relationship between the two distance images P1 and P2, and a new distance image P2 is arranged at the position.

ここに、両距離画像P1,P2の相関係数を計算する際には、重複部分の画素数に応じて相関係数が変化するから、重複部分の画素数で除算することにより正規化する。また、上述の例では距離画像P1に対して距離画像P2を1画素ずつずらしているが、規定の複数画素ずつずらして相関係数が大きくなる範囲を定めた後、当該範囲内で相関係数が最大になる位置を求めるようにしてもよい。あるいまた、距離画像P1に対して距離画像P2をx方向あるいはy方向に変位させた後に、他方向に変位させるという手順を採用する代わりに、距離画像P1に対して距離画像P2を螺旋状に移動させてもよい。これらの方法を採用することにより、相関係数の最大値を求める時間を短縮することが可能になる。   Here, when calculating the correlation coefficient of both distance images P1 and P2, the correlation coefficient changes in accordance with the number of pixels in the overlapping portion, so normalization is performed by dividing by the number of pixels in the overlapping portion. In the above example, the distance image P2 is shifted by one pixel with respect to the distance image P1, but after defining a range in which the correlation coefficient is increased by shifting a predetermined plurality of pixels, the correlation coefficient is within that range. You may make it obtain | require the position where becomes the maximum. Alternatively, instead of adopting the procedure of displacing the distance image P2 in the x direction or y direction with respect to the distance image P1 and then displacing it in the other direction, the distance image P2 is spirally formed with respect to the distance image P1. It may be moved to. By adopting these methods, it is possible to shorten the time for obtaining the maximum value of the correlation coefficient.

さらには、後述するように、撮像位置計測手段4により撮像位置および撮像方向が計測されるから、この情報を用いて相関係数の算出を行う範囲を絞り込むようにすれば、相関係数の最大値を求めるのに要する処理負荷が軽減され、処理時間も短縮される。   Furthermore, as will be described later, since the imaging position and the imaging direction are measured by the imaging position measuring means 4, if the range for calculating the correlation coefficient is narrowed down using this information, the maximum correlation coefficient is obtained. The processing load required to obtain the value is reduced, and the processing time is also shortened.

上述のようにして2枚の距離画像P1,P2を重ね合わせる位置が決定されると、新しい距離画像P2のうちで距離画像P1に重複していない領域(図4に斜線部で示す)を仮想空間に新たに配置する領域とする。このような処理の繰り返しにより、仮想空間を拡張することができる。   When the position where the two distance images P1 and P2 are to be overlapped is determined as described above, a region that is not overlapped with the distance image P1 in the new distance image P2 (indicated by the hatched portion in FIG. 4) is virtually displayed. It is set as a region newly arranged in the space. By repeating such processing, the virtual space can be expanded.

上述の動作例では、距離画像P1,P2のみの相関係数を求めているが、カラー画像についても相関係数を求め、両方の相関係数から画像を重ねる位置を決定してもよい。ただし、距離画像P1,P2は外光の影響を受けず、カラー画像に比較して安定した情報が得られるから、距離画像P1,P2のみを用いても十分な精度が得られる。   In the above operation example, the correlation coefficient of only the distance images P1 and P2 is obtained. However, the correlation coefficient may be obtained for the color image, and the position where the images are overlapped may be determined from both correlation coefficients. However, since the distance images P1 and P2 are not affected by external light and stable information is obtained as compared with the color image, sufficient accuracy can be obtained even if only the distance images P1 and P2 are used.

上述のように画像を連結することにより仮想空間を拡張していくと、仮想空間の一部に抜けが生じる可能性があるが、周辺の空間領域を複数回撮像することにより、抜けている領域を埋めることが可能である。この場合、座標位置によって画像を連結するから、撮像した空間領域に重複部分があっても問題は生じない。また、新たな距離画像により拡張された領域を、モニタ装置7(後述する)の画面上に表示すれば、抜けている領域が使用者にわkり、抜けている領域を埋めるように追加して撮像することが可能になる。   If the virtual space is expanded by connecting the images as described above, there is a possibility that a part of the virtual space may be lost. Can be filled. In this case, since the images are connected according to the coordinate position, there is no problem even if there are overlapping portions in the captured spatial region. Further, if the area expanded by the new distance image is displayed on the screen of the monitor device 7 (described later), the missing area is added to the user so that the missing area is filled. Can be captured.

画像を連結するには、以下の処理を行ってもよい。ここでは、図5に示すように、撮像位置と撮像方向との少なくとも一方が異なる複数枚(図示例は2枚)の距離画像P1,P2であって、同一の物体Ob1,Ob2が視野内に含まれる複数の距離画像P1,P2を用いるものとする。   In order to connect images, the following processing may be performed. Here, as shown in FIG. 5, there are a plurality of (two in the illustrated example) distance images P1 and P2 in which at least one of the imaging position and the imaging direction is different, and the same objects Ob1 and Ob2 are in the field of view. A plurality of distance images P1 and P2 included are used.

これらの距離画像P1,P2に含まれる物体Ob1,Ob2が同一か否かを判定する必要があるから、距離画像P1,P2に基づいて物体Ob1,Ob2をモデル化するとともに、実空間座標における物体Ob1,Ob2の座標位置を求めた後、物体Ob1,Ob2の座標位置について類似度を評価し、同一の物体Ob1,Ob2を判断できる類似度が得られたときに、異なる距離画像P1,P2の物体Ob1,Ob2を重ね合わせる。   Since it is necessary to determine whether or not the objects Ob1 and Ob2 included in these distance images P1 and P2 are the same, the objects Ob1 and Ob2 are modeled on the basis of the distance images P1 and P2, and the objects in real space coordinates After obtaining the coordinate positions of Ob1 and Ob2, the similarity is evaluated with respect to the coordinate positions of the objects Ob1 and Ob2, and when similarities that can determine the same objects Ob1 and Ob2 are obtained, different distance images P1 and P2 are obtained. The objects Ob1 and Ob2 are overlapped.

たとえば、ベクトル画像を用いて物体Ob1,Ob2の形状を表しているときには、線分であれば各端点の座標位置の距離、端点間の距離(線分の長さ)などを評価すれば類似度を評価することができ、面であれば辺や頂点の個数、頂点の座標位置、面積などを評価すれば類似度を評価することができる。   For example, when the shapes of the objects Ob1 and Ob2 are represented using vector images, if the segment is a line segment, the degree of similarity can be evaluated by evaluating the distance between the coordinate positions of the end points, the distance between the end points (the length of the line segment), and the like. If it is a surface, the degree of similarity can be evaluated by evaluating the number of sides and vertices, the coordinate position of the vertices, the area, and the like.

上述の処理を繰り返すことによって、距離画像を次々に連結することができることになり、連続した仮想空間を形成することが可能になる。また、距離画像では、物体との距離が近いほど分解能が高くなるから、物体との距離が近い距離画像を連結すれば高精細な仮想空間を構築することができる。   By repeating the above process, the distance images can be connected one after another, and a continuous virtual space can be formed. In the distance image, the closer the distance to the object, the higher the resolution. Therefore, a high-definition virtual space can be constructed by connecting the distance images that are close to the object.

たとえば、物体までの距離を2〜3m程度とするのが望ましく、この程度の距離では被写界深度が比較的大きくなり、しかも視野内に含まれる情報量が比較的少ないから高精度の距離画像が得られる。つまり、手持ちで撮像しながら移動することを想定している。移動の手段としては、歩行、自転車、自動車など適宜に選択してよい。なお、上述の距離は目安であって、物体までの距離は適宜に選択することができる。また、物体までの距離が小さいと物体の細部について距離の計測が可能であり、物体までの距離が大きいと物体の概観について距離の計測が可能である。したがって、細部の距離画像を生成することが不都合であれば、概観の距離画像が生成される程度の距離とすればよい。   For example, it is desirable that the distance to the object is about 2 to 3 m. At such a distance, the depth of field is relatively large, and the amount of information contained in the field of view is relatively small, so that a highly accurate distance image is obtained. Is obtained. In other words, it is assumed that the user moves while taking an image. As means for movement, walking, bicycle, automobile, etc. may be selected as appropriate. Note that the above-described distance is a guide, and the distance to the object can be selected as appropriate. Further, when the distance to the object is small, the distance can be measured for the details of the object, and when the distance to the object is large, the distance can be measured for the overview of the object. Therefore, if it is inconvenient to generate a detailed distance image, the distance may be set so that an overview distance image is generated.

また、距離画像生成手段1による距離の計測範囲には制限があるから、距離画像について高さ方向の情報は制限し、たとえば、4mを高さ方向の制限距離とし、高さが制限距離を超える物体について制限距離を超える部分は距離値を用いないようにしてもよい。ただし、カラー画像については、制限距離にかかわりなく用いることができる。また、制限距離を超える遠方については、同じ画像を複数回撮像し、得られたカラー画像を積分することによりSNを向上させてもよい。   In addition, since the distance measurement range by the distance image generation unit 1 is limited, information on the height direction of the distance image is limited. For example, 4 m is set as the limit distance in the height direction, and the height exceeds the limit distance. The distance value may not be used for a part exceeding the limit distance for the object. However, color images can be used regardless of the limit distance. Further, for a distant place exceeding the limit distance, the SN may be improved by capturing the same image a plurality of times and integrating the obtained color image.

上述の動作は、異なる距離画像内に含まれる同一の物体に基づいて距離画像を連結する処理であるが、特定の距離画像においては他の物体の死角になっていて距離値が得られない物体であっても、撮像位置と撮像方向との少なくとも一方が異なる他の距離画像においては死角にならない物体があれば、特定の距離画像において死角になっていた物体についてもモデリングを行う。   The above-described operation is a process of connecting distance images based on the same object included in different distance images, but in a specific distance image, an object that is a blind spot of another object and a distance value cannot be obtained. However, if there is an object that does not become a blind spot in another distance image in which at least one of the imaging position and the imaging direction is different, modeling is also performed for the object that is a blind spot in the specific distance image.

要するに、距離画像に含まれるすべての物体について実空間座標での座標位置が求められるから、いずれかの距離画像において死角になっていた物体であっても、当該物体が他の距離画像に含まれている場合には当該物体の座標位置を用いて当該物体のモデリングを行うのである。さらに、死角になっている物体は、1枚の距離画像からは完全な情報を得ることができないことが多いから、複数枚の距離画像を用いて補完するのが望ましい。この場合、当該物体の周囲に存在する物体の類似度を評価することにより、複数枚の距離画像から当該物体がひとまとまりのオブジェクトになるか否かを評価し、ひとまとまりのオブジェクトであると判断できるときには、当該物体を仮想空間に配置する。   In short, since coordinate positions in real space coordinates are obtained for all objects included in the distance image, even if the object is a blind spot in one of the distance images, the object is included in the other distance images. If it is, modeling of the object is performed using the coordinate position of the object. Furthermore, since it is often impossible to obtain complete information from a single distance image, it is desirable to complement an object that is in a blind spot using a plurality of distance images. In this case, by evaluating the similarity of the objects existing around the object, it is evaluated whether or not the object becomes a group of objects from a plurality of distance images, and is determined to be a group of objects. When possible, the object is placed in the virtual space.

上述の処理により形成された仮想空間は、コンピュータに設けたモニタ装置7の画面に表示することができる。また、仮想空間は3次元情報を有しているから、コンピュータに設けたキーボードやマウスを操作装置8として用いることにより、仮想空間における物体に対する指定や削除などの編集操作が可能になる。   The virtual space formed by the above processing can be displayed on the screen of the monitor device 7 provided in the computer. In addition, since the virtual space has three-dimensional information, an editing operation such as designation or deletion of an object in the virtual space can be performed by using a keyboard or mouse provided in the computer as the operation device 8.

3次元情報を有する仮想空間に対するこの種の編集操作の機能は、3次元グラフィックスを扱うグラフィックスソフトウェアでは周知であるが、本実施形態では建物の形状の編集操作は行う必要がないから、最小限では仮想空間での点、線、面や角部の指定、物体の削除などの編集操作が可能であればよい。   The function of this kind of editing operation on a virtual space having 3D information is well known in graphics software that handles 3D graphics. However, in this embodiment, it is not necessary to perform an editing operation on the shape of a building. In the limit, it is only necessary to be able to perform editing operations such as designation of points, lines, surfaces and corners in the virtual space, and deletion of objects.

物体のモデリングに際してベクトル画像を用いている場合には、モニタ装置8に表示された画像を見て利用者(オペレータ)が操作装置7を用いることにより、点、線、面や角部を指定することにより、これらの点、線、面、角部を物体の基準となる形状であることを示すことが可能である。たとえば、物体の垂直面や水平面あるいは直角をなす2面(角部)などを操作装置7により指定し、指定した部位の特性(垂直面、水平面、角部)を操作装置7により指示すると、物体の形状を特定しやすくなり、結果的にモデリングの精度が高くなる。この技術は、物体のモデリングをベクトル画像で行っている場合にとくに有効である。   When a vector image is used for modeling an object, a user (operator) designates a point, a line, a surface, or a corner by using the operation device 7 while viewing the image displayed on the monitor device 8. Thus, it is possible to indicate that these points, lines, surfaces, and corners are shapes serving as a reference of the object. For example, when a vertical plane, a horizontal plane, or two planes (corner portions) that form a right angle are designated by the operation device 7 and the characteristics of the designated part (vertical plane, horizontal plane, corner portion) are designated by the operation device 7, This makes it easier to specify the shape of the model, resulting in higher modeling accuracy. This technique is particularly effective when modeling an object with a vector image.

いま、物体の幾何学形状を直方体に単純化するものとすれば、垂直面となる一面を指定することにより、画像の歪みによる面の傾きを防止することができる。また、指定した面を基準に用いることにより、他面との相対関係を用いて他面の情報の一部が得られ、他面を規定する情報量が増加するから、他面についてもモデル化が容易になる。とくに、距離画像に含まれない背面についても幾何学形状で推定することにより、物体の全体の3次元情報を仮設定することが可能になる。つまり、他面との相対位置のような知識(規則)を用いて物体に関する3次元情報を推定することができる。この場合、距離画像では死角になる物体の背面については仮に推定した情報であるが、必要があれば別情報によって補完すればよい。   Now, if the geometric shape of an object is simplified to a rectangular parallelepiped, it is possible to prevent the inclination of the surface due to image distortion by designating one surface to be a vertical surface. Also, by using the specified surface as a reference, a part of the information on the other surface is obtained using the relative relationship with the other surface, and the amount of information defining the other surface increases, so the other surface is also modeled Becomes easier. In particular, it is possible to temporarily set the three-dimensional information of the entire object by estimating the back surface not included in the distance image with the geometric shape. That is, it is possible to estimate three-dimensional information related to an object using knowledge (rules) such as a relative position with respect to another surface. In this case, the information about the back surface of the object that becomes a blind spot in the distance image is temporarily estimated information, but may be supplemented with other information if necessary.

仮想空間に配置する物体は、原則として定位置に存在する建物のような物体を想定しており、人や自動車のような移動物体は仮想空間に配置しないことが望ましい。そのため、仮想空間形成手段5では、距離値を取得した時刻が異なる距離画像であって、時間差が比較的短い(最大10分程度)複数の距離画像から生成した物体のモデルについて類似度を評価し、類似度が高く実質的に同一物体とみなせる物体が存在するとき、実空間座標での両物体の位置の差分を求める。この差分が規定範囲を超えている場合には当該物体は人や自動車のような移動物体であると判断して仮想空間から自動的に排除する。   In principle, an object to be arranged in the virtual space is assumed to be an object such as a building existing at a fixed position, and it is desirable that a moving object such as a person or a car is not arranged in the virtual space. Therefore, the virtual space forming unit 5 evaluates the similarity of the object models generated from the plurality of distance images that are distance images having different time values at which the distance values are acquired and whose time difference is relatively short (up to about 10 minutes). When there is an object having a high degree of similarity and which can be regarded as substantially the same object, the difference between the positions of both objects in real space coordinates is obtained. If this difference exceeds the prescribed range, it is determined that the object is a moving object such as a person or a car and is automatically excluded from the virtual space.

たとえば、図6に示すように、距離値を取得した時刻が異なる2枚の距離画像P1,P2が得られているものとし、両距離画像P1,P2に共通に含まれる物体Ob1,Ob3,Obaのうち、物体Ob1、Ob3については実空間座標の座標位置が実質的に変化しておらず、物体Obaについては実空間座標の座標位置が矢印の向きに変化しているから、物体Obaの位置の差分を求め、物体Obaを仮想空間から自動的に排除する。図示例では、物体Ob2は、距離画像に含まれていないからモデル化されない。   For example, as shown in FIG. 6, it is assumed that two distance images P1 and P2 having different time values are obtained, and objects Ob1, Ob3 and Oba that are included in both distance images P1 and P2 in common. Among them, the coordinate positions of the real space coordinates of the objects Ob1 and Ob3 are not substantially changed, and the coordinate position of the real space coordinates of the object Oba is changed in the direction of the arrow, so that the position of the object Oba And the object Oba is automatically excluded from the virtual space. In the illustrated example, the object Ob2 is not modeled because it is not included in the distance image.

ここで、移動物体であっても移動量少ない場合は仮想空間から取り除くことができないが、移動物体の多くは自動的に除去されるから、残りを編集操作によって人手で削除したとしても、すべての移動物体を手作業で除去する場合に比較すると、作業量は大幅に低減されることになる。しかも、物体のモデリングによって、物体を個別のオブジェクトとして扱うことを可能にしているから、各物体を単位として指定することにより、個々の物体を個別に削除することが可能になり、仮想空間から個別の物体を除去する作業が容易である。   Here, even if it is a moving object, if the amount of movement is small, it cannot be removed from the virtual space, but since many of the moving objects are automatically removed, even if the rest are deleted manually by editing operation, Compared to the case where the moving object is manually removed, the amount of work is greatly reduced. Moreover, since it is possible to handle the object as an individual object by modeling the object, it is possible to delete each object individually by specifying each object as a unit, and individually from the virtual space. It is easy to remove the object.

上述のようにして実空間に存在する物体の3次元座標を計測することにより物体のモデリングを行い、コンピュータグラフィックスによる仮想空間を形成すると、仮想空間には物体の3次元の座標位置を記述することができる。ここで、本実施形態では距離画像と視野が重複しているカラー画像を撮像手段2により撮像しているから、距離画像とカラー画像との画素位置の対応関係を用いることによって、仮想空間における各物体(オブジェクト)の表面に相当する領域のカラー画像を切り出すことが可能である。   When the object is modeled by measuring the three-dimensional coordinates of the object existing in the real space as described above and a virtual space is formed by computer graphics, the three-dimensional coordinate position of the object is described in the virtual space. be able to. Here, in the present embodiment, since the color image whose field of view overlaps with the distance image is captured by the imaging unit 2, each correspondence in the virtual space can be obtained by using the correspondence relationship between the pixel positions of the distance image and the color image. It is possible to cut out a color image of a region corresponding to the surface of an object (object).

撮像素子21で得られたカラー画像は外観形成手段6に入力され、外観形成手段6では仮想空間形成手段5から物体の座標位置に対応したカラー画像の座標位置を指定しカラー画像の一部を切り出し、切り出したカラー画像を仮想空間に配置した物体のテクスチャとしてマッピングを行う。すなわち、仮想空間において3次元の座標位置で規定された物体の表面にカラー画像で得られた画像のマッピングがなされる。仮想空間における物体は、実空間における3次元の位置情報を持つようにモデル化され、しかもマッピングにより実空間における外観を有することになる。   The color image obtained by the imaging device 21 is input to the appearance forming unit 6, and the appearance forming unit 6 designates the coordinate position of the color image corresponding to the coordinate position of the object from the virtual space forming unit 5 and selects a part of the color image. The image is cut out and the cut out color image is mapped as the texture of the object arranged in the virtual space. That is, an image obtained as a color image is mapped on the surface of an object defined by a three-dimensional coordinate position in the virtual space. An object in the virtual space is modeled so as to have three-dimensional position information in the real space, and has an appearance in the real space by mapping.

また、上述したように、高さ方向の制限距離を設定するから、制限距離よりも高い場所は、距離情報を持たないカラー画像のみを用いる。つまり、制限距離よりも高い場所は、平坦な形状の上にカラー画像をマッピングすることになる。   Further, as described above, since the limit distance in the height direction is set, only a color image having no distance information is used for a place higher than the limit distance. That is, a place higher than the limit distance maps a color image on a flat shape.

このようにして生成された3次元の位置座標およびテクスチャに関する情報は、データベース9に格納され、必要に応じて、操作装置7の操作でデータベース9から読み出すことにより、モニタ装置8の画面に表示することが可能になる。   The information on the three-dimensional position coordinates and texture generated in this way is stored in the database 9 and is displayed on the screen of the monitor device 8 by being read from the database 9 by the operation of the operation device 7 as necessary. It becomes possible.

仮想空間に配置された物体は3次元の位置情報を持っているから、モニタ装置8の画面表面にレンチキュラシートを配置した3次元表示装置を構成するとともに、モニタ装置8に表示する画像を3次元画像(レンチキュラシートを通して見たときに視差分だけ異なる2画像を左右の眼で見ることができる画像)となるように、仮想空間を構築する3次元データのデータ変換を行えば、使用者(オペレータ)は、立体画像を視認することが可能になる。したがって、あたかも実空間を見ているかのような画像を表示することが可能になる。   Since an object arranged in the virtual space has three-dimensional position information, a three-dimensional display device in which a lenticular sheet is arranged on the screen surface of the monitor device 8 is configured, and an image displayed on the monitor device 8 is three-dimensionally displayed. If data conversion of three-dimensional data for constructing a virtual space is performed so that an image (an image in which two images that differ by the amount of parallax when viewed through a lenticular sheet can be seen with the left and right eyes) is formed, a user (operator ) Makes it possible to visually recognize a stereoscopic image. Therefore, it is possible to display an image as if viewing a real space.

また、静止画像を組み合わせただけの離散的な画像ではなく、連続的につながった継ぎ目のない仮想空間を形成しているから、視点の位置および視野の範囲の時間変化を指定するウォークスルーの機能を設けることができ、臨場感のある表示が可能になる。このようなウォークスルーの機能を用いて出発地から目的地までの画像を表示すれば、あたかも自身が歩いているかのような実感を伴って道順を確認することができるから、地図よりも分かりやすい道案内が可能になる。つまり、現地に行かなくとも、その場に居るかのような環境の中でウォークスルーが可能になるから、土地勘が生まれ道に迷うことなく目的地にたどり着くことが可能になる。   In addition, since it is not a discrete image that is a combination of still images, it forms a seamless virtual space that is continuously connected, so the walk-through function can be used to specify temporal changes in the viewpoint position and field of view range. This makes it possible to provide a realistic display. If you use this walk-through function to display an image from your starting point to your destination, you can check the directions as if you were walking, making it easier to understand than a map. Directions are possible. In other words, even if you do not go to the site, you can walk through in the environment as if you were on the spot, so you can reach the destination without getting lost in the way you are.

ところで、適宜の時間間隔(たとえば、1ヶ月、1年などの単位)で同じ場所の情報を取得するようにすれば、仮想空間の情報を最新の情報に更新することができる。ここに、時間間隔は一定として定期的に情報を取得するのが望ましい。上述したように、仮想空間は、撮像位置や撮像方向にかかわりなく同一の物体が視野内に存在すれば、継ぎ目なく連続させることができるから、毎回の撮像において、撮像位置や撮像方向は完全に一致している必要はない。   By the way, if information on the same place is acquired at appropriate time intervals (for example, units such as one month, one year, etc.), the information in the virtual space can be updated to the latest information. Here, it is desirable to acquire information periodically with a fixed time interval. As described above, since the virtual space can be seamlessly connected if the same object exists in the field of view regardless of the imaging position and imaging direction, the imaging position and imaging direction are completely in every imaging. There is no need to match.

仮想空間形成手段5では、日時の異なる複数の距離画像については、実空間座標の同位置に含まれる物体の類似度を評価する。ここで、類似度が高い場合には、同一の物体が存在すると推定して仮想空間の情報を変更せず、類似度が低い場合には、当該座標位置に前回とは異なる物体が存在すると判断する。類似度は、上述したように物体の形状や寸法を比較した数値により与えられる。日時の異なる距離画像を用いることによって、実空間座標の同位置に異なる物体が存在すると判断される場合は、最新の距離画像からモデリングを行った物体を仮想空間に配置する。また、日時の異なる距離画像により同一の物体が存在するときには、両物体の位置の平均を用いることにより、位置精度を高めることができる。   The virtual space forming unit 5 evaluates the similarity of objects included at the same position in real space coordinates for a plurality of distance images with different dates and times. Here, when the similarity is high, it is estimated that the same object exists, and the virtual space information is not changed. When the similarity is low, it is determined that an object different from the previous one exists at the coordinate position. To do. The similarity is given by a numerical value obtained by comparing the shape and dimensions of the object as described above. When it is determined that different objects exist at the same position in real space coordinates by using distance images with different dates and times, an object modeled from the latest distance image is placed in the virtual space. In addition, when the same object exists from distance images with different dates and times, the position accuracy can be improved by using the average of the positions of both objects.

ところで、仮想空間においては物体をモデリングし、ひとまとまりのオブジェクトとして扱っているから、仮想空間において物体を単位として情報を入れ替えることが容易であり、建物が改築された場合などは、仮想空間内の物体を最新の情報に自動的に置き換えることができる。このように、仮想空間の情報を建物単位で最新の情報に更新することによって、モニタ装置8には最新の画像が表示されることになり、インターネットや記録媒体を用いて店舗の画像を提供すれば、宣伝効果も期待できる。   By the way, since objects are modeled in the virtual space and handled as a group of objects, it is easy to replace information in units of the object in the virtual space. The object can be automatically replaced with the latest information. Thus, by updating the virtual space information to the latest information for each building, the latest image is displayed on the monitor device 8, and the store image can be provided using the Internet or a recording medium. In this case, the advertising effect can be expected.

上述したように、仮想空間に配置する物体はベクトル画像であるから、拡大や縮小を自由に行うことが可能であり、仮想空間の適宜の座標位置において物体を拡大すれば、注目する場所の詳細な画像をモニタ装置8に表示することができる。また、インターネットや記録媒体を用いて画像を公開する場合には、詳細に表示されることが不都合な場所もあるから、仮想空間形成手段5では、仮想空間を構成する画素間の最小距離を仮想空間内での物体の座標位置に関連付けておくことが望ましい。つまり、物体の場所ごとに分解能に制限を与えることが可能である。   As described above, since the object to be arranged in the virtual space is a vector image, it can be freely enlarged and reduced, and if the object is enlarged at an appropriate coordinate position in the virtual space, details of the place of interest A simple image can be displayed on the monitor device 8. In addition, when publishing an image using the Internet or a recording medium, since there are places where it is inconvenient to display in detail, the virtual space forming unit 5 determines the minimum distance between pixels constituting the virtual space. It is desirable to associate with the coordinate position of the object in space. That is, it is possible to limit the resolution for each object location.

上述の構成例では、主として市街地における建物を物体として扱っているから、3D市街地図情報を併用すれば、仮想空間における物体の座標位置の精度をさらに高めることができる。この場合、市街地の通りに沿って存在する物体を仮想空間に配置するだけではなく、ビル内や駅構内なども仮想空間に配置すれば、道案内の目的で用いる場合に、より利便性が高くなる。   In the above-described configuration example, buildings in urban areas are mainly handled as objects. Therefore, when 3D city map information is used in combination, the accuracy of the coordinate positions of objects in the virtual space can be further increased. In this case, not only the objects that exist along the streets of urban areas are arranged in the virtual space, but also the inside of the building or the station premises is arranged in the virtual space, it is more convenient when used for the purpose of route guidance. Become.

1 距離画像生成手段
2 撮像手段
3 座標変換手段
4 撮像位置計測手段
5 仮想空間形成手段
6 外観形成手段
7 操作装置
8 モニタ装置
9 データベース
Ob1,Ob2,Ob3 物体
Oba 物体
P1,P2 距離画像
DESCRIPTION OF SYMBOLS 1 Distance image generation means 2 Imaging means 3 Coordinate conversion means 4 Imaging position measurement means 5 Virtual space formation means 6 Appearance formation means 7 Operating device 8 Monitor apparatus 9 Database Ob1, Ob2, Ob3 Object Oba Object P1, P2 Distance image

Claims (8)

カラー画像または濃淡画像を撮像する撮像手段と、撮像手段と重複する視野を持ち視野内に存在する物体までの距離値を画素値とした距離画像を生成する距離画像生成手段と、撮像手段および距離画像生成手段による撮像位置と撮像方向とを計測する撮像位置計測手段と、距離画像に規定した装置座標を位置計測手段により計測した撮像位置および撮像方向を用いて実空間に規定されている3次元の実空間座標に変換する座標変換手段と、座標変換手段で得られた物体の実空間座標を用いて物体のモデリングを行うことにより仮想空間を形成する仮想空間形成手段と、仮想空間に配置した物体に撮像手段で撮像した物体の外観をテクスチャとしてマッピングを行う外観形成手段とを備えることを特徴とする3次元デジタイザ。   An imaging unit that captures a color image or a grayscale image, a distance image generation unit that generates a distance image having a pixel value as a distance value to an object having a field of view overlapping with the imaging unit, and the imaging unit and the distance An imaging position measuring unit that measures an imaging position and an imaging direction by the image generation unit, and a three-dimensional rule that is defined in the real space using the imaging position and the imaging direction in which the device coordinates defined in the distance image are measured by the position measuring unit. A coordinate conversion means for converting to real space coordinates, a virtual space forming means for forming a virtual space by modeling an object using real space coordinates of the object obtained by the coordinate conversion means, and arranged in the virtual space A three-dimensional digitizer comprising: an appearance forming unit that performs mapping on an object by using an appearance of the object imaged by the imaging unit as a texture. 前記仮想空間形成手段は、前記撮像位置計測手段により計測した撮像位置と撮像方向との少なくとも一方が異なりかつ同一物体が視野内に含まれる複数の距離画像について、実空間座標の類似度を評価することにより異なる距離画像について同一物体と異なる物体とを識別し、同一物体を重ね合わせることにより異なる距離画像を連結することを特徴とする請求項1記載の3次元デジタイザ。   The virtual space forming unit evaluates the similarity of real space coordinates for a plurality of distance images in which at least one of the imaging position and the imaging direction measured by the imaging position measuring unit is different and the same object is included in the field of view. 3. The three-dimensional digitizer according to claim 1, wherein the same object and different objects are identified for different distance images, and the different distance images are connected by overlapping the same objects. 前記仮想空間形成手段は、前記撮像位置計測手段により計測した撮像位置と撮像方向との少なくとも一方が異なりかつ同一物体が視野内に含まれる複数の距離画像を組み合わせることにより、特定の撮像位置および撮像方向において死角に存在する物体のモデリングを行うことを特徴とする請求項1又は2記載の3次元デジタイザ。   The virtual space forming means combines a plurality of distance images in which at least one of the imaging position and the imaging direction measured by the imaging position measuring means is different and the same object is included in the field of view, thereby combining a specific imaging position and imaging The three-dimensional digitizer according to claim 1 or 2, wherein modeling of an object existing in a blind spot in a direction is performed. 前記仮想空間形成手段は、物体の実空間座標を用いて物体の形状を幾何学形状に単純化したベクトル画像によるモデリングを行うことを特徴とする請求項1〜3のいずれか1項に記載の3次元デジタイザ。   The said virtual space formation means performs modeling by the vector image which simplified the shape of the object to the geometric shape using the real space coordinate of the object, The any one of Claims 1-3 characterized by the above-mentioned. 3D digitizer. 前記外観形成手段により形成された仮想空間の画像を表示するモニタ装置と、モニタ装置に表示された仮想空間の画像に対して編集操作を行う操作装置とを備え、前記仮想空間形成手段は、前記モニタ装置に表示された仮想空間の画像において前記操作装置により基準となる形状が指示されると当該形状に対する相対関係を用いて幾何学形状のベクトル画像を生成することを特徴とする請求項4記載の3次元デジタイザ。   A monitor device that displays an image of the virtual space formed by the appearance forming unit; and an operation device that performs an editing operation on the image of the virtual space displayed on the monitor device, and the virtual space forming unit includes: 5. A vector image of a geometric shape is generated using a relative relationship with respect to the shape when a reference shape is designated by the operation device in an image of a virtual space displayed on a monitor device. 3D digitizer. 前記仮想空間形成手段は、時刻の異なる複数の距離画像の視野内にモデリングを行った同一の物体が含まれる場合であって、異なる距離画像における当該物体の位置の差分が規定範囲を超えている場合には当該物体を仮想空間に配置しないことを特徴とする請求項1〜5のいずれか1項に記載の3次元デジタイザ。   The virtual space forming means is a case where the same object modeled is included in the field of view of a plurality of distance images at different times, and the difference in the position of the object in the different distance images exceeds a specified range. In this case, the object is not arranged in a virtual space. The three-dimensional digitizer according to any one of claims 1 to 5, wherein the object is not arranged in a virtual space. 前記仮想空間形成手段は、日時の異なる複数の距離画像において実空間座標の同位置に含まれる物体の類似度を評価し、類似度に基づいて異なる距離画像における実空間座標の同位置に異なる物体が存在すると判断される場合に、当該位置には最新の距離画像からモデリングを行った物体を仮想空間に配置することを特徴とする請求項1〜6のいずれか1項に記載の3次元デジタイザ。   The virtual space forming means evaluates the similarity of objects included in the same position of real space coordinates in a plurality of distance images with different dates and times, and different objects in the same position of real space coordinates in different distance images based on the similarity The three-dimensional digitizer according to any one of claims 1 to 6, wherein an object modeled from the latest distance image is placed in the virtual space when it is determined that the object exists. . 前記仮想空間形成手段は、仮想空間を構成する画素間の最小距離を仮想空間内での物体の位置に関連付けていることを特徴とする請求項1〜7のいずれか1項に記載の3次元デジタイザ。   8. The three-dimensional image according to claim 1, wherein the virtual space forming unit associates a minimum distance between pixels constituting the virtual space with a position of an object in the virtual space. Digitizer.
JP2009247068A 2009-10-27 2009-10-27 Three-dimensional digitizer Pending JP2011095858A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009247068A JP2011095858A (en) 2009-10-27 2009-10-27 Three-dimensional digitizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009247068A JP2011095858A (en) 2009-10-27 2009-10-27 Three-dimensional digitizer

Publications (1)

Publication Number Publication Date
JP2011095858A true JP2011095858A (en) 2011-05-12

Family

ID=44112716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009247068A Pending JP2011095858A (en) 2009-10-27 2009-10-27 Three-dimensional digitizer

Country Status (1)

Country Link
JP (1) JP2011095858A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015515655A (en) * 2012-06-29 2015-05-28 三菱電機株式会社 How to align data
JP2015175633A (en) * 2014-03-13 2015-10-05 富士通株式会社 Three-dimensional extraction method and three-dimensional extraction apparatus
JP2016125897A (en) * 2014-12-26 2016-07-11 株式会社Hielero Point group data acquisition system and method
JP2017009546A (en) * 2015-06-26 2017-01-12 Mogコンサルタント株式会社 Bar arrangement inspecting method using mobile three-dimensional laser scanner
JP2017515111A (en) * 2014-04-22 2017-06-08 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting at least one object
WO2018062251A1 (en) * 2016-09-30 2018-04-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device
KR20200003588A (en) * 2018-07-02 2020-01-10 주식회사 유니디자인경영연구소 A device for producing a 3D map for virtual reality using an image photographed by an unattended observation means and the method thereof
JP2022173534A (en) * 2019-12-25 2022-11-18 京セラ株式会社 Electromagnetic wave detection device and information acquisition system
JP2023080080A (en) * 2018-09-26 2023-06-08 京セラ株式会社 Electromagnetic wave detector and information acquisition system
CN116399306A (en) * 2023-03-27 2023-07-07 武汉市云宇智能科技有限责任公司 Tracking measurement method, device, equipment and medium based on visual recognition

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04102178A (en) * 1990-08-22 1992-04-03 Hitachi Ltd Object model input device
JP2000099760A (en) * 1998-09-21 2000-04-07 Agency Of Ind Science & Technol Method for forming three-dimensional model and computer-readable recording medium recording three- dimensional model forming program
JP2000304509A (en) * 1999-04-21 2000-11-02 Matsushita Electric Works Ltd Method and device for specifying object
JP2001227921A (en) * 2000-02-18 2001-08-24 Matsushita Electric Ind Co Ltd Range finder device
JP2002152776A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Range image encoding method and apparatus, and range image decoding method and apparatus
JP2002175521A (en) * 2000-09-12 2002-06-21 Sony Corp Three-dimensional data processing device, three-dimensional data processing method, and program providing medium
JP2004102474A (en) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp Generator for three-dimensional building model data, generator for three-dimensional urban model data, method of generating three-dimensional building model data, program, compute-readable recording medium
JP2005071264A (en) * 2003-08-27 2005-03-17 Ricoh Co Ltd Three-dimensional image generation apparatus
JP2005069757A (en) * 2003-08-21 2005-03-17 National Institute Of Advanced Industrial & Technology Camera position and orientation estimation method and system using foveal wide-field image
JP2005275646A (en) * 2004-03-24 2005-10-06 Fujitsu Ltd 3D drawing model generation method, 3D model drawing method and program thereof
JP2009204615A (en) * 2007-02-16 2009-09-10 Mitsubishi Electric Corp Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring terminal device, measuring server device, plotting device, plotting method, plotting program, and plotted data

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04102178A (en) * 1990-08-22 1992-04-03 Hitachi Ltd Object model input device
JP2000099760A (en) * 1998-09-21 2000-04-07 Agency Of Ind Science & Technol Method for forming three-dimensional model and computer-readable recording medium recording three- dimensional model forming program
JP2000304509A (en) * 1999-04-21 2000-11-02 Matsushita Electric Works Ltd Method and device for specifying object
JP2001227921A (en) * 2000-02-18 2001-08-24 Matsushita Electric Ind Co Ltd Range finder device
JP2002175521A (en) * 2000-09-12 2002-06-21 Sony Corp Three-dimensional data processing device, three-dimensional data processing method, and program providing medium
JP2002152776A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Range image encoding method and apparatus, and range image decoding method and apparatus
JP2004102474A (en) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp Generator for three-dimensional building model data, generator for three-dimensional urban model data, method of generating three-dimensional building model data, program, compute-readable recording medium
JP2005069757A (en) * 2003-08-21 2005-03-17 National Institute Of Advanced Industrial & Technology Camera position and orientation estimation method and system using foveal wide-field image
JP2005071264A (en) * 2003-08-27 2005-03-17 Ricoh Co Ltd Three-dimensional image generation apparatus
JP2005275646A (en) * 2004-03-24 2005-10-06 Fujitsu Ltd 3D drawing model generation method, 3D model drawing method and program thereof
JP2009204615A (en) * 2007-02-16 2009-09-10 Mitsubishi Electric Corp Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring terminal device, measuring server device, plotting device, plotting method, plotting program, and plotted data

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015515655A (en) * 2012-06-29 2015-05-28 三菱電機株式会社 How to align data
JP2015175633A (en) * 2014-03-13 2015-10-05 富士通株式会社 Three-dimensional extraction method and three-dimensional extraction apparatus
JP2017515111A (en) * 2014-04-22 2017-06-08 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting at least one object
JP2016125897A (en) * 2014-12-26 2016-07-11 株式会社Hielero Point group data acquisition system and method
JP2017009546A (en) * 2015-06-26 2017-01-12 Mogコンサルタント株式会社 Bar arrangement inspecting method using mobile three-dimensional laser scanner
JPWO2018062251A1 (en) * 2016-09-30 2019-06-24 株式会社ソニー・インタラクティブエンタテインメント Information processing device
WO2018062251A1 (en) * 2016-09-30 2018-04-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device
KR20200003588A (en) * 2018-07-02 2020-01-10 주식회사 유니디자인경영연구소 A device for producing a 3D map for virtual reality using an image photographed by an unattended observation means and the method thereof
KR102144268B1 (en) * 2018-07-02 2020-08-28 주식회사 유니디자인경영연구소 A device for producing a 3D map for virtual reality using an image photographed by an unattended observation means and the method thereof
JP2023080080A (en) * 2018-09-26 2023-06-08 京セラ株式会社 Electromagnetic wave detector and information acquisition system
JP2022173534A (en) * 2019-12-25 2022-11-18 京セラ株式会社 Electromagnetic wave detection device and information acquisition system
CN116399306A (en) * 2023-03-27 2023-07-07 武汉市云宇智能科技有限责任公司 Tracking measurement method, device, equipment and medium based on visual recognition
CN116399306B (en) * 2023-03-27 2024-01-23 武汉市云宇智能科技有限责任公司 Tracking measurement method, device, equipment and medium based on visual recognition

Similar Documents

Publication Publication Date Title
JP2011095858A (en) Three-dimensional digitizer
KR100912715B1 (en) Digital photogrammetry method and device by heterogeneous sensor integrated modeling
JP6883948B2 (en) Real-time multidimensional image fusion
Manyoky et al. Unmanned aerial vehicle in cadastral applications
Nagai et al. UAV-borne 3-D mapping system by multisensor integration
US8625854B2 (en) 3D scene scanner and a position and orientation system
US9091755B2 (en) Three dimensional image capture system for imaging building facades using a digital camera, near-infrared camera, and laser range finder
US20090262974A1 (en) System and method for obtaining georeferenced mapping data
KR20110044218A (en) Method and computer device for displaying navigation data in three dimensions
KR20110044217A (en) How to display navigation data in three dimensions
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
KR101220527B1 (en) Sensor system, and system and method for preparing environment map using the same
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
JP2019148946A (en) Construction process management system and construction process management method
JP6589636B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
WO2013092058A1 (en) Image view in mapping
CN106461391A (en) Surveying system
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
CN111351502A (en) Method, apparatus and computer program product for generating an overhead view of an environment from a perspective view
JP4077385B2 (en) Global coordinate acquisition device using image processing
JP7610741B2 (en) Feature Management System
JP2019163624A (en) Information processing device, information processing method and display device
JP6135972B2 (en) Orientation method, orientation program, and orientation device
KR20130002834A (en) Method for autonomous movement and apparatus thereof
JP2022141377A (en) Road surface condition investigation system, road surface condition investigation device, and road surface condition investigation method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141104