JP5227065B2 - 3D machine map, 3D machine map generation device, navigation device and automatic driving device - Google Patents
3D machine map, 3D machine map generation device, navigation device and automatic driving device Download PDFInfo
- Publication number
- JP5227065B2 JP5227065B2 JP2008105003A JP2008105003A JP5227065B2 JP 5227065 B2 JP5227065 B2 JP 5227065B2 JP 2008105003 A JP2008105003 A JP 2008105003A JP 2008105003 A JP2008105003 A JP 2008105003A JP 5227065 B2 JP5227065 B2 JP 5227065B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- vehicle
- map
- image
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、自動車、重機、航空機等の移動体の三次元位置を評定し、自動運転、又はアシストするための三次元地図と、その三次元地図生成装置、及びその3次元地図を用いた自動運転装置に関する。
特に、本発明は、走行,航行する移動体の現在位置又は将来位置を三次元空間内に探索して、移動体の進行方向や車両姿勢等を、人間がみて判断するのではなく、機械が判断することにより、移動する移動体の現在状況と将来状況を高精度に判断することができる自動運転装置、及び本願出願人に係るナビゲーション装置(国際公開WO2005/038402)及び新旧映像座標統合装置(特開2007−114916号)を含めて、好適な三次元地図とその三次元地図生成装置に関する。
The present invention evaluates a three-dimensional position of a moving body such as an automobile, a heavy machine, and an aircraft, and automatically operates or assists the three-dimensional map, its three-dimensional map generation device, and automatic using the three-dimensional map. It relates to a driving device.
In particular, the present invention searches for the current position or future position of a moving body that travels and sails in a three-dimensional space and does not determine the traveling direction of the moving body, the vehicle posture, etc. By determining, an automatic driving device that can determine the present situation and future situation of a moving body with high accuracy, a navigation device (International Publication WO2005 / 038402) and an old and new video coordinate integration device ( The present invention relates to a suitable three-dimensional map and its three-dimensional map generation apparatus, including JP-A-2007-114916).
車両等の移動をナビゲートするナビゲーション装置としては、GPS測地衛星を利用したカーナビゲーションシステムが知られている(特許文献1−3参照)。
一般に、車両等の移動をナビゲートするナビゲーション装置の地図としては二次元地図が普及しており、たとえ三次元地図と呼称していても、せいぜいCGで表現した町並みを表示する程度のものである。
また、車両等の自動運転を行う場合には、まず、自己位置を精度良く評定する手法を手に入れなければならない。現在、自己位置評定として知られるものはGPSである。
ここで、GPSナビゲーションシステムで得られる位置精度としては、従来は、電離層における電波の反射や屈折等の影響があり、誤差が50〜300メートルというところであった。
As a navigation device for navigating the movement of a vehicle or the like, a car navigation system using a GPS geodetic satellite is known (see Patent Documents 1-3).
In general, as a map of a navigation device for navigating the movement of a vehicle or the like, a two-dimensional map is prevalent, and even if it is called a three-dimensional map, it can only display a townscape expressed in CG at most. .
In addition, when performing automatic driving of a vehicle or the like, first, a method for accurately evaluating the self position must be obtained. Currently known as self-location assessment is GPS.
Here, as the position accuracy obtained by the GPS navigation system, conventionally, there is an influence of radio wave reflection and refraction in the ionosphere, and the error is 50 to 300 meters.
近年は、緯度・経度・高度の既知の点を利用して電波到達時間の誤差を計測し、それを修正信号として送信して受信地点の誤差を修正する方法が付加されるようになり、誤差は十数メートル程度まで縮小されるようになった。
但し、車両の制御にはこの程度の精度では不足であり、概略位置が分かる程度であるといえる現在のGPS精度では、車両を道路の車線内で誘導することはできない。
従って、地図の精度もGPS精度より多少良いものでも利用上は問題が生じていなかった。
In recent years, a method has been added to measure the error of radio wave arrival time using known points of latitude, longitude, and altitude, and to transmit it as a correction signal to correct the error at the receiving point. Has been reduced to about a dozen meters.
However, this level of accuracy is insufficient for vehicle control, and the current GPS accuracy, which can be understood only for the approximate position, cannot guide the vehicle in the road lane.
Therefore, even if the accuracy of the map is slightly better than the GPS accuracy, there has been no problem in use.
しかしながら、このように位置精度の誤差が数十メートルの範囲にある従来のナビゲーションシステムでは、誤差が大きすぎて自動運転には適用できなかった。
なお、自動運転装置の自己位置評定、及び自己姿勢評定は、ナビゲーションにも共通であり、自動運転装置はそのままナビゲーションや運転アシストに応用できることは言うまでもない。従って、以下はその区別を明確にしないで説明することもあるが、自己位置評定、自己姿勢評定は、自動運転・ナビゲーションの両者に共通であるものとして説明する。
However, in the conventional navigation system in which the positional accuracy error is in the range of several tens of meters as described above, the error is too large to be applied to automatic driving.
Needless to say, the self-position evaluation and self-position evaluation of the automatic driving device are common to navigation, and the automatic driving device can be applied to navigation and driving assistance as it is. Accordingly, the following description may be made without clarifying the distinction, but the self-position assessment and the self-posture assessment are explained as being common to both automatic driving and navigation.
例えば、道路上で車線を特定し、車両の自動運転を実現するためには、道路上の車両位置精度を数cm程度の誤差にまで高める必要があり、この精度は測量の精度に近く、従来のナビゲーションシステムを利用する限り、いかなる方法であっても、数cmの精度で、しかも、リアルタイムに連続的な位置計測をして、それを出力するようなことは不可能であった。
また、自動運転に限らず、例えば、自動車の車庫入れや、航空機の離着陸時、ロボットの作業やナビゲーションなどに用いる場合にも、数cm程度の位置精度をリアルタイムに取得することが必要であり、このようなナビゲーションシステムは現在まで実現されていない。
For example, in order to identify the lane on the road and realize automatic driving of the vehicle, it is necessary to increase the vehicle position accuracy on the road to an error of several centimeters. This accuracy is close to the accuracy of surveying. As long as this navigation system is used, it is impossible to measure the position continuously in real time with a precision of several centimeters and output it in any way.
In addition, it is not limited to automatic driving, for example, in the case of using a garage for a car, taking off and landing of an aircraft, robot work, navigation, etc., it is necessary to obtain a positional accuracy of about several centimeters in real time, Such a navigation system has not been realized so far.
そこで、本願発明者は、本願及び特開2005−295495号で提案しているように、鋭意研究の結果、前もって三次元地図を用意し、移動体に搭載したカメラで撮影される動画映像と比較することで、カメラ位置と姿勢角を高精度に求めることができ、そのカメラ位置情報により、移動体の三次元位置座標を高精度に表示し得ることに想到した。
すなわち、本発明は、上述した従来の技術が有する課題を解決するために提案されたものであり、本願及び本願出願人に係る上記国際公開WO2005/038402及び特開2007−114916号で提案されたナビゲーションのための三次元地図を、人間がみるのではなく、機械が自分の位置と姿勢を判断するための三次元機械地図とすることで、地図のデータ量を減少させ、さらにコンビュータにとって処理しやすくすることで、演算効率を向上させ、より実用的にしたものを三次元機械地図とすることができる三次元地図の生成装置の提供を目的とする。
なお、その原理は、上記国際公開WO2005/038402及び特開2007−114916号のナビゲーション装置に共通である。従って、好ましくは、本発明の三次元機械地図は、本願及び上記国際公開WO2005/038402及び特開2007−114916号のナビゲーション装置等に利用されることも前提としている。
Therefore, as proposed in the present application and Japanese Patent Application Laid-Open No. 2005-295495, the present inventor prepared a three-dimensional map in advance as a result of earnest research and compared it with a moving image captured by a camera mounted on a moving object. As a result, the camera position and the attitude angle can be obtained with high accuracy, and the three-dimensional position coordinates of the moving object can be displayed with high accuracy by the camera position information.
That is, the present invention has been proposed in order to solve the problems of the above-described conventional techniques, and has been proposed in the above-mentioned International Publication WO2005 / 038402 and Japanese Patent Application Laid-Open No. 2007-114916 related to the present application and the present applicant. By making the 3D map for navigation into a 3D machine map for the machine to determine its position and orientation, instead of being seen by humans, the amount of map data is reduced and further processed by the computer. It is an object of the present invention to provide a three-dimensional map generation device that can improve the calculation efficiency and make a more practical one as a three-dimensional machine map.
Note that the principle is common to the navigation devices disclosed in International Publication WO2005 / 038402 and Japanese Patent Application Laid-Open No. 2007-114916. Therefore, preferably, the three-dimensional mechanical map of the present invention is also premised on being used for the present application and the navigation device of International Publication WO2005 / 038402 and Japanese Patent Application Laid-Open No. 2007-114916.
本発明に係る第一の発明は、三次元機械地図であり、次の特徴を有している。
三次元機械地図は、人間ではなく機械が見るものであり、従来には存在しない全く新しい概念である。機械が見るための地図であるために、人間が見る画像ではなく、機械が見るために都合良く画像処理しておき、この三次元機械地図を用いることで、位置と姿勢、及び周囲との相対関係、目的地、目的対象までの方向を三次元的に確認することができる。
三次元機械地図は、機械が見るためのものであることから、画像よりもデータ量を極力軽くすることができることが特徴である。データ量を軽くすることにより、容易に狭帯域で、三次元機械地図のデータ配信を可能となる。その結果製造コストを極端に低減することができる。従って、本願及び本願出願人の提案に係る上記国際公開WO2005/038402及び特開2007−114916号に係る発明の実用性がより高まったことになる。
また、車両に積載したカメラから得られるリアルタイム映像側と三次元機械地図との関係は、できるだけ共通アルゴリズムとし、比較データを同一フォーマットとすることで、三次元機械地図の変更更新部位を即時更新可能とすることができる。
A first invention according to the present invention is a three-dimensional machine map and has the following characteristics.
The three-dimensional machine map is seen by machines, not humans, and is a completely new concept that does not exist in the past. Because it is a map for the machine to see, it is not the image that the human sees, but it is conveniently processed for the machine to see, and by using this 3D machine map, the position and orientation, and the relative The relationship, the destination, and the direction to the target can be confirmed three-dimensionally.
Since the three-dimensional machine map is for the machine to see, the feature is that the amount of data can be reduced as much as possible than the image. By reducing the amount of data, 3D machine map data can be easily distributed in a narrow band. As a result, the manufacturing cost can be drastically reduced. Therefore, the practicality of the invention according to the above-mentioned International Publication WO2005 / 038402 and Japanese Patent Application Laid-Open No. 2007-114916 related to the proposal of the present application and the applicant of the present application is further increased.
In addition, the relationship between the real-time video obtained from the camera mounted on the vehicle and the 3D machine map can be updated as soon as possible by using a common algorithm as much as possible and using the same format for the comparison data. It can be.
本発明に係る第二の発明は、三次元機械地図生成装置であり、三次元機械地図の作成は安価に、できるだけ自動化(+指定対象物を手動で付加)で製造可能とすることができる。また、三次元機械地図は、更新においても安価に、容易に、軽作業で、さらには自動で更新可能とすることができる。
また、三次元機械地図へ、道路標示、道路標識、案内版等の座標付加、属性付加することができる。
A second invention according to the present invention is a three-dimensional machine map generation device, and the creation of a three-dimensional machine map can be manufactured as inexpensively as possible (by adding a designated object manually) as much as possible. In addition, the three-dimensional machine map can be updated at low cost, easily, with light work, and automatically.
In addition, it is possible to add coordinates and attributes such as road markings, road signs, and guide plates to the three-dimensional machine map.
上記目的を達成するため、本発明では、まず、第一の発明として新しい概念の地図を提案する。
地図という概念は、そもそも人間が見るものであるが、本発明に言う三次元機械地図とは、紙やディスプレイ上で人間が見るものではなく、機械がデータとして読み取って、位置や方向を判断するものである。
従って、機械が処理しやすい形式でなければならない。機械も進化していけば最終的に人間が見るものを人間と同じように見て判断することができるであろうが、機械は人間の視覚情報とは違い、まだまだ未進化であり、機械が見るのに適した特徴有る部分を主として三次元機械地図を生成する。三次元機械地図においては、対象空間を機械的に認識しやすい幾何学的に単純な図形に分解し、その内から都合のよいもののみを選択して、三次元空間を再構成することで、三次元機械地図を構成する。
In order to achieve the above object, the present invention first proposes a new concept map as the first invention.
The concept of a map is something that humans see in the first place, but the 3D machine map referred to in the present invention is not something that humans see on paper or a display, but the machine reads it as data and judges the position and direction. Is.
Therefore, it must be in a form that is easy for the machine to handle. If the machine evolves, it will eventually be possible to see and judge what humans see like humans, but unlike human visual information, machines are still undeveloped, A three-dimensional machine map is generated mainly with a portion having features suitable for viewing. In the 3D machine map, the target space is decomposed into geometrically simple figures that are easy to recognize mechanically, and only the most convenient ones are selected and reconstructed in the 3D space. Construct a 3D machine map.
例えば、直線、直線の端点、L字コーナー、クロス、直角、円、平行線、面、点の分布等を三次元的に解析して、三次元空間を再構築したものが三次元機械地図である。
また、それら幾何学的に単純化された図形を属性毎に分類することで、機能と利用範囲を広げることができる。
また、三次元機械地図の特徴は機械系と直接結合できることであり、他の位置評定手段、例えばGPSによる位置データ等と直接やりとりし、複数のデータの座標結合等を可能とするという特徴を有する。
For example, a 3D machine map is a reconstructed 3D space by analyzing a 3D analysis of straight lines, straight line endpoints, L-shaped corners, crosses, right angles, circles, parallel lines, planes, point distributions, etc. is there.
Also, by classifying these geometrically simplified figures for each attribute, the function and range of use can be expanded.
In addition, the feature of the 3D machine map is that it can be directly coupled to the mechanical system, and it has the feature that it can directly coordinate with other position evaluation means, for example, position data by GPS, and can coordinate coordinates of a plurality of data. .
第三の発明として、車載した全周囲カメラからの全周映像から、特徴点を自動抽出し、CV演算して得られるCV映像を用いて、画像処理し、相対座標を取得しながら、画像中の単純幾何学図形を抽出して、その位置座標に配置していく、又は記録していく。あるいは、単純幾何学図形そのものを、その位置座標に配置していく、又は記録していくことで三次元機械地図を生成することができる。さらに、案内マーカを車両走行路近傍に設置し、案内マーカ図形を三次元機械地図上に記しておくことで、単純幾何学図形を取得できない区間や、夜間運転、降雪時運転等でも利用できる三次元機械地図を生成することができる。
この三次元機械地図を車載し、又は配信を受けて車両側で受信し、車載したカメラで撮影したリアルタイム映像と比較するナビゲーション装置及び自動運転装置が実現できる。
As a third aspect of the invention, feature points are automatically extracted from an all-round video from an all-around camera mounted on a vehicle, and image processing is performed using a CV video obtained by CV calculation to obtain relative coordinates. The simple geometric figure is extracted and arranged at the position coordinates or recorded. Alternatively, a three-dimensional machine map can be generated by arranging or recording simple geometric figures themselves at the position coordinates. Furthermore, by installing guide markers in the vicinity of the vehicle travel path and recording the guide marker figures on the three-dimensional machine map, the tertiary that can be used in sections where simple geometric figures cannot be obtained, nighttime driving, snowfall driving, etc. An original machine map can be generated.
A navigation device and an automatic driving device can be realized in which this three-dimensional machine map is mounted on the vehicle or received on the vehicle side after receiving the distribution and compared with a real-time image captured by the mounted camera.
ナビゲーション装置は、三次元機械地図とナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像を、記録媒体を再生して得られる映像的な特徴ある単純幾何学図形から構成される三次元機械地図の三次元座標と比較し、現実の映像と一致する三次元座標上の地点と方向を求め、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する地点検索ナビゲーション装置とを備える構成としてある。
また、自動運転装置は、三次元機械地図と自動運転の対象となる移動体に備えられたカメラにより得られる現実の映像を、記録媒体を再生して得られる映像的な特徴ある単純幾何学図形から構成される三次元機械地図の三次元座標と比較し、現実の映像と一致する三次元座標上の地点と方向を求め、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力し、その信号により車両の進行方向、速度、停止、発進等をコントロールし、することで自動運転を実現する自動運転装置を構成するとしてある。
さらに、複数のサスペンション、4個の車輪をそれぞれ独立にコントロールをすることで、重心位置、車両傾斜を含めて、より微妙な車両コントロールを可能とする自動運転を実現することができる。
A navigation device is a tertiary structure consisting of a 3D machine map and a real geometrical image obtained by reproducing a recording medium from a real image obtained by a camera provided on a moving object to be navigated. Compared to the 3D coordinates of the original machine map, find the point and direction on the 3D coordinates that match the actual image, the position on the 3D coordinates of the camera provided on the moving body, speed, acceleration, viewpoint direction, Among the predetermined items including the three-axis rotation posture, the three-axis rotation speed, and the three-axis rotation acceleration, there is provided a point search navigation device that outputs a plurality of items that are any one or a combination thereof.
In addition, the automatic driving device is a simple geometric figure with visual features that is obtained by reproducing a recording medium from a real image obtained by a camera equipped with a three-dimensional machine map and a moving object to be automatically operated. Compared with the 3D coordinates of the 3D machine map consisting of 3D coordinates, the point and direction on the 3D coordinates that match the actual image are obtained, and the position, speed, Among the predetermined items including acceleration, viewpoint direction, three-axis rotation attitude, three-axis rotation speed, and three-axis rotation acceleration, a plurality of items obtained by combining any of these are output, and the vehicle traveling direction, speed, An automatic driving device that realizes automatic driving by controlling stopping, starting, etc. is configured.
Furthermore, by independently controlling the plurality of suspensions and the four wheels, it is possible to realize automatic driving that enables more delicate vehicle control including the position of the center of gravity and vehicle inclination.
具体的には、本発明の三次元機械地図は、目的となる三次元空間の一部又は大部分が複数の幾何学的単純図形で置換され、単純化されて再構成された単純化三次元空間データを持ち、それら単純化三次元空間データがコンピュータによって読み取られることで、幾何学的単純図形が前記三次元空間に対応した座標、姿勢、及び/又は属性等の関連データを共に出力する構成としてある。 Specifically, the three-dimensional machine map of the present invention is a simplified three-dimensional structure in which a part or most of a target three-dimensional space is replaced with a plurality of geometric simple figures and simplified and reconstructed. A configuration having spatial data, and the simplified three-dimensional spatial data being read by a computer, so that the geometric simple figure outputs related data such as coordinates, postures, and / or attributes corresponding to the three-dimensional space. It is as.
ここで、幾何学的単純図形とは、点、線分、線分の端点、直角カド、クロス、四角形、円、楕円、等の比較的単純な形状の図形、及びその組み合わせを言う。
これら図形は単体では二次元であったり、三次元であったりするが、三次元空間に配置されているので、三次元機械地図においては、常に三次元座標の中に三次元的に配置させる。
これらは、一般の複雑な形状よりもコンピュータの画像解析技術により、検出、生成、分析、比較等が容易であるので、現実の三次元空間をそのまま映像やCGとして持つよりも、データ量は軽くなるという優れた特徴を持つ。
また、後述するように、コンビュータにより生成、更新、比較、記録、再生、その他画像処理においても有利である。
また、後述するように、コンビュータにより検出されやすい図形を、道路上及びその近傍に設置することで、様々な条件下でも自動運転をより確実にすることができる。
さらに、後述するように、前記幾何学単純図形をCG化して座標と共に登録する方法と、CG化せずに映像のまま切り取って、それを座標と共に登録して三次元機械地図とすることも可能である。
また、上記のようにCG化せずに映像のまま切り取って三次元機械地図とするだけではなく、データ量が増大することに問題がなければ、映像を切り取らずに、CV映像そのものを三次元地図として利用できることは言うまでもない。機械だけではなく、人間が見るという目的をも含めて、CV映像で人間が現場を確認する必要が追加されれば、CV映像そのものを三次元地図とすることも可能である。
Here, the geometric simple figure refers to a figure having a relatively simple shape such as a point, a line segment, an end point of the line segment, a right quadrangle, a cross, a quadrangle, a circle, an ellipse, or the like, and a combination thereof.
These figures may be two-dimensional or three-dimensional, but they are arranged in a three-dimensional space, so in a three-dimensional machine map, they are always arranged three-dimensionally in three-dimensional coordinates.
These are easier to detect, generate, analyze, compare, etc. by computer image analysis technology than general complex shapes, so the amount of data is lighter than having an actual three-dimensional space as video or CG as it is. It has the excellent feature of becoming.
Further, as will be described later, it is also advantageous in generation, update, comparison, recording, reproduction, and other image processing by a computer.
Further, as will be described later, by installing a graphic that is easily detected by the computer on and near the road, automatic driving can be ensured even under various conditions.
Further, as described later, a method of registering with coordinates turned into CG the geometric simple shapes, cut left image without CG reduction, can also this to it with a three-dimensional machine Map Register with coordinates It is.
Also, as described above, the CV image itself is not cut out as a 3D machine map without being converted into a CG image, but if there is no problem in increasing the data amount, the CV image itself is not cut out and the 3D image is cut out. Needless to say, it can be used as a map. If it is necessary not only for the machine but also for the purpose of human beings to see, it is possible to make the CV video itself a three-dimensional map if it is necessary to confirm the site with CV video.
現実の三次元空間を前記複数の幾何学的単純図形で置換して再構築するときに、コンビュータによって読み取り、書き込みをしやすくするために、幾何学的単純図形を用いる。登録された幾何学的単純図形をコンピュータで読み取り、それを出力するようにした段階までを三次元機械地図という。
また、現実の三次元空間を前記幾何学的単純図形と見なされる映像の一部分を切り取って、複数の映像の断片を再配置して三次元機械地図を構成し、その後コンビュータによって読み取り、書き込みをしやすくするために、複数の映像断片を登録し、登録された映像断片をコンピュータで読み取り、それを出力するようにした段階までを三次元機械地図という。
幾何学的単純図形と映像断片とは三次元機械地図を構成する要素であり、一般に相互に置き換えが可能であるが、本明細書では、その置き換えができない場合を除いて、特に区別しないで説明する。
When replacing and reconstructing an actual three-dimensional space with the plurality of geometric simple figures, a geometric simple figure is used to facilitate reading and writing by a computer. The process up to the stage where a registered geometric simple figure is read by a computer and output is called a three-dimensional machine map.
In addition, a part of an image regarded as a geometric simple figure is cut out from an actual three-dimensional space, and a plurality of image fragments are rearranged to form a three-dimensional machine map, which is then read and written by a computer. In order to make it easier, a plurality of video fragments are registered, the registered video fragments are read by a computer, and the output is output as a 3D machine map.
Geometric simple figures and video fragments are elements that make up a three-dimensional machine map, and can generally be interchanged with each other. However, in this specification, explanation is made without particular distinction, unless the replacement is not possible. To do.
三次元機械地図に登録されている幾何学的単純図形は常に三次元空間に配置されている。これは目的の三次元空間の一部を反映したものであり、現実空間の全てが反映されているわけではない。
これはコンビュータが読み取るための地図であり、第一義的に人間が見るものではない。読み取った幾何学的単純図形(単純幾何学図形)は、図形として再現表示するために図形として読み取っても良いし、一義的に人間が見るものではないことから、図形の形状と種類等を示す属性と共に、その座標と姿勢としてのみ読み取っても良い。ここで座標も姿勢も、三次元であり、計6自由度を持ち、現実三次元空間に対応している。
また、これはコンビュータが見た現実空間と言うこともできる。三次元機械地図には現実空間の全ては反映されず、コンピュータによる認識、登録等にとって都合の良いものだけが取り込まれて三次元機械地図に反映されている。
A simple geometric figure registered in a three-dimensional machine map is always arranged in a three-dimensional space. This reflects a part of the target three-dimensional space, and not all of the real space.
This is a map for the computer to read and is not primarily seen by humans. The read geometric simple figure (simple geometric figure) may be read as a figure for reproduction and display as a figure, and since it is not uniquely seen by humans, it indicates the shape and type of the figure. Along with the attribute, it may be read only as its coordinates and orientation. Here, the coordinates and orientation are three-dimensional, have a total of six degrees of freedom, and correspond to a real three-dimensional space.
This can also be said to be the real space seen by the computer. The 3D machine map does not reflect all of the real space, but only what is convenient for computer recognition, registration, etc. is captured and reflected in the 3D machine map.
また、本発明の三次元機械地図は、現実空間から取り出した幾何学的単純図形のみならず、使用目的に合致した対象物を前記幾何学的単純図形として、再構築した単純化三次元データを持ち、目的となる現実の三次元空間を使用目的に合致させて再構築することで、コンピュータで読み取り、或いは書き込むことができて、前記図形の全ての座標、姿勢、及び/又は属性等の関連データを共に出力する構成とすることができる。 The three-dimensional mechanical map of the present invention is not only a simple geometric figure extracted from the real space , but also the simplified three-dimensional data reconstructed using the object that matches the purpose of use as the geometric simple figure. It can be read or written by a computer by reconstructing the target real 3D space according to the purpose of use, and all the coordinates, postures, and / or attributes of the figure are related The data can be output together.
このような構成によれば、例えば、任意に生成した本発明に係る三次元機械地図に加えて、目的別の対象物を幾何学的単純化図形に置換し、前記単純化三次元データとして登録する。
目的に応じて、選択的に図形化する対象は変わるが、どの場合も第一義的にコンビュータによって読み取り、属性と共に出力することは共通である。
According to such a configuration, for example, in addition to the arbitrarily generated three-dimensional machine map according to the present invention, the object for each purpose is replaced with a geometric simplified figure and registered as the simplified three-dimensional data. To do.
Depending on the purpose, the object to be selectively made into a graphic changes, but in any case, it is common to read by a computer and output together with attributes.
また、本発明の三次元機械地図は、特に、交通を目的とする場合において、交通標識、道路表示、道路幅員、道路案内板等の交通に必要な対象物を幾何学的単純図形として形状分類し、属性情報として、三次元空間に追加して配置する構成とすることができる。
さらに、本発明の三次元機械地図は、特に自動運転を目的とする場合において、交通標識、道路表示(地物)、道路案内板等の対象物を幾何学的単純図形として形状分類し、その属性情報と共に対象物が存在する三次元空間の座標に追加して配置し、さらに、現実には直接数値表示されていない走行中心線、道路幅員、車線数、道路勾配、回転半径等の自動運転、又は運転アシストに必要な数値属性情報を、車両走行のための三次元空間に対応させて配置する構成とすることができる。
Further, the 3D machine map of the present invention is classified as a geometric simple figure for objects necessary for traffic such as traffic signs, road indications, road widths, road guide boards, etc. , particularly for traffic purposes. In addition, the attribute information can be added and arranged in the three-dimensional space.
Furthermore, the three-dimensional machine map of the present invention classifies objects such as traffic signs, road displays (features), road guide boards, etc. as geometric simple figures , especially for the purpose of automatic driving. In addition to the attribute information, it is arranged in addition to the coordinates of the three-dimensional space where the object exists, and in addition, automatic driving such as running center line, road width, number of lanes, road gradient, turning radius etc. that are not directly numerically displayed in reality Alternatively, numerical attribute information necessary for driving assistance can be arranged in correspondence with a three-dimensional space for vehicle travel.
このような構成によれば、特に、本来運転者が読み取る目的で設置された交通標識、道路標識、道路案内坂等を選択的に図形化し、さらに、現実には直接数値表示されていない走行中心線、道路幅員、車線数、道路勾配、回転半径等の自動運転、又は運転アシストに必要な数値属性情報を、自動運転のための三次元地図として利用する三次元機械地図を提供することができる。
ここで、交通標識、道路標識、道路案内坂等はその三次元位置、又は三次元位置と方向の情報として、形状を画像のまま登録してもよいが、そのまま登録しないで、形状分類した属性として登録することも可能である。その場合は対象物の属性として形状の分類が成されているので、対処物は規格化された形状の情報を持っていることになる。
従って、三元空間内に対象物の形状及びその方向を三次元機械地図の中に、形状そのものではなく、属性とその中心座標(代表座標)のみで表現可能である。交通標識、道路標識、道路案内板等は規格化された形状を持つので、形状分類した属性登録の方が、データ処理上は有利である。
一方、属性には対象物の部分映像をも持たせることができるので、対象物の現実映像も一部付加して、目的となる三次元空間を再構築することで、コンピュータで読み取り、あるいは書き込むことができるようにした三次元機械地図を提供することができる。
According to such a configuration, in particular, traffic signs, road signs, road guide slopes, etc. that were originally installed for the purpose of being read by the driver are selectively figured out, and in addition, the driving center that is not actually numerically displayed in reality It is possible to provide a three-dimensional machine map that uses numerical attribute information necessary for automatic driving or driving assistance such as lines, road width, number of lanes, road gradient, turning radius, etc. as a three-dimensional map for automatic driving. .
Here, traffic signs, road signs, road guide slopes, etc., may be registered as images as their 3D position or 3D position and direction information. It is also possible to register as In that case, since the classification of the shape is made as the attribute of the target object, the countermeasure object has information on the standardized shape.
Therefore, the shape of the object and its direction in the three-dimensional space can be expressed in the three-dimensional machine map not only by the shape itself but by the attribute and its center coordinates (representative coordinates). Since traffic signs, road signs, road guide boards, and the like have standardized shapes, registering attributes classified into shapes is more advantageous for data processing.
On the other hand, since the attribute can also have a partial video of the object, a part of the actual video of the object is also added, and the target three-dimensional space is reconstructed so that it can be read or written by a computer. 3D machine maps can be provided.
また、本発明の三次元機械地図生成装置は、走行中の車両から全周映像を取得する車載全周映像撮影装置と、全周CV映像(特開2005−295495号公報参照)を取得するCV演算装置と、前記全周CV映像から、幾何学的単純図形を抽出し、選択し、分離し、その位置座標と姿勢を三次元的に求める幾何学的単純図形検出装置と、検出された前記幾何学的単純図形に三次元座標を与える三次元座標付加装置と、検出された前記幾何学的単純図形に属性を与える属性登録装置と、検出された前記幾何学的単純図形から、三次元空間を再構築し、目的に応じた他の情報を付加することで生成される本発明に係る三次元機械地図を記録する三次元機械地図記録装置と、を有する構成としてある。 The three-dimensional mechanical map generation device of the present invention includes an in-vehicle all-around video imaging device that acquires an all-around video from a running vehicle, and a CV that acquires an all-around CV image (see Japanese Patent Application Laid-Open No. 2005-295495). An arithmetic device, a geometric simple figure detection device for extracting, selecting, separating, and three-dimensionally determining a position coordinate and a posture from the all-round CV image, and detecting the detected A three-dimensional coordinate adding device for giving a three-dimensional coordinate to a geometric simple figure, an attribute registration device for giving an attribute to the detected geometric simple figure, and a three-dimensional space from the detected geometric simple figure And a three-dimensional machine map recording device for recording a three-dimensional machine map according to the present invention generated by adding other information according to the purpose.
このような構成からなる本発明の三次元機械地図生成装置によれば、車載全周映像撮影装置は、車両に全周囲カメラを積載し、走行中の車両から全周映像を取得することができる。全周映像でなくても本発明は成立するが、全周映像であることが全方位全俯角仰角に関して均等に情報を取得できるので有利である。
CV演算装置は、その詳細が本願出願人に係る特開2005−295495号に詳細に記載されている。全周映像の中に特徴点を自動抽出し、それを隣接するフレームにトラッキングし、トラッキングデータを解析することで全周CV映像を取得することができる。このCV演算及びCV演算装置については後述する(図13〜図25参照)。
According to the three-dimensional mechanical map generation device of the present invention having such a configuration, the vehicle-mounted all-around video imaging device can load the all-around camera on the vehicle and acquire the all-around video from the running vehicle. . Although the present invention is established even if it is not an all-round image, it is advantageous that it is an all-round image because information can be obtained evenly regarding the omnidirectional elevation angle.
Details of the CV arithmetic unit are described in detail in Japanese Patent Application Laid-Open No. 2005-295495 related to the present applicant. A feature point is automatically extracted from the all-around video, tracked to an adjacent frame, and the tracking data is analyzed to obtain the all-round CV video. The CV calculation and CV calculation device will be described later (see FIGS. 13 to 25).
幾何学的単純図形検出装置は、全周CV映像から、CV値を頼りに三次元解析することで、幾何学的単純図形を抽出し、選択し、分離し、その位置座標と姿勢を三次元的に求めることができる。また、幾何学的単純図形を自動認識し、トラッキングすることも可能である。
三次元座標付加装置は、前記幾何学的単純図形検出作業と同時に、検出した図形のフレーム間トラッキングにより、前記幾何学単純図形の三次元座標を与えるものである。
属性登録装置は、検出された前記幾何学的単純図形に属性を与えるものである。前もって前記幾何学的単純図形を形状分類しておけば、形状分類が属性情報となる。色が必要であれば色情報が属性情報となる。走行に関する意味があれば意味が属性となる。前記幾何学的単純図形の代表座標をデータとして、その三次元形状を属性情報とすることも可能である。形状が既知であれば、その形状の中心座標を属性とすることができる。ここで属性とは対象に関連する広範囲の意味を持つ。
三次元機械地図記録装置は、検出された前記幾何学的単純図形から、もととなる映像が属する三次元空間に対応する三次元空間をコンピュータ内に再構築することになる。
三次元機械地図記録装置は、再構築された三次元機械地図を記録し、目的に応じて、他の必要な情報を統合することで目的に応じた三次元機械地図を完成させる。
これらを有することを特徴とするものが三次元機械地図生成装置である。
Geometric simple figure detection device extracts, selects and separates geometric simple figures from all-round CV images using three-dimensional CV values, relies on CV values, and determines the position coordinates and postures in three dimensions. Can be obtained. It is also possible to automatically recognize and track geometric simple figures.
The three-dimensional coordinate adding device gives the three-dimensional coordinates of the geometric simple figure by tracking the detected figure at the same time as the geometric simple figure detection operation.
The attribute registration device gives an attribute to the detected geometric simple figure. If the geometric simple figure is classified in advance, the shape classification becomes the attribute information. If color is required, color information becomes attribute information. If there is a meaning related to traveling, the meaning becomes an attribute. It is also possible to use the representative coordinates of the geometric simple figure as data and the three-dimensional shape as attribute information. If the shape is known, the center coordinate of the shape can be used as an attribute. Here, attributes have a wide range of meanings related to objects.
The three-dimensional machine map recording apparatus reconstructs in the computer a three-dimensional space corresponding to the three-dimensional space to which the original image belongs from the detected geometric simple figure.
The 3D machine map recording device records the reconstructed 3D machine map and integrates other necessary information according to the purpose to complete the 3D machine map according to the purpose.
What has these features is a three-dimensional machine map generator.
また、本発明のナビゲーション装置は、本発明に係る三次元機械地図を備えたナビゲーション装置であって、リアルタイム映像から、及び/又は当該ナビゲーション装置で取得された車両のCV値を用いて解析し、映像内の静止物体の位置と姿勢及び、移動する自車以外の車両の位置、姿勢、回転、速度、加速度等の力学的数値を求め、危険回避行動をとることを可能とした構成としてある。 Further, the navigation device of the present invention is a navigation device provided with the three-dimensional mechanical map according to the present invention, and analyzes from the real-time video and / or using the CV value of the vehicle acquired by the navigation device, It is configured to be able to take a risk avoidance action by obtaining the mechanical values such as the position and posture of a stationary object in the image and the position, posture, rotation, speed, acceleration and the like of a vehicle other than the moving own vehicle.
通常、CV演算は自車両と静止座標系の対象物との運動の関係を6自由度で求めるが、数学的に、また物理的に、自車両と移動する他車両間との間の関係においてもまったく同様であり、数学的に、物理的に、本質的な差はない。
従って、これまでのCV値の定義を、自車両と移動する他車両間との間の関係に拡張することで、まったく同様に二者間の、及び多者間の相対運動を定義できる。これを利用して前記移動体の位置、回転、速度、加速度等を求めることができる。
Normally, the CV calculation calculates the relationship of movement between the own vehicle and the object of the stationary coordinate system with six degrees of freedom, but mathematically and physically in the relationship between the own vehicle and the moving other vehicle. Is exactly the same, and there is no essential difference mathematically and physically.
Therefore, by extending the definition of the CV value so far to the relationship between the host vehicle and the moving other vehicle, it is possible to define the relative motion between the two persons and between the two persons in the same manner. Using this, the position, rotation, speed, acceleration, and the like of the moving body can be obtained.
また、本発明のナビゲーション装置は、リアルタイム映像の記録、及び/又は当該ナビゲーション装置から得られたCV値の記録から、事故時の自車を含む関連対象物の力学的解析をすることを可能とした構成とすることができる。
このような構成からなる本発明の三次元機械地図生成装置によれば、リアルタイム処理が必要であるため精度において困難さが有るが、ドライブレコーダーのように記録した映像を用いれば、詳細なデータが取得できるので、事故解析には有益である。
The navigation system of the present invention, the real-time video recording, and / or from the recording of the resulting CV values from the navigation device, allows for the dynamic analysis of related objects including the own vehicle at the time of the accident and Can be configured.
According to the three-dimensional mechanical map generating apparatus of the present invention having such a configuration, although there is difficulty in accuracy due to the need for real-time processing, by using the recorded image as a drive recorder, detailed data This is useful for accident analysis.
また、本発明のナビゲーション装置は、現実の空間に、及び又はリアルタイム映像に、図12に示すような、矢印等の案内用のCGを合成し、又は/及び音声により、ナビゲーションする構成とすることができる。
このような構成とすることにより、CGや音声によってナビゲーションを実行することができ、より使いやすいナビゲーション装置を提供することができる。
The navigation system of the present invention, the real space, and or real-time video, as shown in FIG. 12, to synthesize a CG for guiding such as an arrow, or / and a voice, can be configured to navigation Can do.
With such a configuration, navigation can be executed by CG or voice, and a navigation device that is easier to use can be provided.
また、本発明のナビゲーション装置は、リアルタイム映像を前記三次元地図と同様のアルゴリズムで分析し、解析し、単純幾何学図形を抽出し、前記三次元機械地図を更新する構成とすることができる。
このような構成とすることにより、三次元機械地図の更新を、リアルタイム映像で行うことが可能となる。
三次元機械地図は記録映像から生成されるので、更新が必要である。走行しながら、リアルタイム映像と違いがあるときは、同じアルゴリズムとして置くことで、リアルタイム映像から三次元機械地図に部分更新をかけることができる。
The navigation device of the present invention can be configured to analyze a real-time video with the same algorithm as that of the three-dimensional map, analyze it, extract a simple geometric figure, and update the three-dimensional machine map.
With such a configuration, the three-dimensional machine map can be updated with a real-time video.
The 3D machine map is generated from the recorded video and needs to be updated. When there is a difference from real-time video while driving, it is possible to apply partial updates to the 3D machine map from real-time video by placing it as the same algorithm.
また、本発明のナビゲーション装置は、取得された自車両の情報を他車両に配信することにより、互いに情報交換することでより安全なナビゲーションを行う構成とすることができる。
本発明に係るナビゲーション装置は、高度な判断を行うナビゲーション装置であるから、判断結果、前記更新情報や進路変更等コマンドを他車両に伝えることで、コミュニケーション走行が可能となる。
The navigation system of the present invention, by delivering the information of the own vehicle acquired in another vehicle, may be configured to perform safer navigation by exchanging information with each other.
Since the navigation device according to the present invention is a navigation device that performs advanced determination, communication traveling is possible by transmitting the determination result and the command such as the update information and the route change to other vehicles.
さらに、本発明のナビゲーション装置は、道路定点に設置されたカメラからの映像を前記三次元機械地図上に、座標統合して、合成して、矛盾無い位置と姿勢の関係で、表示できるようにした構成とすることができる。
このような構成とすることにより、道路定点に設置されているカメラからのリアルタイム映像を、三次元機械地図上に視点を合致させて重ねて表示することで、定点映像がより具体的に理解できることになる。このときに限って、三次元機械地図は見るための映像でもあることになる。
Furthermore, the navigation device of the present invention is capable of displaying the image from the camera installed at the fixed point of the road on the three-dimensional mechanical map by integrating the coordinates and synthesizing it with the relationship between the consistent position and orientation. Can be configured.
With this configuration, the fixed-point video can be understood more concretely by displaying the real-time video from the camera installed at the fixed point on the road with the viewpoint aligned on the 3D machine map. become. Only at this time, the three-dimensional machine map is also an image for viewing.
また、本発明の自動運転装置は、本が発明に係る三次元機械地図を備えた自動運転装置であって、車両に固定されて設置され、車両周囲の映像を取得する車載カメラ装置と、当該車載カメラから出力するリアルタイム映像を取得するリアルタイム映像生成装置と、当該車両に車載された三次元機械地図と前記リアルタイム映像を比較する比較装置と、当該車両が走行していると予想される地域の範囲で、前記リアルタイム映像内の複数の領域で、一部分の幾何学的成分が前記三次元機械地図の一部分の幾何学成分との対応位置を求めながら、三次元機械地図の視点位置と視点姿勢と視点方向とが近づくように調整し、三次元機械地図の限定された範囲内を探索する再生探索装置と、前記リアルタイム映像の複数部分が前記三次元機械地図の複数部分に一致したときの三次元機械地図の位置座標と、同様に一致したときの回転座標を出力する一致出力装置と、当該車両の走行時のリアルタイム映像の各フレームについて、その位置座標と回転座標を求めることで、前記リアルタイム映像のCV値を取得するCV値取得装置と、当該車両位置と姿勢、速度、加速度、方向、角速度、角加速度等を演算して、リアルタイムで取得する走行情報取得装置と、前記CV値から、リアルタイム映像内の自車両以外の車両及び障害物等の位置と姿勢、速度、加速度、方向、角速度、角速度等を演算して、リアルタイムで取得する対象物情報取得装置と、当該車両の走行車線と走行速度と走行方向を決定して走行させる自動走行装置とを備える構成としてある。 Further, the automatic driving device of the present invention is an automatic driving device provided with a three-dimensional mechanical map according to the present invention, and is installed fixedly on a vehicle, and an in-vehicle camera device that acquires an image around the vehicle, A real-time video generation device that acquires a real-time video output from a vehicle-mounted camera, a comparison device that compares the real-time video with a three-dimensional mechanical map mounted on the vehicle, and a region where the vehicle is expected to travel Range, a plurality of regions in the real-time video, a part of the geometric component of the three-dimensional machine map obtaining a corresponding position with a part of the geometric component of the three-dimensional machine map, A reproduction search device that adjusts the viewpoint direction to approach and searches within a limited range of the three-dimensional machine map, and a plurality of parts of the real-time video are duplicated of the three-dimensional machine map. The position coordinates of the 3D machine map when it matches the part, the coincidence output device that outputs the rotation coordinates when they match, and the position coordinates and rotation coordinates of each frame of the real-time video when the vehicle is running CV value acquisition device for acquiring the CV value of the real-time video by calculating the vehicle position and posture, speed, acceleration, direction, angular velocity, angular acceleration, etc., and the travel information acquisition device for acquiring in real time And an object information acquisition device for calculating in real time by calculating the position and posture of a vehicle other than the host vehicle and obstacles in the real-time video, obstacles, etc., speed, acceleration, direction, angular velocity, angular velocity, etc. from the CV value The vehicle includes a travel lane, a travel speed, and an automatic travel device that travels by determining a travel direction.
また、本発明の自動運転装置は、自動運転による車両走行時の座標基準とするために、前記前記三次元機械地図を構成する幾何学的単純図形の中から、選択した図形又は画像を案内マーカ図形又は案内マーカ画像を三次元機械地図の三次元空間に対応させた指定案内マーカ図形と、形状が既知である案内マーカを、前もって道路又は道路近傍に適切な密度で設置し、それを前記三次元機械地図生成装置により、三次元機械地図に対応して反映させた案内マーカ図形を三次元機械地図の三次元空間に対応させた統一形状案内マーカ図形と、前記案内マーカ図形の元となる映像の一部画像を、そのまま案内マーカ画像として、三次元機械地図の三次元空間に対応させた案内マーカ画像と、を備え、前記指定案内マーカ図形と統一形状案内マーカの内で図形によるものを案内マーカ図形として属性登録するとともに、画像によるものを案内マーカ画像として属性登録してこれらを組み合わせる構成としてある。 Further, the automatic driving device of the present invention provides a guide marker for selecting a figure or image selected from geometric simple figures constituting the three-dimensional mechanical map in order to use as a coordinate reference when the vehicle is driven by automatic driving. A designated guide marker figure corresponding to a three-dimensional space of a three-dimensional machine map of a figure or a guide marker image and a guide marker having a known shape are set in advance at an appropriate density on the road or in the vicinity of the road, and the tertiary A unified shape guide marker graphic corresponding to the three-dimensional space of the three-dimensional machine map by using the original machine map generator to reflect the guide marker graphic corresponding to the three-dimensional machine map, and the image that is the origin of the guide marker graphic A guide marker image corresponding to the three-dimensional space of the three-dimensional machine map as a guide marker image as it is, the specified guide marker graphic and the unified shape guide marker With attributes registering by figure as a guide marker graphic in, it is constituted by combining these with attributes registered as a guide marker image by image.
また、本発明の自動運転装置は、前記車載カメラによる道路及び道路近傍のリアルタイム映像内に写っている案内マーカ映像を検出する案内マーカ検出装置と、検出された前記案内マーカ映像と三次元機械地図上の案内マーカ図形とを対応させる案内マーカ地図対応装置と、前記案内マーカ地図対応装置により、対応した複数の案内マーカ図形が持っているそれぞれの座標から、当該車両の座標と姿勢を演算で求める車両CV値取得装置と、当該車両の進行に応じて、次々と新しく現れる案内マーカの座標を前記三次元機械地図上の新しい案内マーカ図形の座標を読み取るマーカ座標読み取り装置と、前記座標を予想位置として前記座標付近をリアルタイム映像内に検索して、前記案内マーカ地図対応装置で、新しい案内マーカ映像と新しい案内マーカ図形とを対応させ、対応の取れた複数の案内マーカ図形が属性として持つ座標から、前記車両CV値取得装置により、前位置より先に進行した車両の座標と姿勢を演算で求める作業を連続的に続ける繰り返し演算装置と、繰り返し作業による車両位置と姿勢を連続的に出力することで、常に車両位置を安定的に検出し続ける出力装置と、を備え、車両の座標と姿勢を取得しながら進行させる構成としてある。 The automatic operation device of the present invention, the a guide marker detecting device that detects a guide marker image that is reflected in the real-time video of the road and road near-vehicle camera, the detected said guide marker image and the three-dimensional machine Map The guidance marker map corresponding device that correlates with the upper guide marker graphic and the guidance marker map corresponding device calculate the coordinates and orientation of the vehicle from the coordinates of the corresponding guide marker graphics. A vehicle CV value acquisition device, a marker coordinate reading device that reads the coordinates of a new guide marker graphic on the three-dimensional machine map, and the coordinates of a guide marker that appears one after another as the vehicle progresses, and the coordinates as an expected position The vicinity of the coordinates is searched for in the real-time video, and a new guidance marker video and a new The operation of calculating the coordinates and posture of the vehicle that has traveled ahead of the previous position by the vehicle CV value acquisition device based on the coordinates of the plurality of corresponding guide marker graphics as attributes. It is equipped with an iterative computing device that continues continuously and an output device that continuously outputs the vehicle position and orientation by repeated operations to constantly detect the vehicle position, and acquires the coordinates and orientation of the vehicle. However, it is configured to proceed.
また、本発明の自動運転装置は、当該車両に積載したリアルタイム映像の記録、及び/又は当該自動運転装置から得られたCV値の記録に基づいて、事故等の特殊な時点において、当該車両を含む関連対象物それぞれの、及びそれらの関係についての力学的解析を行う構成としてある。
さらに、本発明の自動運転装置は、リアルタイム映像を前記三次元機械地図と同様のアルゴリズムで分析及び解析して、単純幾何学図形を抽出し、前記三次元機械地図を更新する構成としてある。
The automatic operation device of the present invention, recording of real-time video that is loaded on the vehicle, and / or based on the recording of the resulting CV value from the automatic operation device, in particular the time of accident, the vehicle It is set as the structure which performs the dynamic analysis about each of the related target object containing and those relations.
Furthermore, the automatic driving device of the present invention is configured to analyze and analyze a real-time image with an algorithm similar to that of the three-dimensional machine map, extract a simple geometric figure, and update the three-dimensional machine map.
以上のような構成からなる本発明の自動運転装置では、先ず車両に設置されたカメラによるリアルタイム映像を解析することで得られるCV値を取得する。これのみでは絶対値に関しては精度が低いが、相対値においては高精度なCV値を取得することができる。
さらに、当該車両に設置された計測機器のデータを追加することで、それらの双方を用いることでさらに精度を向上させ、絶対精度も付加したCV値を取得できる。
このようにして取得されたCV値を解析して、当該車両の三次元的位置、速度、加速度、回転姿勢、回転速度、回転角速度等を取得することができる。
また、CV値を解析して、当該車両の周囲にあって走行に係わる静止物体の位置と概略形状を取得することができる。
さらに、CV値を解析して、当該車両以外の移動体の概略形状、三次元的位置、姿勢、回転速度、速度、回転速度、加速度、回転角速度等を取得することができる。
これらリアルタイム映像から取得されたCV値を元として、当該車両を最適化制御し、安全運行を保持することができる自動運転装置を実現することができる。
In the automatic driving apparatus according to the present invention having the above-described configuration, first, a CV value obtained by analyzing a real-time video by a camera installed in a vehicle is acquired. With this alone, the accuracy is low with respect to the absolute value, but a highly accurate CV value can be obtained with respect to the relative value.
Furthermore, by adding the data of the measurement equipment installed in the vehicle, the accuracy can be further improved by using both of them, and the CV value with the absolute accuracy added can be acquired.
By analyzing the CV value acquired in this way, the three-dimensional position, speed, acceleration, rotational attitude, rotational speed, rotational angular speed, and the like of the vehicle can be acquired.
Further, by analyzing the CV value, it is possible to obtain the position and schematic shape of a stationary object that is around the vehicle and that is involved in traveling.
Further, by analyzing the CV value, it is possible to obtain the approximate shape, three-dimensional position, posture, rotational speed, speed, rotational speed, acceleration, rotational angular speed, etc. of the moving body other than the vehicle.
Based on the CV value acquired from these real-time images, an automatic driving device capable of optimizing and controlling the vehicle and maintaining safe operation can be realized.
このようにして、本発明の自動運転装置によれば、車両等に設置されたカメラによるリアルタイム映像を直接解析することで得られたCV値により、さらに当該車両に設置されたGPS、鉛直計、IMU、ジャイロ等の計測機器のデータを追加して精度を上げることができる。また、CV値と追加された計測機器データを解析して、より高精度のCV値を得ることができる。
そして、高精度のCV値により、高精度の当該車両の三次元的位置、速度、加速度、回転姿勢、回転速度、回転角速度等を取得し、また、CV値と追加された計測機器データを解析して、当該車両の周囲にあって走行に係わる静止物体の位置と概略形状を取得し、さらに、CV値と追加された前記計測機器データを解析して、当該車両以外の移動体の概略形状、三次元的位置、姿勢、回転速度、速度、回転速度、加速度、回転角速度等を取得する。
そして、これら取得された各種物理的力学的データを元にして、当該車両を最適化制御し、安全運行を保持することができる。
なお、生成された制御信号により当該車両を実際に制御する方法(自動運転方法)は既知の技術により実現できるので、詳細な説明は省略する。
Thus, according to the automatic driving device of the present invention, the GPS, the vertical meter installed in the vehicle, the CV value obtained by directly analyzing the real-time video by the camera installed in the vehicle, etc. The accuracy can be improved by adding data of measuring instruments such as IMU and gyro. Further, by analyzing the CV value and the added measuring device data, a more accurate CV value can be obtained.
Then, the highly accurate three-dimensional position, speed, acceleration, rotational attitude, rotational speed, rotational speed, rotational angular velocity, etc. of the vehicle are obtained from the highly accurate CV value, and the CV value and the added measurement device data are analyzed. Then, a position and a schematic shape of a stationary object that is around the vehicle and related to traveling are acquired, and further, a CV value and the added measurement device data are analyzed, and a schematic shape of a moving body other than the vehicle 3D position, posture, rotational speed, speed, rotational speed, acceleration, rotational angular speed, etc. are acquired.
And based on these various physical mechanical data acquired, the said vehicle can be optimally controlled and a safe driving | operation can be hold | maintained.
Note that a method (automatic driving method) for actually controlling the vehicle by the generated control signal can be realized by a known technique, and thus detailed description thereof is omitted.
ここで、CV値は移動するカメラから出力される映像全てに定義されるものであり、三次元機械地図生成時に取得した全周映像に対して定義されているが、この場合は、自動運転装置に設置されたリアルタイム映像に定義されるCV値であり、リアルタイム演算されたCV値である。
また、CV値は最初に定義した全周映像による特徴点抽出、特徴点トラッキング、CV演算という流れによらずに、広義なCV値として、後述するように例えば三次元機械地図とリアルタイム映像とのマッチングから、算出されるような場合であっても、カメラ位置(車両位置)と姿勢を表記する場合全てに対して定義されるものとする。
Here, the CV value is defined for all images output from the moving camera, and is defined for the all-round image acquired when the three-dimensional machine map is generated. Is a CV value defined in a real-time video installed in the CV value, and is a CV value calculated in real time.
In addition, the CV value is not limited to the flow of feature point extraction, feature point tracking, and CV calculation, which are defined first, as a broad CV value. Even when calculated from matching, the camera position (vehicle position) and posture are defined for all cases.
上述したように、CV演算は自車両と静止座標系の対象物との運動の関係を6自由度で求めるが、数学的に、また物理的に、自車両と移動する他車両間との間の関係においてもまったく同様であり、数学的に、物理的に、本質的な差はない。
従って、これまでのCV値の定義を、自車両と移動する他車両間との間の関係に拡張することで、まったく同様に二者間の、及び多者間の相対運動を定義できる。これを利用して前記移動体の位置、回転、速度、加速度等を求めることができ、これらの信号を使って車両を安全にコントロールすることができるようになる。
As described above, the CV calculation obtains the motion relationship between the subject vehicle and the object in the stationary coordinate system with six degrees of freedom, but mathematically and physically between the subject vehicle and the moving other vehicle. This is exactly the same, and there is no essential difference mathematically and physically.
Therefore, by extending the definition of the CV value so far to the relationship between the host vehicle and the moving other vehicle, it is possible to define the relative motion between the two persons and between the two persons in the same manner. By using this, the position, rotation, speed, acceleration, etc. of the moving body can be obtained, and the vehicle can be controlled safely using these signals.
また、本発明の自動運転装置は、リアルタイム映像の記録、及び当該自動運転装置から得られたCV値の記録を残しておくことで、事故時の自車を含む関連対象物の位置関係解析と力学的解析をする構成とすることができる。
リアルタイム処理は、精度において困難さが有るが、ドライブレコーダーのように記録した映像を用いれば、精度の高い詳細なデータが取得できるので、事故解析には有益である。
In addition, the automatic driving device of the present invention is capable of analyzing the positional relationship of related objects including the own vehicle at the time of an accident by leaving a record of real-time video and a record of the CV value obtained from the automatic driving device. It can be set as the structure which performs a mechanical analysis.
Although real-time processing has difficulty in accuracy, using video recorded like a drive recorder can acquire detailed data with high accuracy, which is useful for accident analysis.
また、本発明のナビゲーション装置は、現実の空間に、及び又はリアルタイム映像に、矢印等の案内用のCGを合成し(図12参照)、又は/及び音声により、ナビゲーションする構成とすることができる。
このような構成とすることにより、CGや音声によってナビゲーションを実行することができ、より使いやすいナビゲーション装置を提供することができる。
In addition, the navigation device of the present invention can be configured to synthesize guidance CG such as arrows or the like in real space and / or real-time video (see FIG. 12) or / and to navigate by voice. .
With such a configuration, navigation can be executed by CG or voice, and a navigation device that is easier to use can be provided.
また、本発明の自動運転装置は、リアルタイム映像を前記三次元地図と同様のアルゴリズムで分析し、解析し、単純幾何学図形を抽出し、前記三次元機械地図との違いを検出し、違いが有れば前記三次元地図を更新する構成とすることができる。
このような構成とすることにより、三次元機械地図の更新を、リアルタイム映像で行うことが可能となる。
三次元機械地図は記録映像から生成されるので、更新が必要である。走行しながら、リアルタイム映像と違いがあるときは、同じアルゴリズムとしておくことで、リアルタイム映像から三次元機械地図に部分更新をかけることができる。
三次元機械地図は単純幾何学図形により構成することができるが、その場合には、元となる映像の中に単純幾何学図形の元となる画像断片がなければならない。ところが、画像断片の中に単純幾何学図形の元となる映像が無い場合も存在する。
そこで、本発明では、リアルタイム映像を三次元地図と同様のアルゴリズムで分析し、解析し、単純幾何学図形を抽出するようにしてある。
In addition, the automatic driving device of the present invention analyzes a real-time image with the same algorithm as that of the three-dimensional map, extracts a simple geometric figure, detects a difference from the three-dimensional mechanical map, If it exists, it can be set as the structure which updates the said three-dimensional map.
With such a configuration, the three-dimensional machine map can be updated with a real-time video.
The 3D machine map is generated from the recorded video and needs to be updated. While traveling, when there is a difference between real-time video, in your Kukoto as the same algorithm, it is possible to make a partial update to the three-dimensional machine map from the real-time video.
A three-dimensional machine map can be composed of simple geometric figures. In this case, an image fragment that is a source of a simple geometric figure must exist in the original video. However, there are cases in which there is no video that is the basis of a simple geometric figure in an image fragment.
Therefore, in the present invention, a real-time image is analyzed by an algorithm similar to that of a three-dimensional map, analyzed, and a simple geometric figure is extracted.
また、本発明の自動運転装置は、取得された自車両の情報を他車両に配信することにより、互いに情報交換することでより安全な自動運転を行う構成とすることができる。
本発明に係る自動運転装置は、高度な判断と制御を行うナビゲーション装置でもあることから、判断結果、前記更新情報や進路変更等コマンドを他車両に伝えることで、コミュニケーション走行が可能となる。
Moreover, the automatic driving apparatus of this invention can be set as the structure which performs safer automatic driving | operation by exchanging information mutually by distributing the acquired information of the own vehicle to other vehicles.
Since the automatic driving apparatus according to the present invention is also a navigation apparatus that performs advanced determination and control, communication traveling is possible by transmitting a determination result, a command such as update information or a course change to another vehicle.
さらに、本発明の自動運転装置は、道路定点に設置されたカメラからの映像を前記三次元機械地図上に、座標統合して、合成して、矛盾無い位置と姿勢の関係で、取り込むことができる構成とすることができる。
このような構成とすることにより、道路定点に設置されているカメラからのリアルタイム映像を単純幾何学図形に分解して、三次元機械地図上に視点を合致させて重ねて取り込むことで、定点映像がより具体的に理解できることになる。
Furthermore, the automatic driving apparatus of the present invention can capture the image from the camera installed at the fixed point on the road on the three-dimensional mechanical map by integrating the coordinates and synthesizing them in the relationship between the consistent position and orientation. It can be set as the structure which can be performed.
With this configuration, the real-time video from the camera installed at the fixed point on the road is decomposed into simple geometric figures, and the fixed point video is captured by matching the viewpoint on the 3D machine map. Can be understood more specifically.
なお、以上のような本発明は、本願発明者の提案による全周画像によるCV画像技術(特開2005−295495号)を利用するものである。
本発明の元となっているCV演算及びCV値(特開2005−295495号)は、全周カメラによる動画像の球面画像から生まれた。動画像を球面画像として扱うことで焦点距離及び光軸の概念から解放され、動画像を視覚に適したかたちで二次元面を持ったまま、古典的な三角測量の原理に戻って三次元化し、簡単に取り扱うことができるようになった。さらに動画像における単純化されたCV値基準の概念の導入により、動画像処理が面のまま単純化されて三次元化し、動画像の領域分割及びそのトラッキングが容易となり、しかも高精度となったことで一気に進展した。
Note that the present invention as described above utilizes the CV image technology (Japanese Patent Laid-Open No. 2005-295495) based on an all-round image proposed by the present inventor.
The CV calculation and the CV value (Japanese Patent Laid-Open No. 2005-295495), which are the basis of the present invention, are born from a spherical image of a moving image obtained by an all-round camera. By treating the moving image as a spherical image, the concept of focal length and optical axis is released, and the moving image is converted into a three-dimensional model by reverting to the principle of triangulation while maintaining a two-dimensional surface in a form suitable for vision. It became easy to handle. Furthermore, by introducing a simplified concept of CV value criteria in moving images, the moving image processing is simplified and made three-dimensional with the surface, making it easy to divide and track moving images and to achieve high accuracy. That made a lot of progress.
本発明の三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置によれば、自動車、重機、航空機等の移動体の三次元位置を評定したり、移動体の進行方向や現在状況等をガイドするための三次元地図と、その三次元地図生成装置において、走行,航行する移動体の現在位置又は将来位置を三次元空間内に探索して、移動体の進行方向や車両姿勢等を、人間が見て判断するのではなく、機械が判断することにより、移動する移動体の現在状況と将来状況を高精度に判断することができる、 According to the three-dimensional machine map, the three-dimensional machine map generation device, the navigation device, and the automatic driving device of the present invention, the three-dimensional position of a moving body such as an automobile, a heavy machine, and an aircraft can be evaluated, the traveling direction of the moving body, A three-dimensional map for guiding the situation, etc., and its three-dimensional map generator, searching the three-dimensional space for the current position or future position of the moving body that travels and navigates, and the traveling direction and vehicle posture of the moving body etc., human rather than determined look, by the machine to determine, it is possible to determine the current status and future status of the mobile body moving with high precision,
以下、本発明に係る三次元機械地図と、三次元機械地図生成装置、及び三次元機械地図を備えたナビゲーション装置及び自動運転装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明の三次元機械地図生成装置やナビゲーション装置、自動運転装置、その他の装置は、いずれもプログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、映像中からの基準点や特徴点の自動抽出,抽出した基準点の自動追跡,基準点の三次元座標の算出,CV(カメラベクトル)値の演算等を行わせる。
このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
Hereinafter, preferred embodiments of a three-dimensional machine map, a three-dimensional machine map generation device, and a navigation device and an automatic driving device including the three-dimensional machine map according to the present invention will be described with reference to the drawings.
Here, the following three-dimensional machine map generation device, navigation device, automatic driving device, and other devices of the present invention are all realized by processing, means, and functions executed by a computer in accordance with instructions of a program (software). The The program sends commands to each component of the computer, and performs the following predetermined processing and functions such as automatic extraction of reference points and feature points from the video, automatic tracking of the extracted reference points, Calculation of three-dimensional coordinates, calculation of CV (camera vector) value, etc. are performed.
Thus, each process and means in the present invention are realized by specific means in which the program and the computer cooperate.
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and the program read from the recording medium is installed in the computer and executed. The The program can also be loaded and executed directly on a computer through a communication line without using a recording medium.
以下、本発明の一実施形態として、全周映像からCV演算を用いて画像処理し、三次元機械地図を生成し、車載の通常ビデオカメラによる通常の広角映像(全周映像ではない)と前記装置で生成した三次元機械地図を用いて、上記国際公開WO2005/038402及び特開2007−114916号に係るナビゲーション装置や自動運転装置を実現する場合を示す。 Hereinafter, as an embodiment of the present invention, image processing is performed using CV computation from a full-circle video, a three-dimensional machine map is generated, and a normal wide-angle video (not a full-circumference video) by an on-vehicle normal video camera is used. The case where the navigation apparatus and automatic driving apparatus which concern on the said international publication WO2005 / 038402 and Unexamined-Japanese-Patent No. 2007-114916 is implement | achieved using the three-dimensional mechanical map produced | generated by the apparatus is shown.
[三次元機械地図]
まず、全周映像から三次元機械地図を生成する実施形態を示す。
機械地図とリアルタイム映像側の目標は以下の通りである。
○三次元機械地図側の目標
・三次元機械地図は、人間ではなく機械が見るもの。→機械が位置と姿勢及び周囲との相対関係、目的までの方向を三次元的に確認する。
・三次元機械地図のデータ量を極力軽くする。(地図データ配信を可能とする)
・三次元機械地図の作成は、CV映像データベースから生成することで、安価に、できるだけ自動化する(+指定対象物を手動で付加)。
・三次元機械地図の更新は安価に、容易に、軽作業で、さらには自動で行う。
・三次元機械地図へ道路標示、道路標識、案内版等の座標付加、属性付加を行う。
・リアルタイム映像側と三次元機械地図とを、できるだけ共通アルゴリズムとし、変更更新部位を即時更新可能とする。(目標)
[3D machine map]
First, an embodiment for generating a three-dimensional machine map from an all-round image will be described.
The goals on the machine map and real-time video are as follows.
○ Targets on the 3D machine map • The 3D machine map is viewed by machines, not humans. → The machine confirms the relative relationship between the position and posture, surroundings, and the direction to the target in three dimensions.
・ Reduce the data volume of 3D machine maps as much as possible. (Enable map data distribution)
・ Creation of 3D mechanical maps is automated as much as possible by generating them from the CV video database (+ adding specified objects manually).
・ Updating 3D machine maps is cheap, easy, light work, and even automatic.
-Add coordinates and attributes such as road markings, road signs, and guides to 3D machine maps.
・ The real-time video side and the 3D machine map are made as common as possible, and changes and update parts can be updated immediately. (Goal)
○取得したリアルタイム映像側の目標
・車両からの実像、又は全周映像ではない、通常の広角カメラによるリアルタイム映像を用いて、その映像内に案内指示CGを合成して案内表示する。
・三次元機械地図及びリアルタイム映像にタグを貼り付け、メモ付加機能とする。
・三次元機械地図とリアルタイム映像解析による危険回避行動機能付加。(目標)
・車両走行記録、及び記録解析。(車両CV値記録、及び記録解析)
・車両走行記録解析データによる事故解析。
・車両走行記録解析データによる三次元機械地図の更新。
・更新データの自動配信により、他車両とのデータ共有。
・道路定点カメラからの情報取得。
○ Using a real-time image obtained by a normal wide-angle camera, which is not a real image from the target / vehicle on the real-time image side or an all-round image, a guidance instruction CG is synthesized and displayed in the image.
・ Put tags on the 3D machine map and real-time video to add notes.
・ Addition of danger avoidance action function by 3D machine map and real-time video analysis. (Goal)
・ Vehicle travel record and record analysis. (Vehicle CV value recording and recording analysis)
・ Accident analysis based on vehicle travel record analysis data.
・ Update 3D machine maps with vehicle travel record analysis data.
・ Data sharing with other vehicles by automatic distribution of update data.
・ Information acquisition from fixed point camera.
[三次元地図生成装置]
以下、本発明に係る三次元機械地図を生成する三次元地図生成装置の一実施形態について、図1を参照して説明する。
図1は、本発明の一実施形態に係る三次元地図生成装置110の構成を示すブロック図である。
三次元機械地図を生成するには、車載全周映像撮影装置111により、車両に全周囲カメラを積載し、走行中の車両から全周映像(図5参照)を取得することができる。
取得した全周映像はメルカトール(図11参照)であるが、その一部を平面に投影して遠近法的に表現したものが図5である。撮影位置説明のための例としての図5は、片側二車線の内の右車線上の車両から撮影したものであることが後に意味を持つ。
[3D map generator]
Hereinafter, an embodiment of a three-dimensional map generation apparatus for generating a three-dimensional machine map according to the present invention will be described with reference to FIG.
FIG. 1 is a block diagram showing a configuration of a 3D map generation apparatus 110 according to an embodiment of the present invention.
In order to generate a three-dimensional machine map, the all-around video (see FIG. 5) can be acquired from a running vehicle by mounting an all-around camera on the vehicle by the in-vehicle all-around video imaging device 111.
The acquired all-round image is Mercator (see FIG. 11), and FIG. 5 shows a perspective view of a portion of the image that is projected onto a plane. FIG. 5 as an example for explaining the shooting position is later taken to be taken from a vehicle on the right lane of two lanes on one side.
なお、全周映像でなくても本発明は成立するが、全周映像であることが全方位全俯角仰角に関して均等に情報を取得できるので有利である。
また、位置情報を取得するためにGPSやIMU、ジャイロ等を積載することで、概略位置と概略姿勢が既知となるため、後の処理が楽になる。但し、校正する精度の高い地図が存在すれば、原理的にGPSやIMU、ジャイロ等は無くても良いものである。
また製造の初期工程において、概略位置を知っておくことは演算上も有利であることから、これらGPSやIMU、ジャイロ等を同時積載してデータを取得することが望ましい。
また、後の処理において鉛直が重要な情報となるので鉛直計を積載して置くことが望ましい。
Although the present invention can be established even if it is not an all-round image, it is advantageous that it is an all-round image because information can be obtained equally with respect to the omnidirectional full depression angle and elevation angle.
In addition, by loading GPS, IMU, gyroscope, etc. to acquire position information, the approximate position and approximate attitude become known, which facilitates subsequent processing. However, if there is a highly accurate map to be calibrated, in principle, GPS, IMU, gyro, etc. may be omitted.
In addition, since it is advantageous in calculation to know the approximate position in the initial manufacturing process, it is desirable to obtain data by loading these GPS, IMU, gyro, and the like simultaneously.
Also, since the vertical is important information in the subsequent processing, it is desirable to load a vertical meter.
CV演算装置112は、その詳細が本願出願人に係る上記特開2005−295495号に詳細に記載されているが、全周映像の中に特徴点を自動抽出し、それを隣接する複数フレームにトラッキングし、カメラ移動のベースとトラッキング点で校正する三角形を構成し、そのトラッキングデータを解析することで、特徴点の三次元座標と、カメラ位置と姿勢を持つ全周CV映像を取得することができる。CV値とは、カメラの位置と姿勢を6自由度で表現したものである。
即ち、全フレームについてx,y,z,θx,θy,θz,の6自由度のそれぞれの係数を演算で決定することになる。
なお、CV演算及びCV演算装置については後で更に詳述する(図13〜図25参照)。
The details of the CV arithmetic unit 112 are described in detail in the above-mentioned Japanese Patent Application Laid-Open No. 2005-295495 related to the applicant of the present application. By forming a triangle to be tracked and calibrating with the camera movement base and tracking point, and analyzing the tracking data, it is possible to obtain a full-circle CV image having the three-dimensional coordinates of the feature points and the camera position and orientation. it can. The CV value represents the position and orientation of the camera with 6 degrees of freedom.
That is, the respective coefficients of 6 degrees of freedom of x, y, z, θx, θy, and θz are determined by calculation for all frames.
The CV calculation and the CV calculation device will be described in detail later (see FIGS. 13 to 25).
幾何学的単純図形検出装置113は、全周CV映像から、CV値を基として座標を絞り込み、三次元解析することで、幾何学的単純図形を抽出し、選択し、分離し、その位置座標と姿勢を三次元的に求めることができる。
ここで、幾何学的単純図形とは、点、線、端点、面、直角カド、円、円弧等であるが、この実施例では、点、線、端点を検出している。
例えば、昼間の映像からは、道路標示の白線、ビルの縁、窓枠等から、直線と直線の端点を主として抽出するが、夜間の映像からは街灯やビル内のライトから、点を主として抽出することになる。
従って、前記幾何学的単純図形として、点と線と端点を同時に再構成することで、昼夜とも三次元機械地図として利用できることになる。
The geometric simple figure detection device 113 extracts, selects, separates and isolates a geometric simple figure from the all-round CV image based on the CV value and performs a three-dimensional analysis, and the position coordinates thereof. And the posture can be obtained three-dimensionally.
Here, the geometric simple figure is a point, a line, an end point, a surface, a right-angled quadrature, a circle, an arc, or the like. In this embodiment, a point, a line, or an end point is detected.
For example, from daytime images, straight lines and straight line endpoints are extracted mainly from road markings, white edges of buildings, window frames, etc., but from night images, points are mainly extracted from street lights and lights in buildings. Will do.
Therefore, by simultaneously reconstructing points, lines, and end points as the geometric simple figure, it can be used as a three-dimensional machine map day and night.
三次元座標付加装置114は、幾何学的単純図形検出作業(図6参照)と同時に検出した図形のトラッキングデータから、上記CV演算と同じ原理で、その三次元位置と姿勢を検出し、その三次元座標(図7参照)を与えるものである。
図6は、全周映像を平面に投影した画像であり、そこに幾何学的単純図形として、直線と直線の端点を自動検出したものである。自動検出した前記幾何学的単純図形を隣接する複数のフレームにトラッキングすることで、その三次元座標を取得したものが図7である。これは既に三次元機械地図の一部である。
また、CV演算で得られる座標は相対座標であるので、地図上の既知のデータや高精度のGPSのデータから、後処理で絶対座標を付加することになる。
The three-dimensional coordinate adding device 114 detects the three-dimensional position and orientation from the tracking data of the graphic detected at the same time as the geometric simple graphic detection operation (see FIG. 6) by the same principle as the CV calculation, and the third order. The original coordinates (see FIG. 7) are given.
FIG. 6 is an image obtained by projecting the entire circumference image on a plane, and the straight line and the end point of the straight line are automatically detected there as a geometric simple figure. FIG. 7 shows three-dimensional coordinates obtained by tracking the automatically detected geometric simple figure on a plurality of adjacent frames. This is already part of the 3D machine map.
Further, since the coordinates obtained by the CV calculation are relative coordinates, absolute coordinates are added by post-processing from known data on the map or high-accuracy GPS data.
属性登録装置115は、検出された幾何学的単純図形に属性を与えるものである。
本実施形態では、本願出願人に係るPRM認識(米国特許6614932,国際公開WO02/01505)技術により、前もって用意したパタンとの比較により、認識し、前記幾何学的単純図形を形状分類しておけば、形状分類が属性情報となる。色が必要であれば色情報が属性情報となる。
また、交通標識等、道路交通に必要な対象物も、上記PRM技術により、認識して、その属性を登録することができる。
ここでは、線と端点を属性として登録(図7参照)している。幾何学的単純図形の代表座標をデータとして、その三次元形状を属性情報とすることも可能である。ここで属性とは広範囲の意味を持つ。
The attribute registration device 115 gives an attribute to the detected geometric simple figure.
In the present embodiment, the PRM recognition (US Pat. No. 6,614,932, International Publication WO02 / 01505) technology according to the present applicant is recognized by comparing with a pattern prepared in advance, and the geometric simple figure can be classified into shapes. For example, shape classification is attribute information. If color is required, color information becomes attribute information.
In addition, an object necessary for road traffic, such as a traffic sign, can be recognized by the PRM technique and its attributes can be registered.
Here, lines and end points are registered as attributes (see FIG. 7). It is also possible to use the representative coordinates of a geometric simple figure as data and the three-dimensional shape as attribute information. Here, attributes have a broad meaning.
PRMとは、Parts Reconstruction Method(3D対象物認識方法)の略であり、本願発明者により開発された対象物を認識するための技術である(国際公開WO02/01505参照)。
具体的には、PRM技術は、前もって予想される対象物の形状と属性を部品(オペレータ部品)としてすべて用意しておき、それら部品と現実の実写映像を対比して、一致する部品を選択して対象物を認識する技術である。例えば、走行車輌等に必要となる対象物の「部品」は、道路標示としての車線、白線、黄線、横断道、道路標識としての速度標識、案内標識などであり、これらは定形のものであるので、PRM技術によりその認識は容易に行える。また、対象物をCV映像中に検索する場合においても、その対象物の存在する予想三次元空間を狭い範囲に限定することが可能となり、認識の効率化が可能となる。
PRM is an abbreviation for Parts Reconstruction Method (3D object recognition method), and is a technique for recognizing an object developed by the inventors of the present application (see International Publication WO02 / 01505).
Specifically, the PRM technology prepares all the shapes and attributes of the object to be predicted in advance as parts (operator parts), compares these parts with actual live-action images, and selects matching parts. Technology that recognizes objects. For example, “parts” of objects required for traveling vehicles and the like are lanes as road markings, white lines, yellow lines, crossing roads, speed signs as road signs, guide signs, etc. Therefore, the recognition can be easily performed by the PRM technology. In addition, even when searching for an object in a CV video, it is possible to limit the expected three-dimensional space in which the object exists to a narrow range, thereby improving recognition efficiency.
例えば、信号機であれば、その三次元形状を取得しただけでは「検出」であり、座標と姿勢まで分かれば「特定」であるが、信号機という名称が分かり、3個のライトが赤青黄に変化し、それぞれの交通上の意味を理解しているときに、属性を理解(認識)したということができる。
なお、PRM認識によって、あらゆる監視対象物(予測される対象物、障害物、不審物等)が認識されるとは限らない。すなわち、記憶となるデータベースに情報が存在しない対象物は認識できない。しかし、これは特に問題となるものではない。人間であっても記憶にないものは認識できないのと同様である。認識とはそのもの、あるいは、そのものに近いものの記憶との対比によって得られるものであるからである。
For example, if it is a traffic light, it is “detection” just by acquiring its three-dimensional shape, and it is “specific” if the coordinates and orientation are known. It can be said that the attributes were understood (recognized) as they changed and understood the meaning of each traffic.
Note that not all monitored objects (predicted objects, obstacles, suspicious objects, etc.) are recognized by PRM recognition. That is, an object whose information does not exist in the database to be stored cannot be recognized. However, this is not a problem. Even if it is a human being, it is the same as not being able to recognize what is not in memory. This is because recognition is obtained by comparing itself with memory of something close to itself.
三次元機械地図記録装置115は、検出された前記幾何学的単純図形から、元となる三次元空間に対応する三次元空間を再構築(図3、図4参照)することになる。
これは既に三次元機械地図であるが、三次元機械地図記録装置115では、これから再構築された三次元機械地図を利用するフォーマットに従って記録し、目的に応じて、他の必要な情報を統合することで目的に応じた三次元機械地図を完成させる。
これらを有することを特徴とするものが三次元機械地図生成装置である。
図3は、三次元機械地図を俯瞰的に表現したものであり、図4は、画像取得時の車両目線で表現したものである。三次元機械地図を視覚的に表現すると、一方向からのみ見ることになるが、本来三次元機械地図は機械(コンピュータ)が判断するものであり、全方向、及び全ての視点に変換可能なデータを持っている。
The three-dimensional machine map recording device 115 reconstructs a three-dimensional space corresponding to the original three-dimensional space from the detected geometric simple figure (see FIGS. 3 and 4).
This is already a three-dimensional machine map, but the three-dimensional machine map recording device 115 records it according to a format that uses the reconstructed three-dimensional machine map, and integrates other necessary information according to the purpose. This completes the 3D machine map according to the purpose.
What has these features is a three-dimensional machine map generator.
FIG. 3 is a bird's-eye view of a three-dimensional machine map, and FIG. 4 is a vehicle view at the time of image acquisition. When a 3D machine map is visually represented, it can be viewed from only one direction. Originally, a 3D machine map is determined by a machine (computer) and can be converted into all directions and all viewpoints. have.
また、以上のような三次元地図を備えることで、後述する本発明に係るナビゲーション装置(図2参照)は、記録媒体に記録される情報が、移動体から観察される範囲における映像的な幾何学的単純特徴図形の種類とその三次元座標と、映像的な幾何学的単純特徴図形を含む小領域の二次元画像の三次元配置とその三次元座標と、映像的な幾何学的単純特徴図形を含む対象物の形状とその三次元座標と、映像的な特徴点以外の移動体の移動に必要な周辺画像,CG等の形状と三次元座標と、移動体が移動する道路,車両走行路,又は予定航路等の画像,CGとその三次元形状及びその三次元座標とを含み、これら各情報は、いずれか又はそれらの組み合わせ又はそれら全部、又はそれらの属性情報を含んで、三次元機械地図とともに記録される。 In addition, by providing the three-dimensional map as described above, the navigation device (see FIG. 2) according to the present invention described later enables the image geometry in the range where the information recorded on the recording medium is observed from the moving body. Types of geometric simple features and their three-dimensional coordinates, three-dimensional arrangement of two-dimensional images of small areas including visual geometric simple features, their three-dimensional coordinates, and simple geometric features The shape of the object including the figure and its three-dimensional coordinates, the peripheral image necessary for the movement of the moving body other than the visual feature points, the shape and three-dimensional coordinates of the CG, the road on which the moving body moves, the vehicle traveling Including images of roads, planned routes, etc., CG and its three-dimensional shape and its three-dimensional coordinates, each of which includes any one or a combination thereof or all of them or their attribute information, Recorded with the machine map .
以上のような本実施形態に係る三次元地図生成装置110によって生成された三次元機械地図とは、例えば図3、図4に示すようなものである。
但し、三次元機械地図は人間が見るためのものではないので、ここに示したものは、敢えて目に見える形式に表現したものであり、実際には、このように目に見える形式にして利用するものではない。
The three-dimensional machine map generated by the three-dimensional map generation apparatus 110 according to the present embodiment as described above is, for example, as shown in FIGS.
However, since the 3D machine map is not for human viewing, the ones shown here are expressed in a visible format. Not what you want.
[ナビゲーション装置]
次に、上述した三次元機械地図を利用した本発明のナビゲーション装置の一実施形態について、本願出願人に係る上記国際公開WO2005/038402及び特開2007−114916号で提案された方法に従って、図2を参照しつつ説明する。
同図に示すように、本実施形態に係るナビゲーション装置120は、上述した三次元機械地図121(図3、図4参照)と、移動する車両に積載されたカメラからのリアルタイム映像122(図8参照)とを、比較演算装置123において比較する。
これによって、機械が自動的に車両の位置と姿勢を判断し(図9参照)、位置方向評定出力装置124で現在位置を三次元機械地図上に特定し(図10参照)、これによって、ナビゲーション装置を実現している。
[Navigation device]
Next, according to an embodiment of the navigation device of the present invention using the above-described three-dimensional machine map, according to the method proposed in the above-mentioned International Publication WO2005 / 038402 and Japanese Patent Application Laid-Open No. 2007-114916 related to the present applicant, FIG. Will be described with reference to FIG.
As shown in the figure, the navigation device 120 according to the present embodiment includes the above-described three-dimensional machine map 121 (see FIGS. 3 and 4) and a real-time video 122 (FIG. 8) from a camera loaded on a moving vehicle. Are compared in the comparison operation device 123.
As a result, the machine automatically determines the position and orientation of the vehicle (see FIG. 9), and the position / direction rating output device 124 identifies the current position on the three-dimensional machine map (see FIG. 10). The device is realized.
図8は、移動する車両に積載されたカメラからのリアルタイム映像であり、このリアルタイム映像が三次元機械地図と比較されることになる。
ここで、図8に示す三次元機械地図を作成するための映像は右車線であったが、例として示したリアルタイム映像は左車線であることが重要である。
三次元機械地図取得時の車線とは関係なく、リアルタイム映像の撮影位置が自由に選択されていることが重要である。
FIG. 8 is a real-time video from a camera mounted on a moving vehicle, and this real-time video is compared with a three-dimensional machine map.
Here, the video for creating the three-dimensional mechanical map shown in FIG. 8 is the right lane, but it is important that the real-time video shown as an example is the left lane.
Regardless of the lane at the time of 3D machine map acquisition, it is important that the shooting position of the real-time video is freely selected.
機械が自動的に車両の位置と姿勢を判断し、位置と方向を評定する状況を図9に示す。
図9では、始めに三次元機械地図をリアルタイム映像に投影する。
次に三次元機械地図の横ラインと映像のエッジ成分を合わせる。
調整された三次元機械地図とリアルタイム映像上で、次に三次元機械地図の縦ラインと映像のエッジ成分を合わせる。
この作業を繰り返し、三次元機械地図とリアルタイム映像の一致点を求めることで、一致した三次元機械地図の座標から、現在位置と姿勢を取得する。
図10には、連続するフレームについて、実際に位置と姿勢を評定した結果を、三次元機械地図内に視覚的に示してある。但し、実際はコンビュータ内部のデータ処理としてなされていて目に見えるわけでない。
FIG. 9 shows a situation in which the machine automatically determines the position and orientation of the vehicle and evaluates the position and direction.
In FIG. 9, first, a three-dimensional machine map is projected onto a real-time image.
Next, the horizontal line of the 3D machine map and the edge component of the image are matched.
On the adjusted 3D machine map and the real-time image, the vertical line of the 3D machine map and the edge component of the image are matched.
By repeating this operation and obtaining the coincidence point between the 3D machine map and the real-time video, the current position and orientation are acquired from the coordinates of the coincident 3D machine map.
FIG. 10 visually shows the result of actually evaluating the position and orientation of successive frames in a three-dimensional machine map. However, in actuality, it is done as data processing inside the computer and is not visible.
車両制御装置125では、画像処理技術を用いて、移動体の移動経路について予め三次元機械地図に登録しておき、その三次元機械地図と、現実の移動体に積載されたカメラによるリアルタイム映像とを、三次元機械地図と対比することにより、移動体のカメラ位置を示す三次元座標をGPSシステムより高精度に案内することができる。
また、自車両のみならず、映像内に写り込んでいる他車両についても、その中に特徴点を抽出し、トラッキングすることで、その他車両の位置、速度、加速度、姿勢までも計測でき、移動体の回転姿勢をも取得でき、これを用いて、車両の衝突回避、危険回避等の制御が可能となる。
In the vehicle control device 125, the moving path of the moving body is registered in advance in the three-dimensional machine map using image processing technology, and the three-dimensional machine map and the real-time video by the camera loaded on the actual moving body are displayed. Is compared with the three-dimensional machine map, the three-dimensional coordinates indicating the camera position of the moving object can be guided with higher accuracy than the GPS system.
In addition to the own vehicle, other vehicles appearing in the video can also be measured by extracting the feature points and tracking the vehicle's position, speed, acceleration, and posture. The rotational posture of the body can also be acquired, and using this, control such as vehicle collision avoidance and danger avoidance can be performed.
また、車両制御装置125は、リアルタイム映像を解析し、三次元機械地図とCV演算とにより、CV値を求め、CV値を解析して、自車両の位置、回転姿勢、加速度、速度、及び、映像中の他の車両の位置、回転、加速度、速度を求め、自動危機回避操作をとることができる。
さらに、不幸にも事故が起こってしまったときには、記録された車載カメラの映像から、自車両のみ成らず、映像内の事故に関係する車両の全ての位置、回転、加速度、速度を求めることができることになる。
Further, the vehicle control device 125 analyzes the real-time video, obtains a CV value by a three-dimensional mechanical map and CV calculation, analyzes the CV value, and analyzes the position, rotation posture, acceleration, speed, and The position, rotation, acceleration, and speed of other vehicles in the video can be obtained and an automatic crisis avoidance operation can be performed.
Furthermore, when an accident occurs unfortunately, it is possible to obtain not only the own vehicle but also all the positions, rotations, accelerations, and speeds of the vehicle related to the accident in the image from the recorded image of the in-vehicle camera. It will be possible.
以上のように、本実施形態のナビゲーション装置120は、車載したカメラから撮影したリアルタイム映像と車載した三次元機械地図とをコンピュータによって比較し、現実空間との対応を求め、その対応関係から車載したカメラの三次元位置と姿勢を演算で求め、車両位置と姿勢を決定することで行う三次元機械地図を備えるナビゲーション装置を実現している。 As described above, the navigation device 120 according to the present embodiment compares the real-time video captured from the on-vehicle camera with the on-vehicle three-dimensional mechanical map by using the computer, obtains the correspondence with the real space, and is mounted on the vehicle from the correspondence relationship. A navigation device having a three-dimensional mechanical map that is obtained by calculating the three-dimensional position and posture of a camera and determining the vehicle position and posture is realized.
ここで、リアルタイム映像としては、敢えて全周映像ではなく、通常の広角カメラ一個を用いてリアルタイム映像を得るものとした。性能と精度から判断すれば、全周囲カメラによる全周囲ビデオ映像の方が優れていることは明らかである。但し、産業として普及させるには、特殊用途を除き、安価な通常カメラと通常の広角映像を用いるものとして本実施形態で採用している。
また、せっかくリアルタイム映像を用いることから、これを見るための映像としても利用し、このリアルタイム映像上に案内CGを表示し(案内表示126)、あるいは、情報タグを貼り付け、情報タグに情報を入力し、又は記録し、呼び出すことがきる。
図12に、映像上に案内CGを表示した一例を示す。
三次元機械地図は機械が見るためのものであるが、これは明らかに人間が見るためのものである。
以上、本実施形態のナビゲーション装置の一例を示したが、本発明に係るナビゲーション装置は上記実施形態のみに限定されるものではない。
Here, the real-time video is not an all-around video, but a real-time video is obtained by using one normal wide-angle camera. Judging from the performance and accuracy, it is clear that the omnidirectional video image from the omnidirectional camera is superior. However, in order to spread it as an industry, this embodiment adopts an inexpensive normal camera and a normal wide-angle image except for special applications.
In addition, since a real-time video is used, it is also used as a video for viewing this, and a guidance CG is displayed on this real-time video (guidance display 126), or an information tag is pasted to put information on the information tag. You can type or record and recall.
FIG. 12 shows an example in which a guidance CG is displayed on the video.
A 3D machine map is for the machine to see, but this is clearly for humans to see.
As mentioned above, although an example of the navigation apparatus of this embodiment was shown, the navigation apparatus which concerns on this invention is not limited only to the said embodiment.
[CV演算]
次に、以上のような本発明の三次元機械地図生成装置における三次元機械地図の生成処理の前提となるCV演算について図13〜図25を参照しつつ説明する。
CV演算とはCV値を求める方法の一つであり、CV演算により求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:CameraVectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
[CV calculation]
Next, the CV calculation which is the premise of the three-dimensional machine map generation process in the three-dimensional machine map generation apparatus of the present invention as described above will be described with reference to FIGS.
The CV calculation is one of the methods for obtaining the CV value, and the result obtained by the CV calculation is referred to as CV value and CV data. The notation CV is an abbreviation for camera vector: CameraVector, and the camera vector (CV) is a value indicating a three-dimensional position and a three-axis rotation posture of a camera such as a video camera that acquires an image for measurement or the like.
The CV calculation acquires a moving image (video image), detects a feature point in the image, tracks it in a plurality of adjacent frames, and creates a triangle formed by the camera position and the tracking locus of the feature point in the image. The three-dimensional position of the camera and the three-axis rotational posture of the camera are obtained by generating a large number of images and analyzing the triangle.
CV演算では、CV値を求める過程で、同時に映像内の特徴点(基準点)についても三次元座標が同時に求まることが重要な特性である。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
但し、CV値は、例えば、他の方法による計測手段(GPSとジャイロ、又はIMU等)より求めることもできる。従って、CV値の取得はCV演算による場合には限られない。
なお、GPSとジャイロ、又はIMU等によりCV値を取得する場合には、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、かつ完全に同期させる必要がある。
In the CV calculation, it is an important characteristic that, in the process of obtaining the CV value, three-dimensional coordinates are simultaneously obtained for feature points (reference points) in the video at the same time.
Further, the CV value obtained by calculation from the moving image is obtained simultaneously with the three-dimensional camera position and the three-dimensional camera posture corresponding to each frame of the moving image. Moreover, in principle, the characteristic that a CV value is obtained corresponding to an image with a single camera is an excellent feature that can be realized only by CV calculation.
However, the CV value can also be obtained from, for example, measurement means (GPS and gyro, IMU, or the like) using another method. Therefore, acquisition of the CV value is not limited to the case of CV calculation.
In addition, when acquiring a CV value by GPS and a gyro, IMU, etc., in order to acquire each frame of a moving image and its 3D camera position and 3D camera posture at the same time, an image frame and measurement It is necessary to synchronize the sampling time with high accuracy and completely.
動画像から演算で求められるCVデータは、加工しない段階では相対値であるが、短区間であれば高精度で三次元位置情報と3軸回転の角度情報を取得できる。
また、CVデータを画像から取得する場合は、取得されたデータは相対値であり、絶対値に変換するには既知の地点でのキャリブレーションが必要であるが、CV値と同時に取得される特徴点三次元位置座標と姿勢により、又は新たに画像内に指定して取得した特徴点により、画像内の任意の対象物との位置関係を計測することができるという、他の方法では実現困難な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像との相性が良く、画像から取得したCV値である限り、その画像内では矛盾が無いので、画像以外から求めるCV値と比較して、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明では、このCV演算により得られたCV値データに基づいて三次元機械地図を生成するものである。
CV data obtained by calculation from a moving image is a relative value when not processed, but if it is a short section, three-dimensional position information and three-axis rotation angle information can be acquired with high accuracy.
Also, when CV data is acquired from an image, the acquired data is a relative value, and calibration at a known point is necessary to convert it to an absolute value. It is difficult to realize by other methods that can measure the positional relationship with an arbitrary object in the image by the point three-dimensional position coordinates and orientation, or by the feature point newly specified and acquired in the image. It has excellent characteristics.
In addition, since the CV value corresponding to the image is obtained, the compatibility with the image is good, and as long as the CV value is acquired from the image, there is no contradiction in the image. The CV calculation that can directly determine the camera position and its three-axis rotation posture from is suitable for in-image measurement and in-image survey.
In the present invention, a three-dimensional machine map is generated based on the CV value data obtained by the CV calculation.
[CV演算部]
CV演算は、上述した三次元機械地図生成装置110のCV演算装置112(図1参照)として機能する、図13に示すCV演算部2で行われる。
CV演算部2は、図13に示すように、全周ビデオ映像部1から入力されるビデオ映像について所定のCV演算処理を行うことでCV値を求めるようになっており、具体的には、特徴点抽出部2-1と、特徴点対応処理部2-2と、カメラベクトル演算部2-3と、誤差最小化部2-4と、三次元情報追跡部2-5と、高精度カメラベクトル演算部2-6とを備えている。
[CV calculation unit]
The CV calculation is performed by the CV calculation unit 2 shown in FIG. 13 that functions as the CV calculation device 112 (see FIG. 1) of the three-dimensional machine map generation device 110 described above.
As shown in FIG. 13, the CV calculation unit 2 obtains a CV value by performing a predetermined CV calculation process on the video image input from the all-around video image unit 1. Feature point extraction unit 2-1, feature point correspondence processing unit 2-2, camera vector calculation unit 2-3, error minimization unit 2-4, 3D information tracking unit 2-5, high-precision camera And a vector calculation unit 2-6.
まず、CV演算に使用する映像としては、原理的にはどのような映像でもよいが、画角の限られた映像では視点方向を移動した場合に映像がとぎれてしまうので、実用的には全周映像(図14〜図16参照)か、広角映像を全周映像の一部として扱うことが望ましい。なお、動画映像は連続する静止画と同様であり、複数の静止画として扱うことができる。
また、映像は、一般には予め記録した動画映像を使うことになるが、自動車等の移動体の移動に合わせてリアルタイムに取り込んだ映像を使用することも勿論可能である。
First, in principle, any video can be used for CV calculation. However, in the case of a video with a limited angle of view, the video is interrupted when the viewpoint direction is moved. It is desirable to treat a peripheral image (see FIGS. 14 to 16) or a wide-angle image as a part of the entire image. Note that a moving image is similar to a continuous still image and can be handled as a plurality of still images.
In general, a moving image recorded in advance is used as the video, but it is also possible to use a video captured in real time in accordance with the movement of a moving body such as an automobile.
そこで、本実施形態では、CV演算に使用する映像として、車輌等の移動体の360度の全周囲を撮影した全周映像(図14〜図16参照)か、又は全周映像に近い広角映像を用いて、その全周映像を視点方向に平面展開することにより、全周映像の一部として扱うことができる。
全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図16参照)、これを例えば等距離図法のように平面展開表示することで、通常の遠近法映像に変換表示できるからである。
Therefore, in the present embodiment, as an image used for the CV calculation, an all-around image (see FIGS. 14 to 16) obtained by capturing the entire 360 ° circumference of a moving body such as a vehicle, or a wide-angle image close to the all-around image. Can be handled as a part of the all-round video by developing the whole-round video in the direction of the viewpoint.
The planar development of the all-around video is to express the all-around video as a normal image in perspective. Here, the term “perspective” refers to the fact that the entire perimeter image itself is displayed by a method different from the perspective method, such as Mercator projection and spherical projection projection (see FIG. 16). This is because it can be converted and displayed into a normal perspective image by performing planar development display like the equidistant projection.
全周ビデオ映像部1において全周映像を生成するには、まず、図14及び図15に示すように、全周ビデオカメラ1-1を使用して、CV値データを取得する目的で、走行車輌等の移動体1-1aに固定された全周ビデオカメラ1-1で、移動体1-1aの移動とともに移動体周辺を撮影する。
なお、移動体1-1aには、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、移動体1-1aに搭載される全周ビデオカメラ1-1としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、図14及び図15に示すように、車輌に複数のカメラが一体的に固定され、移動体1-1aの移動に伴って広範囲映像を撮影する全周ビデオカメラ1-1を使用している。
In order to generate an all-round video in the all-round video image section 1, first, as shown in FIGS. 14 and 15, a travel is performed for the purpose of obtaining CV value data using the all-round video camera 1-1. With the all-around video camera 1-1 fixed to the moving body 1-1a such as a vehicle, the periphery of the moving body is photographed along with the movement of the moving body 1-1a.
Note that the moving body 1-1a can be provided with, for example, a position measuring device composed of a GPS device alone or an IMU device that acquires absolute coordinates for the purpose of acquiring the position coordinates.
The all-round video camera 1-1 mounted on the moving body 1-1a may have any configuration as long as it captures and acquires a wide range of images. For example, a camera with a wide-angle lens or a fisheye lens There are a moving camera, a fixed camera, a camera in which a plurality of cameras are fixed, a camera that can rotate around 360 degrees, and the like. In this embodiment, as shown in FIGS. 14 and 15, a plurality of cameras are integrally fixed to a vehicle, and an all-round video camera 1-1 that captures a wide range of images as the moving body 1-1a moves. I use it.
そして、以上のような全周ビデオカメラ1-1によれば、図15に示すように、移動体1-1aの天井部に設置されることで、カメラの360度全周囲の映像を複数のカメラで同時に撮影することができ、移動体1-1aが移動することで、広範囲映像を動画データとして取得できる。
ここで、全周ビデオカメラ1-1は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
Then, according to the all-round video camera 1-1 as described above, as shown in FIG. 15, by being installed on the ceiling of the moving body 1-1a, a 360-degree all-around video of the camera is displayed. Images can be taken simultaneously with the camera, and a wide range of video can be acquired as moving image data by moving the moving object 1-1a.
Here, the omnidirectional video camera 1-1 is a video camera that can directly acquire the omnidirectional video of the camera, but can be used as the omnidirectional video if more than half of the entire circumference of the camera can be acquired as video.
Even in the case of a normal camera with a limited angle of view, the accuracy of the CV calculation is reduced, but it can be handled as a part of the entire peripheral video.
なお、全周ビデオカメラ1-1で撮影された広範囲映像は、一枚の画像として、撮影時の画角に一致する仮想球面に貼り付けることができる。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図16(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
Note that the wide-range video imaged by the all-around video camera 1-1 can be pasted as a single image on a virtual spherical surface that matches the angle of view at the time of imaging.
The spherical image data pasted on the virtual spherical surface is stored and output as spherical image (360 degree image) data pasted on the virtual spherical surface. The virtual spherical surface can be set to an arbitrary spherical shape centered on the camera unit that acquires a wide range image.
FIG. 16A is an appearance image of a virtual spherical surface to which a spherical image is pasted, and FIG. 16B is an example of a spherical image pasted to the virtual spherical surface. FIG. 4C shows an example of an image obtained by developing the spherical image of FIG.
そして、以上のように生成・取得された全周ビデオ映像が、CV演算部2に入力されてCV値データが求められる(図13参照)。
CV演算部2では、まず、特徴点抽出部2-1が、全周ビデオ映像部1の全周ビデオカメラ1-1で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部2-2は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部2-3は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部2-4は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
Then, the all-round video image generated and acquired as described above is input to the CV calculation unit 2 to obtain CV value data (see FIG. 13).
In the CV calculation unit 2, first, the feature point extraction unit 2-1 has a sufficient number of moving image data captured and temporarily recorded by the all-around video camera 1-1 of the all-around video image unit 1. Feature points (reference points) are automatically extracted.
The feature point correspondence processing unit 2-2 automatically obtains the correspondence relationship by automatically tracking the automatically extracted feature points in each frame image between the frames.
The camera vector calculation unit 2-3 automatically calculates a camera vector corresponding to each frame image from the three-dimensional position coordinates of the feature points for which the correspondence relationship has been determined.
The error minimizing unit 2-4 performs statistical processing so that the distribution of the solution of each camera vector is minimized by overlapping calculation of a plurality of camera positions, and automatically calculates the camera position direction subjected to the error minimizing process. decide.
三次元情報追跡部2-5は、カメラベクトル演算部2-3で得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで順次画像の一部として得られる三次元情報に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレームの画像に沿って自動追跡を行う。ここで、三次元情報(三次元形状)とは、主に特徴点の三次元分布情報であり、すなわち、三次元の点の集まりであり、この三次元の点の集まりが三次元形状を構成する。
高精度カメラベクトル演算部2-6は、三次元情報追跡部2-5で得られた追跡データに基づいて、カメラベクトル演算部2-3で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが、後述する三次元機械地図生成装置200に入力され、CVタグの生成や貼り付け処理に利用されることになる。
The 3D information tracking unit 2-5 positions the camera vector obtained by the camera vector computing unit 2-3 as an approximate camera vector, and based on the 3D information sequentially obtained as part of the image in the subsequent process, Partial 3D information contained in a plurality of frame images is automatically tracked along the images of adjacent frames. Here, three-dimensional information (three-dimensional shape) is mainly three-dimensional distribution information of feature points, that is, a collection of three-dimensional points, and this collection of three-dimensional points constitutes a three-dimensional shape. To do.
Based on the tracking data obtained by the three-dimensional information tracking unit 2-5, the high-precision camera vector computing unit 2-6 obtains a camera vector with higher accuracy than the camera vector obtained by the camera vector computing unit 2-3. Generate and output.
Then, the camera vector obtained as described above is input to a three-dimensional machine map generation device 200 described later, and used for CV tag generation and pasting processing.
複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するにはいくつかの方法があるが、図13に示す本実施形態のCV演算部2では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、三角測量幾何学、及びエピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することで、三地点の座標で構成される単位の三角形を、その十倍以上の多くの特徴点から求めることになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
There are several methods for detecting a camera vector from feature points of a plurality of images (moving images or continuous still images). In the CV calculation unit 2 of the present embodiment shown in FIG. By automatically extracting a number of feature points and automatically tracking them, a three-dimensional vector and a three-axis rotation vector of the camera are obtained by triangulation geometry and epipolar geometry.
By taking a large number of feature points, camera vector information is duplicated, so that a unit triangle composed of the coordinates of three points can be obtained from many feature points more than ten times, and duplicate information Therefore, it is possible to obtain a more accurate camera vector by minimizing the error.
カメラベクトルとは、移動するカメラの持つ六個の自由度のベクトルである。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
A camera vector is a vector of six degrees of freedom possessed by a moving camera.
In general, a stationary three-dimensional object has six degrees of freedom of position coordinates (X, Y, Z) and rotation angles (Φx, Φy, Φz) of the respective coordinate axes. Therefore, the camera vector refers to a vector of six degrees of freedom of the camera position coordinates (X, Y, Z) and the rotation angles (Φx, Φy, Φz) of the respective coordinate axes. When the camera moves, the direction of movement also enters the degree of freedom, which can be derived by differentiation from the above six degrees of freedom.
Thus, the detection of the camera vector in the present embodiment means that the camera takes six degrees of freedom values for each frame and determines six different degrees of freedom for each frame.
以下、CV演算部2における具体的なカメラベクトルの検出方法について、図17以下を参照しつつ説明する。
まず、上述した全周カメラ映像部10の全周ビデオカメラ1-1で取得された画像データは、間接に又は直接に、CV演算部2の特徴点抽出部2-1に入力され、特徴点抽出部2-1で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部2-2で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図17〜図19に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図19に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図20に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図20の○印参照)、例えば、100点程度の特徴点を抽出する。
Hereinafter, a specific camera vector detection method in the CV calculation unit 2 will be described with reference to FIG.
First, the image data acquired by the all-around video camera 1-1 of the above-described all-around camera video unit 10 is input to the feature point extracting unit 2-1 of the CV calculating unit 2 indirectly or directly, and the feature points are obtained. A point or a small area image that should be a feature point is automatically extracted from the appropriately sampled frame image by the extraction unit 2-1, and a feature point between a plurality of frame images is extracted by the feature point correspondence processing unit 2-2. Is automatically determined.
Specifically, more than a sufficient number of feature points that are used as a reference for detecting a camera vector are obtained. An example of feature points between images and their corresponding relationships are shown in FIGS. In the figure, “+” is a feature point that is automatically extracted, and the correspondence is automatically tracked between a plurality of frame images (see correspondence points 1 to 4 shown in FIG. 19).
Here, for feature point extraction, as shown in FIG. 20, it is desirable to specify and extract a sufficiently large number of feature points in each image (see circles in FIG. 20). For example, about 100 feature points are extracted. Extract points.
続いて、カメラベクトル演算部2-3で、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、カメラベクトル演算部2-3は、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。また、これを三角測量として説明すれば、方位と俯角仰角を測量する機器を車載して、対象となる複数の測量地点を、移動する測量機器により同一対象物を計測して取得したデータから、各対象地点の座標と測量機器の移動の軌跡を求める場合と同じである。
Subsequently, the camera vector calculation unit 2-3 determines the three-dimensional coordinates of the extracted feature points by calculation, and calculates the camera vector based on the three-dimensional coordinates. Specifically, the camera vector calculation unit 2-3 has a sufficient number of feature positions that exist between consecutive frames, a position vector between moving cameras, a camera three-axis rotation vector, and each camera position. Relative values of various three-dimensional vectors such as vectors connecting the feature points with each other are continuously calculated.
In this embodiment, for example, camera motion (camera position and camera rotation) is calculated by solving an epipolar equation from the epipolar geometry of a 360-degree all-round image. In addition, if this is described as triangulation, a device that measures the azimuth and depression angle elevation angle is mounted on the vehicle, and a plurality of target survey points are obtained from data obtained by measuring the same object with the moving surveying device, This is the same as the case of obtaining the coordinates of each target point and the trajectory of the surveying instrument.
図19に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
Images 1 and 2 shown in FIG. 19 are images obtained by developing a 360-degree all-round image with Mercator development. θ2, φ2). The spatial coordinates of each camera are z1 = (cos φ1 cos θ1, cos φ1 sin θ1, sin φ1), z2 = (cos φ2 cos θ2, cos φ2 sin θ2, sin φ2). If the camera movement vector is t and the camera rotation matrix is R, z1T [t] × Rz2 = 0 is the epipolar equation.
By providing a sufficient number of feature points, t and R can be calculated as a solution by the method of least squares by linear algebra calculation. This calculation is applied to a plurality of corresponding frames.
ここで、カメラベクトルの演算に利用する画像としては、360度全周画像を用いることが好ましい。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、全周映像は対象物の方向がそのまま緯度経度で表現されていることから、きわめて有利である。図19に示す360度全周画像のような広角レンズによる画像の方が特徴点を数多く選択し、複数フレームに渡って追跡し易くなる。また、狭角レンズによる映像あっても、同一対象物の周りを移動しながら様々な方向から撮影する場合には特徴点が視界から逃げないので有効である。
そこで、本実施形態では、CV演算に360度全周画像を用いており、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図19は、CV演算部2における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
Here, it is preferable to use a 360-degree all-round image as an image used for the calculation of the camera vector.
The image used for the camera vector calculation may be any image in principle, but the all-around video is extremely advantageous because the direction of the object is expressed as it is in latitude and longitude. An image using a wide-angle lens such as a 360-degree all-round image shown in FIG. 19 selects many feature points and can be easily traced over a plurality of frames. Further, even when an image is obtained by a narrow-angle lens, it is effective because the feature point does not escape from the field of view when shooting from various directions while moving around the same object.
Therefore, in this embodiment, a 360-degree all-round image is used for the CV calculation, whereby the tracking distance of the feature points can be increased, and a sufficiently large number of feature points can be selected. It becomes possible to select a feature point convenient for each short distance. In addition, when correcting the rotation vector, the calculation process can be easily performed by adding the polar rotation conversion process. As a result, a calculation result with higher accuracy can be obtained.
In FIG. 19, in order to facilitate understanding of the processing in the CV calculation unit 2, a 360-degree all-round spherical image obtained by combining images taken by one or a plurality of cameras is developed using a Mercator projection called a map projection. However, in an actual CV calculation, it is not necessarily a developed image by the Mercator projection.
次に、誤差最小化部2-4では、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点については削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
Next, in the error minimizing unit 2-4, a plurality of vectors based on each feature point are obtained by a plurality of calculation equations based on a plurality of camera positions corresponding to each frame and the number of feature points. Then, statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized to obtain a final vector. For example, the optimal solution of the least square method is estimated by the Levenberg-Marquardt method for multiple frame camera positions, camera rotations, and multiple feature points, and errors are converged to determine the camera position, camera rotation matrix, and feature point coordinates. .
Further, feature points having a large error distribution are deleted, and recalculation is performed based on other feature points, thereby improving the accuracy of computation at each feature point and camera position.
In this way, the position of the feature point and the camera vector can be obtained with high accuracy.
図21〜図23に、CV演算により得られる特徴点の三次元座標とカメラベクトルの例を示す。図21〜図23は、本実施形態のCV演算によるベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図21では、図19の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図22及び図23は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
21 to 23 show examples of the three-dimensional coordinates of feature points and camera vectors obtained by CV calculation. FIG. 21 to FIG. 23 are explanatory diagrams showing the vector detection method by the CV calculation of the present embodiment, and showing the relative positional relationship between the camera and the object obtained from a plurality of frame images acquired by the moving camera. FIG.
FIG. 21 shows the three-dimensional coordinates of the feature points 1 to 4 shown in the images 1 and 2 in FIG. 19 and the camera vector (X, Y, Z) that moves between the images 1 and 2.
22 and 23 show the positions of feature points obtained from a sufficiently large number of feature points and frame images and the position of the moving camera. In the figure, a circle mark that continues in a straight line at the center of the graph is the camera position, and a circle mark located around the circle indicates the position and height of the feature point.
ここで、CV演算部2におけるCV演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図24に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、CV演算部2では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
Here, in the CV calculation in the CV calculation unit 2, in order to obtain more accurate three-dimensional information of the feature point and the camera position at a high speed, as shown in FIG. Set feature points and repeat multiple operations.
Specifically, the CV calculation unit 2 automatically detects feature points having image characteristics in the image, and obtains corresponding points of the feature points in each frame image. And the n + m-th two frame images Fn and Fn + m are used as unit calculations, and unit calculations with n and m appropriately set can be repeated.
m is the frame interval, and the feature points are classified into a plurality of stages according to the distance from the camera to the feature point in the image. The distance from the camera to the feature point is set so that m becomes larger. It is set so that m is smaller as the distance to is shorter. This is because the change in position between images is less as the distance from the camera to the feature point is longer.
そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
Then, while sufficiently overlapping the classification of the feature points by the m value, a plurality of stages of m are set, and as n progresses continuously with the progress of the image, the calculation proceeds continuously. Then, the overlap calculation is performed a plurality of times for the same feature point in each step of n and m.
In this way, by performing unit calculation focusing on the frame images Fn and Fn + m, a precise camera vector is calculated over a long time between each frame sampled every m frames (frames are dropped). However, in m frames (minimum unit frames) between the frame images Fn and Fn + m, a simple calculation that can be performed in a short time can be performed.
m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
If there is no error in the precision camera vector calculation for every m frames, both ends of the camera vector of the m frames overlap with the Fn and Fn + m camera vectors that have been subjected to the high precision calculation. Accordingly, m minimum unit frames between Fn and Fn + m are obtained by a simple calculation, and both ends of the camera vector of the m minimum unit frames obtained by the simple calculation are Fn and Fn + m obtained by high precision calculation. The scale adjustment of m consecutive camera vectors can be made to match the camera vectors.
In this way, as n progresses continuously with the progress of the image, the scale adjustment is performed so that the error of each camera vector obtained by calculating a plurality of times for the same feature point is minimized, and integration is performed. A camera vector can be determined. Accordingly, it is possible to speed up the arithmetic processing by combining simple arithmetic operations while obtaining a highly accurate camera vector having no error.
ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
Here, there are various simple calculation methods depending on the accuracy. For example, when (1) many feature points of 100 or more are used in high-precision calculation, the minimum number of simple calculation is about ten. (2) Even if the number of the same feature points is the same as the feature points and camera positions, innumerable triangles are established there, and equations for that number are established. By reducing the number of equations, it can be simplified.
In this way, integration is performed by adjusting the scale so that the error of each feature point and camera position is minimized, distance calculation is performed, and feature points with large error distribution are deleted, and other features are added as necessary. By recalculating the points, the calculation accuracy at each feature point and camera position can be improved.
また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。 In addition, by performing high-speed simple calculation in this way, camera vector real-time processing becomes possible. In real-time processing of camera vectors, calculation is performed with the minimum number of frames that can achieve the target accuracy and the minimum number of feature points that are automatically extracted, the approximate value of the camera vector is obtained and displayed in real time, and then the image is accumulated. Accordingly, the number of frames can be increased, the number of feature points can be increased, camera vector calculation with higher accuracy can be performed, and approximate values can be replaced with camera vector values with higher accuracy for display.
さらに、本実施形態では、より高精度のカメラベクトルを求めるために、三次元情報(三次元形状)の追跡を行うことができる。
具体的には、まず、三次元情報追跡部2-5で、カメラベクトル演算部2-3,誤差最小化部2-4を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部2-5で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部2-6においてより高精度なカメラベクトルが求められる。
Furthermore, in this embodiment, it is possible to track three-dimensional information (three-dimensional shape) in order to obtain a more accurate camera vector.
Specifically, first, in the three-dimensional information tracking unit 2-5, the camera vector obtained through the camera vector calculation unit 2-3 and the error minimization unit 2-4 is positioned as an approximate camera vector, and the subsequent process Based on the three-dimensional information (three-dimensional shape) obtained as part of the image generated in step 3, the partial three-dimensional information contained in multiple frame images is continuously tracked between adjacent frames to obtain a three-dimensional shape. Auto-tracking.
Then, from the tracking result of the three-dimensional information obtained by the three-dimensional information tracking unit 2-5, a higher-precision camera vector is obtained by the high-precision camera vector calculation unit 2-6.
上述した特徴点抽出部2-1及び特徴点対応処理部2-2では、特徴点を複数のフレーム間画像内に自動追跡するが、特徴点が消失するなどして特徴点の追跡フレーム数に制限が出てくることがある。また、画像は二次元であり、追跡途中で形状が変化するために追跡精度にも一定の限界がある。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部2-3により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
The feature point extraction unit 2-1 and feature point correspondence processing unit 2-2 described above automatically track feature points in a plurality of inter-frame images. There may be restrictions. In addition, since the image is two-dimensional and the shape changes during tracking, there is a certain limit in tracking accuracy.
Therefore, the camera vector obtained by the feature point tracking is regarded as an approximate value, and the three-dimensional information (three-dimensional shape) obtained in the subsequent process is traced on each frame image, and a high-precision camera vector is obtained from the trajectory. Can do.
The tracking of 3D shapes is easy to obtain matching and correlation accuracy, and the 3D shape does not change in size and size depending on the frame image, so it can be tracked over many frames. The accuracy of the camera vector calculation can be improved. This is possible because the approximate camera vector is known by the camera vector computing unit 2-3 and the three-dimensional shape is already known.
カメラベクトルが概略値の場合、非常に多くのフレームに亘る三次元座標の誤差は、特徴点追跡による各フレームに関係するフレームが少ないので、誤差が累積して長距離では次第に大きな誤差になるが、画像の一部分を切り取ったときの三次元形状の誤差は相対的に少なく、形状の変化と大きさに及ぼす影響はかなり少ないものとなる。このため、三次元形状での比較や追跡は、二次元形状追跡の時よりも極めて有利となる。追跡において、二次元形状での追跡の場合、複数のフレームにおける形状の変化と大きさの変化を避けられないまま追跡することになるので、誤差が大きかったり、対応点が見つからないなどの問題があったが、三次元形状での追跡においては形状の変化が極めて少なく、しかも原理的に大きさの変化もないので、正確な追跡が可能となる。 When the camera vector is an approximate value, the error of 3D coordinates over a very large number of frames is small because there are few frames related to each frame by feature point tracking. The error of the three-dimensional shape when a part of the image is cut is relatively small, and the influence on the change and size of the shape is considerably small. For this reason, the comparison and tracking in the three-dimensional shape is extremely advantageous over the two-dimensional shape tracking. In tracking, when tracking with 2D shape, tracking changes in shape and size in multiple frames are unavoidable, so there are problems such as large errors and missing corresponding points. However, in tracking with a three-dimensional shape, there is very little change in shape, and in principle there is no change in size, so accurate tracking is possible.
ここで、追跡の対象となる三次元形状データとしては、例えば、特徴点の三次元分布形状や、特徴点の三次元分布形状から求められるポリゴン面等がある。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
Here, as the three-dimensional shape data to be tracked, there are, for example, a three-dimensional distribution shape of feature points, a polygon surface obtained from the three-dimensional distribution shape of feature points, and the like.
It is also possible to convert the obtained three-dimensional shape from a camera position into a two-dimensional image and track it as a two-dimensional image. Since the approximate value of the camera vector is known, projection conversion can be performed on a two-dimensional image from the camera viewpoint, and it is also possible to follow a change in the shape of the object due to movement of the camera viewpoint.
以上のようにして求められたカメラベクトルは、全周ビデオカメラ1-1で撮影されたビデオ映像中に重ねて表示することができる。
例えば、図25に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねて表示した画像例を図25に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図25に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
The camera vector obtained as described above can be displayed superimposed on the video image shot by the all-round video camera 1-1.
For example, as shown in FIG. 25, the image from the in-vehicle camera is developed in a plane, the corresponding points on the target plane in each frame image are automatically searched, and the corresponding points are combined to match the target plane. A combined image is generated and displayed in the same coordinate system.
Furthermore, the camera position and the camera direction can be detected one after another in the common coordinate system, and the position, direction, and locus can be plotted. The CV data indicates the three-dimensional position and the three-axis rotation, and the CV value can be observed simultaneously in each frame of the video image by displaying it over the video image. FIG. 25 shows an example of an image in which CV data is displayed superimposed on a video image.
If the camera position is correctly displayed in the video image, the position in the video image indicated by the CV value is the center of the image, and if the camera movement is close to a straight line, the CV values of all frames are displayed overlapping. Therefore, for example, as shown in FIG. 25, it is appropriate to display the position of 1 meter right below the camera position. Alternatively, it is more appropriate to display the CV value at the height of the road surface based on the distance to the road surface.
[自動運転装置]
次に、上述した三次元機械地図及びCV演算を利用した本発明の自動運転装置の一実施形態について、図26を参照しつつ説明する。
同図に示すように、本実施形態に係る自動運転装置130は、上述したナビゲーション装置120と同様、三次元機械地図121(図3、図4参照)と、移動する車両に積載されたカメラからのリアルタイム映像122(図8参照)とを、比較演算する構成となっている。
具体的には、自動運転装置130は、車載カメラ装置131と、アルタイム映像生成装置132と、比較装置133と、三次元機械地図121と、再生探索装置134と、一致出力装置135と、CV値取得装置136と、走行情報取得装置137と、対象物情報取得装置138と、自動走行装置139とを備えている。
[Automatic driving device]
Next, an embodiment of the automatic driving device of the present invention using the above-described three-dimensional machine map and CV calculation will be described with reference to FIG.
As shown in the figure, the automatic driving device 130 according to the present embodiment is similar to the navigation device 120 described above, from a three-dimensional mechanical map 121 (see FIGS. 3 and 4) and a camera loaded on a moving vehicle. The real-time video 122 (see FIG. 8) is compared and calculated.
Specifically, the automatic driving device 130 includes an in-vehicle camera device 131, an altime video generation device 132, a comparison device 133, a three-dimensional machine map 121, a reproduction search device 134, a coincidence output device 135, and a CV. A value acquisition device 136, a travel information acquisition device 137, an object information acquisition device 138, and an automatic travel device 139 are provided.
車載カメラ131は、車両に固定されて設置され、車両周囲の映像を取得する。例えば、車載カメラ131は、図14で示したように、全周ビデオカメラ1-1を移動体(車両)1-1aの屋根の中心に設置して、車両の移動とともに車両周辺の映像を撮影する。また、車載カメラ131は、後述する図31に示すように、複数のカメラを車両の屋根に所定の配置レイアウトで設置することもできる。
リアルタイム映像生成装置132は、車載カメラ131から出力するリアルタイム映像を取得する。
比較装置133は、車両に車載された三次元機械地図121と、車載カメラ131で撮影されたリアルタイム映像を、例えばPC(パーソナルコンピュータ)等、車両に搭載した情報処理装置で保持・格納し、当該PCのメモリ内で比較する。
The in-vehicle camera 131 is fixed to the vehicle and acquires an image around the vehicle. For example, as shown in FIG. 14, the in-vehicle camera 131 installs the all-round video camera 1-1 at the center of the roof of the moving body (vehicle) 1-1a, and captures an image around the vehicle as the vehicle moves. To do. Further, as shown in FIG. 31 to be described later, the in-vehicle camera 131 can install a plurality of cameras on the roof of the vehicle with a predetermined layout.
The real-time video generation device 132 acquires a real-time video output from the in-vehicle camera 131.
The comparison device 133 holds and stores the three-dimensional mechanical map 121 mounted on the vehicle and the real-time video captured by the vehicle-mounted camera 131 by an information processing device mounted on the vehicle such as a PC (personal computer). Compare in PC memory.
再生探索装置134は、当該車両が走行していると予想される地域の範囲で、リアルタイム映像内の複数の領域で、一部分の幾何学的成分が三次元機械地図の一部分の幾何学成分との対応位置を求めながら、三次元機械地図の視点位置と視点姿勢と視点方向とが近づくように調整し、三次元機械地図の限定された範囲内を探索する。
一致出力装置135は、リアルタイム映像の複数部分が三次元機械地図の複数部分に一致したときの三次元機械地図の位置座標と、同様に一致したときの回転座標を出力する。
CV値取得装置136は、当該車両の走行時のリアルタイム映像の各フレームについて、その位置座標と回転座標を求めることで、リアルタイム映像のCV値を取得する。
なお、CV値の取得については、上述したCV演算により行う(図13〜図25参照)。
The reproduction search device 134 is a region in which the vehicle is expected to travel in a plurality of regions in the real-time video, and a part of the geometric component is a part of the geometric component of the three-dimensional machine map. While obtaining the corresponding position, the viewpoint position, viewpoint orientation, and viewpoint direction of the 3D machine map are adjusted so as to approach each other, and the limited range of the 3D machine map is searched.
The coincidence output device 135 outputs the position coordinates of the three-dimensional machine map when the plurality of parts of the real-time video coincide with the plurality of parts of the three-dimensional machine map, and the rotation coordinates when the parts coincide with each other.
The CV value acquisition device 136 acquires the CV value of the real-time video by obtaining the position coordinates and the rotation coordinates of each frame of the real-time video when the vehicle is traveling.
The CV value is acquired by the above-described CV calculation (see FIGS. 13 to 25).
走行情報取得装置137は、当該車両位置と姿勢、速度、加速度、方向、角速度、角加速度等を演算して、リアルタイムで取得する。
対象物情報取得装置138は、CV値取得装置136で得られたCV値から、リアルタイム映像内の自車両以外の車両及び障害物等の位置と姿勢、速度、加速度、方向、角速度、角速度等を演算して、リアルタイムで取得する。
そして、自動走行装置139は、上記各装置で得られたデータに基づき生成された制御信号により、当該車両の走行車線と走行速度と走行方向を決定して走行させる。
この自動走行装置139による車両の制御(自動運転)については、既知の技術により実現できる。
以上により、三次元機械地図及びリアルタイム映像に基づく自動運転装置130が構成される。
The travel information acquisition device 137 calculates the vehicle position and posture, speed, acceleration, direction, angular velocity, angular acceleration, and the like and acquires them in real time.
The object information acquisition device 138 obtains the position and posture, speed, acceleration, direction, angular velocity, angular velocity, etc. of vehicles and obstacles other than the own vehicle in the real-time video from the CV value obtained by the CV value acquisition device 136. Calculate and obtain in real time.
Then, the automatic travel device 139 determines the travel lane, travel speed, and travel direction of the vehicle based on the control signal generated based on the data obtained by each of the devices described above.
The vehicle control (automatic driving) by the automatic traveling device 139 can be realized by a known technique.
As described above, the automatic driving device 130 based on the three-dimensional machine map and the real-time video is configured.
次に、以上のような本発明に係る自動運転装置において、案内マーカを利用する場合について、図27〜図28を参照しつつ説明する。
上述した三次元機械地図を備えた自動運転装置においては、三次元機械地図を構成する単純幾何学図形とリアルタイム映像の対応により、リアルタイム映像を取得したカメラのCV値を取得し、それを車両位置として、車両をコントロールすることになる。
このため、三次元機械地図を構成する単純幾何学図形とリアルタイム映像の対応が常に取れる場合はよいが、映像は予想できないことがあり、また、天候や時間帯、特に夜間、降雪時などの場合には、適切な単純幾何学図形に対応する映像が見えない場合(リアルタイム映像の対応が取れない)も想定される。
そこで、以下に示す案内マーカを利用することにより、三次元機械地図と走行する車両からのリアルタイム映像の対応が常に取れるようにすることが可能となる。
Next, in the above-described automatic driving apparatus according to the present invention, a case where a guide marker is used will be described with reference to FIGS.
In the above-described automatic driving apparatus equipped with a three-dimensional mechanical map, the CV value of the camera that acquired the real-time video is obtained by the correspondence between the simple geometric figures constituting the three-dimensional mechanical map and the real-time video, and the vehicle position is obtained. As the vehicle will be controlled.
For this reason, it is good if the simple geometric figures that make up the 3D machine map can always correspond to the real-time video, but the video may not be predictable, and the weather and time zone, especially at night, during snowfall, etc. It is also assumed that a video corresponding to an appropriate simple geometric figure cannot be seen (a real-time video cannot be handled).
Therefore, by using the following guide marker, it is possible to always take correspondence between the three-dimensional machine map and the real-time video from the traveling vehicle.
図27は、図1で示した本発明の一実施形態に係る三次元機械地図生成装置110で利用する案内マーカの構成を示したブロック図である。
同図に示すように、本発明の一実施形態に係る案内マーカ140は、指定案内マーカ141、統一形状案内マーカ142からなり、これら案内マーカ140により案内マーカ図形143と案内マーカ画像144を生成して、三次元機械地図生成装置110に入力するようになっている。
具体的には、案内マーカ140は、自動運転による車両走行時の座標基準とするために、機械地図生成装置110で使用される。
FIG. 27 is a block diagram showing a configuration of a guide marker used in the three-dimensional machine map generation device 110 according to the embodiment of the present invention shown in FIG.
As shown in the figure, a guide marker 140 according to an embodiment of the present invention includes a designated guide marker 141 and a unified shape guide marker 142. The guide marker 140 generates a guide marker figure 143 and a guide marker image 144. Then, the data is input to the three-dimensional machine map generation device 110.
Specifically, the guidance marker 140 is used in the machine map generation device 110 to serve as a coordinate reference when the vehicle travels by automatic driving.
指定案内マーカ図形141は、三次元機械地図を構成する幾何学的単純図形の中から、選択した図形又は画像を案内マーカ図形又は案内マーカ画像として三次元機械地図の三次元空間に対応させたものである。
統一形状案内マーカ図形142は、形状が既知である案内マーカを、前もって、例えば道路又は道路近傍に適切な密度で設置し、それを三次元機械地図生成装置110により、三次元機械地図に対応して反映させた案内マーカ図形を三次元機械地図の三次元空間に対応させたものである。
案内マーカ画像144は、案内マーカ図形143の元となる映像の一部画像を、そのまま案内マーカ画像として、三次元機械地図の三次元空間に対応させたものである。
The designated guide marker graphic 141 is a graphic corresponding to the three-dimensional space of the three-dimensional machine map as a guide marker graphic or a guide marker image selected from the geometric simple figures constituting the three-dimensional machine map. It is.
The unified shape guide marker graphic 142 corresponds to a three-dimensional machine map by setting a guide marker having a known shape in advance at an appropriate density, for example, on a road or in the vicinity of the road. The guide marker figure reflected is made to correspond to the three-dimensional space of the three-dimensional machine map.
The guide marker image 144 is obtained by associating a partial image of the video that is the basis of the guide marker graphic 143 as a guide marker image with the three-dimensional space of the three-dimensional machine map.
以上の指定案内マーカ図形141・統一形状案内マーカ図形142により三次元機械地図の三次元空間に対応させた案内マーカ図形143・案内マーカ画像144が生成され、三次元機械地図生成装置110を介して、案内マーカ付き三次元機械地図121aが生成される。
そして、指定案内マーカ図形141と統一形状案内マーカ図形142内で、図形によるものを案内マーカ図形として属性登録しておくことができる。
また画像によるものを案内マーカ画像として属性登録しておくことができる。
これら案内マーカ図形143・案内マーカ画像144の組み合わせによって、三次元機械地図を構成する単純幾何学図形とリアルタイム映像の対応が取れないような場合にも、三次元機械地図と走行する車両からのリアルタイム映像の対応が常に取れるようにすることができるようになる。
A guide marker graphic 143 and a guide marker image 144 corresponding to the three-dimensional space of the three-dimensional machine map are generated by the above-described designated guide marker graphic 141 and the unified shape guide marker graphic 142, and are generated via the three-dimensional machine map generation device 110. A three-dimensional machine map 121a with a guide marker is generated.
Then, in the designated guide marker graphic 141 and the unified shape guide marker graphic 142, an attribute of a graphic can be registered as a guide marker graphic.
Also, an attribute of an image can be registered as a guide marker image.
Even if the combination of the guide marker graphic 143 and the guide marker image 144 does not correspond to the simple geometric figure constituting the three-dimensional machine map and the real-time video, the real-time from the traveling vehicle and the three-dimensional machine map is real-time. It will be possible to always take correspondence of the video.
以下、案内マーカ140(案内マーカ図形143・案内マーカ画像144)の好ましい態様について具体的に説明する。
まず、三次元機械地図を構成する単純幾何学図形に特に特徴のある図形に着目し、それを案内マーカ図形として重点的に対応させる(指定案内マーカ図形141)。
また、単純幾何学図形に特徴がない地域においては、積極的に案内マーカを実際の道路又はその近傍に設置することにする(統一形状案内マーカ図形142)。この場合、赤外線や偏光を利用して、カメラ側には赤外線に感度を持つCCDや赤外線フィルタを用い、人間には視認しにくくすることも可能である。
Hereinafter, a preferable aspect of the guidance marker 140 (guidance marker figure 143 and guidance marker image 144) will be specifically described.
First, attention is paid to a figure that is particularly characteristic of the simple geometric figure constituting the three-dimensional machine map, and it is preferentially associated as a guide marker figure (designated guide marker figure 141).
In an area where the simple geometric figure is not characterized, a guidance marker is positively installed on an actual road or in the vicinity thereof (unified shape guidance marker figure 142). In this case, by using infrared rays or polarized light, it is possible to use a CCD or infrared filter having sensitivity to infrared rays on the camera side so that it is difficult for humans to visually recognize.
また、三次元機械地図に登録されていることから、マーカの形状と図形と位置が予想できているので、案内マーカは確認作業のみとなるので、演算は容易となる。
この場合、演算処理するPC等の情報処理装置で認識されやすい、日照や気候の影響を受けにくい形状と図形を選択することができる。例えば、○と+を組み合わせ図形などは、スケール及び回転に強い図形として利用が可能である。
また、PC側で、これらの図形を検出して認識する場合は、いわゆる高度な認識作業ではなく、既に形状も属性も既知である物体の確認作業を行うことになる。
Further, since the shape, figure, and position of the marker can be predicted since it is registered in the three-dimensional machine map, the guide marker is used only for confirmation work, so that the calculation becomes easy.
In this case, it is possible to select a shape and a figure that are easily recognized by an information processing apparatus such as a PC that performs arithmetic processing and that are not easily affected by sunlight or the climate. For example, a figure combining ◯ and + can be used as a figure resistant to scale and rotation.
Further, when detecting and recognizing these figures on the PC side, not the so-called advanced recognition work but the confirmation work of the object whose shape and attribute are already known.
さらに、案内マーカは、確認作業でよいことと、形状が小さく画像としても小さいことから、簡易的には、幾何学図形に置換することなく、三次元機械地図生成時に用いたCV映像から、マーカ部分の画像をそのまま切り取って案内マーカ画像としてそのまま利用し、三次元機械地図に貼り付けても良いことになる。
また、マーカのみから車両位置を計測するには、遠方のマーカも必要となるので、遠方の案内マーカにおいては反射板として利用し、カメラではなく、案内マーカに直接レーザ光を当ててその位置を計測して確認することでも可能である。
Furthermore, since the guidance marker may be a confirmation work and has a small shape and a small image, the marker can be simply extracted from the CV image used when generating the three-dimensional machine map without replacing it with a geometric figure. The image of the portion may be cut out as it is and used as a guide marker image as it is, and may be pasted on a three-dimensional machine map.
In addition, in order to measure the vehicle position from only the marker, a distant marker is also required. Therefore, the distant guide marker is used as a reflector, and the position is determined by directing laser light directly on the guide marker instead of the camera. It is also possible to measure and confirm.
案内マーカ付きの三次元機械地図は、車載カメラでリアルタイム映像として取得した後、三次元地図生成との比較においてPCで認識又は検出しやすい幾何学的単純図形又はその組み合わせから構成されることが望ましい。
また、三次元機械地図生成においても、統一形状案内マーカにおいては、実際に現地に設置することになるので、その後の地図生成処理においても正しく確実に統一形状案内マーカを捉えるように、単純な幾何学図形が適している。
そして、三次元機械地図はこれら案内マーカ図形から構成されることになる。
なお、案内マーカの設置密度、又は指定密度は、車載カメラで取得されるリアルタイム映像の視野内に、同時に複数の案内マーカを同時に検出できるような密度とする必要がある。例えば、リアルタイム映像内には、最低三個の案内マーカが同時に映っている必要がある。
It is desirable that the 3D mechanical map with the guide marker is composed of a geometric simple figure or a combination thereof that is easily recognized or detected by the PC in comparison with the 3D map generation after being acquired as a real-time image by the vehicle-mounted camera. .
Also, in the 3D machine map generation, the unified shape guidance marker is actually installed in the field, so that the simple geometry can be captured correctly and reliably in the subsequent map generation process. A geometric figure is suitable.
The three-dimensional machine map is composed of these guide marker graphics.
It should be noted that the installation density or the specified density of the guide markers needs to be a density at which a plurality of guide markers can be simultaneously detected in the field of view of the real-time video acquired by the in-vehicle camera. For example, it is necessary that at least three guide markers are simultaneously shown in the real-time video.
次に、以上のような案内マーカ140を使用して三次元機械地図を構成する単純幾何学図形とリアルタイム映像の対応付けを行う自動運転装置の一実施形態について、図28を参照しつつ説明する。
図28は、案内マーカを利用する自動運転装置の一実施形態の構成を示す機能ブロック図である。
同図に示すように、本実施形態に係る自動運転装置150は、上述した案内マーカ図形として登録されている三次元機械地図を備えた自動運転装置であり、案内マーカ検出装置151と、案内マーカ地図対応装置152と、車両CV値取得装置153と、マーカ座標読み取り装置154と、繰り返し演算装置155と、出力装置156とを備えている。
Next, an embodiment of an automatic driving apparatus that associates a simple geometric figure constituting a three-dimensional machine map with a real-time image using the guide marker 140 as described above will be described with reference to FIG. .
FIG. 28 is a functional block diagram illustrating a configuration of an embodiment of an automatic driving device using a guide marker.
As shown in the figure, an automatic driving device 150 according to the present embodiment is an automatic driving device including a three-dimensional mechanical map registered as the above-described guide marker graphic, and includes a guide marker detection device 151, a guide marker, and the like. The map corresponding | compatible apparatus 152, the vehicle CV value acquisition apparatus 153, the marker coordinate reader 154, the iterative calculation apparatus 155, and the output device 156 are provided.
案内マーカ検出装置151は、車載カメラによる道路及び道路近傍のリアルタイム映像内に写っている複数の案内マーカ映像を検出する。
案内マーカ地図対応装置152は、検出された案内マーカ映像と三次元機械地図上の案内マーカ図形とを対応させる。
車両CV値取得装置153は、案内マーカ地図対応装置により、対応した複数の案内マーカ図形が持っているそれぞれの座標から、当該車両の座標と姿勢を演算で求める。
マーカ座標読み取り装置154は、当該車両の進行に応じて、次々と新しく現れる案内マーカの座標を三次元機械地図上の新しい案内マーカ図形の座標を読み取る。
The guidance marker detection device 151 detects a plurality of guidance marker images captured in a real-time image of the road and the vicinity of the road by the in-vehicle camera.
The guidance marker map corresponding | compatible apparatus 152 matches the detected guidance marker image | video with the guidance marker figure on a three-dimensional machine map.
The vehicle CV value acquisition device 153 obtains the coordinates and orientation of the vehicle from the coordinates of the corresponding guide marker graphics by the guidance marker map correspondence device.
The marker coordinate reading device 154 reads the coordinates of the new guide marker figure on the three-dimensional machine map for the coordinates of the guide marker that appears one after another as the vehicle progresses.
繰り返し演算装置155は、マーカ座標読み取り装置154で読み取られた座標を予想位置として座標付近をリアルタイム映像内に検索して、案内マーカ地図対応装置152により、新しい案内マーカ映像と新しい案内マーカ図形とを対応させる。そして、対応の取れた複数の案内マーカ図形が属性として持つ座標から、車両CV値取得装置により、前位置より先に進行した車両の座標と姿勢を演算で求める作業を連続的に続ける。
出力装置156は、上記の繰り返し作業による車両位置と姿勢を連続的に出力することで、常に車両位置を安定的に検出し続ける。
以上により、本実施形態に係る自動運転装置150では、車両の座標と姿勢を常に取得しながら進行させることができるようになる。
The iterative calculation device 155 searches the real-time video for the vicinity of the coordinates using the coordinates read by the marker coordinate reading device 154 as the predicted position, and uses the guide marker map corresponding device 152 to generate a new guide marker image and a new guide marker graphic. Make it correspond. And the operation | work which calculates | requires the coordinate and attitude | position of the vehicle which advanced ahead from the previous position by calculation with the vehicle CV value acquisition device from the coordinates which the plurality of corresponding guide marker figures have as attributes is continuously continued.
The output device 156 continuously detects the vehicle position constantly by continuously outputting the vehicle position and posture by the above repetitive work.
As described above, the automatic driving apparatus 150 according to the present embodiment can be made to advance while always acquiring the coordinates and posture of the vehicle.
なお、以上説明した本発明に係る自動運転装置においても、上述したナビゲーション装置と同様に、車両に積載したリアルタイム映像の記録、及び/又は当該自動運転装置から得られたCV値の記録を元として、事故等の特殊な時点に於いて、当該車両を含む関連対象物それぞれの、及びそれらの関係について力学的解析を行うことができる。
また、リアルタイム映像を前記三次元機械地図と同様のアルゴリズムで分析及び解析して、単純幾何学図形を抽出し、前記三次元機械地図を更新することもできる。
In the automatic driving apparatus according to the present invention described above, similar to the navigation apparatus described above, based on the recording of the real-time video loaded on the vehicle and / or the recording of the CV value obtained from the automatic driving apparatus. At a special point in time, such as an accident, it is possible to perform a mechanical analysis of each of the related objects including the vehicle and their relationship.
The real-time video can be analyzed and analyzed with the same algorithm as the three-dimensional machine map, simple geometric figures can be extracted, and the three-dimensional machine map can be updated.
次に、上述した本発明に係る自動運転装置のより具体的な実施形態について、図29〜図32を参照して説明する。
図29は、本発明に係る三次元機械地図を備えた自動運転装置の好ましい一実施形態の概略構成を示すブロック図である。
同図に示す自動運転装置160は、自動運転を行う車両のおかれている場を認識する場認識装置161と、人間ではなく、機械(コンピュータ)が判断するための三次元機械地図を格納・記憶する三次元機械地図データベース162と、当該車両周辺の障害物認識装置163と、自己位置と姿勢を評定する自己位置評定装置164と、上記各装置の情報から、車両をコントロールするに必要な信号を生成して、車両をコントロールする自動走行装置165を備えている。
Next, a more specific embodiment of the above-described automatic driving apparatus according to the present invention will be described with reference to FIGS.
FIG. 29 is a block diagram showing a schematic configuration of a preferred embodiment of an automatic driving apparatus having a three-dimensional machine map according to the present invention.
The automatic driving device 160 shown in the figure stores a field recognition device 161 for recognizing a place where a vehicle that performs automatic driving is placed, and a three-dimensional machine map for a machine (computer) to judge, not a human. 3D machine map database 162 to be stored, obstacle recognition device 163 around the vehicle, self-position evaluation device 164 for evaluating the self-position and posture, and signals necessary for controlling the vehicle from the information of each device And an automatic travel device 165 for controlling the vehicle.
場認識装置161は、自動運転を行う「場」である環境そのものの情報を取得する。車両が存在する環境の三次元空間、気候、時間、場所等の情報を取得する。場認識装置161により、場の情報の中に、車両自身を位置づけることではじめて自動運転の条件が整う。
三次元機械地図データベース162は、車両が利用する全ての空間の三次元機械地図を格納している。
ここには、車両の存在する空間、これから向かうべき空間とその属性を登録してある。
また、三次元機械地図は他の装置との連携もあり、その利用範囲も多い。他の装置との関連での利用では、必ずしも三次元機械地図を必要としない装置(例えば三次元機械地図データベース162、自動走行装置165等)もあるが、有ることでその装置の機能を高度に発揮できることになる。
The field recognition device 161 acquires information on the environment itself, which is a “field” for automatic driving. Obtain information such as the three-dimensional space, climate, time, and location of the environment where the vehicle is located. The field recognition device 161 sets the conditions for automatic driving only after the vehicle itself is positioned in the field information.
The three-dimensional machine map database 162 stores a three-dimensional machine map of all spaces used by the vehicle.
Here, the space where the vehicle exists, the space to go from now on and its attributes are registered.
In addition, the 3D machine map is linked to other devices and has a wide range of uses. There are devices that do not necessarily require a three-dimensional machine map (for example, a three-dimensional machine map database 162, an automatic travel device 165, etc.) for use in connection with other devices. It can be demonstrated.
障害物認識装置163は、車両の周囲の障害物を認識する機能を発揮する。具体的には、対向車両や並進車両、道路又は横断歩道を横断する歩行者、道路落下物、等車両走行に障害となるもの又は歩行者に危険を及ぼす可能性のある歩行者との関係等を認識する。
自己位置評定装置164は、三次元機械地図の中での自分の位置と姿勢を精度良く決定するという、自動運転にとって最も基本的な作業を行う。
具体的には、自己位置評定装置164による自己位置評定は、車両に設置したカメラからのリアルタイム映像と三次元機械地図を比較して、三次元機械地図に対しての自車両の位置と姿勢を精読良く求めることになる。位置と姿勢を表す物理的パラメータの数は6であり、6自由度を持つカメラ位置と姿勢を決定することに等しい。さらに、リアルタイム映像のみからも、相対値としてのCV値を取得することが可能であり、双方から精度の高い自己位置評定を行う。
自動走行装置165は、上記の場認識装置161、三次元機械地図データベース162、障害物認識装置163、自己位置評定装置164からの情報を統合し、自動走行に必要な制御信号を生成する。
The obstacle recognition device 163 exhibits a function of recognizing obstacles around the vehicle. Specifically, relations with oncoming vehicles, translational vehicles, pedestrians crossing roads or pedestrian crossings, road falling objects, obstacles to vehicle driving, or pedestrians that may pose a danger to pedestrians, etc. Recognize
The self-position assessment device 164 performs the most basic work for automatic driving, which accurately determines its position and posture in the three-dimensional machine map.
Specifically, the self-position evaluation by the self-position evaluation device 164 compares the real-time video from the camera installed on the vehicle with the three-dimensional machine map, and determines the position and posture of the own vehicle relative to the three-dimensional machine map. It will be demanded carefully. The number of physical parameters representing the position and orientation is 6, which is equivalent to determining the camera position and orientation having 6 degrees of freedom. Furthermore, it is possible to acquire a CV value as a relative value only from a real-time video, and perform highly accurate self-position evaluation from both.
The automatic traveling device 165 integrates information from the field recognition device 161, the three-dimensional machine map database 162, the obstacle recognition device 163, and the self-position evaluation device 164, and generates a control signal necessary for automatic traveling.
次に、以上のような三次元機械地図を備えた自動運転装置のより具体的な実施形態を説明する。
まず、本発明の一実施形態に係る自動運転装置の基本原理について、図30を参照して説明する。
同図に示すように、本実施形態に係る自動運転装置170は、三次元機械地図装置171を備えるとともに、空間解析装置172と、概略位置評定装置173と、相対自己位置姿勢評定装置174と、絶対自己位置姿勢評定装置175と、移動体分離装置176と、移動体位置姿勢評定装置177と、対象物認識装置178と、移動体認識装置179と、判断装置180と、制御装置181と、表示装置182と、CV映像更新装置183と、CV映像データベース184とを備えた構成となっている。
Next, a more specific embodiment of the automatic driving apparatus provided with the above three-dimensional machine map will be described.
First, the basic principle of the automatic driving apparatus according to an embodiment of the present invention will be described with reference to FIG.
As shown in the figure, the automatic driving device 170 according to the present embodiment includes a three-dimensional mechanical map device 171, a spatial analysis device 172, an approximate position rating device 173, a relative self-position / posture rating device 174, Absolute self-position / posture evaluation device 175, moving body separation / posture evaluation device 176, mobile body position / posture evaluation device 177, object recognition device 178, mobile body recognition device 179, determination device 180, control device 181 and display The apparatus includes a device 182, a CV video update device 183, and a CV video database 184.
三次元機械地図装置171は、人間ではなく、機械(コンピュータ)が判断するための三次元地図を任意に読み出す。
空間解析装置172は、三次元機械地図と車両に積載したカメラにより取得されるリアルタイム映像の対応により、自動運転を行う車両のおかれている環境に関して三次元的に解析する。
概略位置評定装置173は、例えばGPS等の既知の技術により、車両の概略位置を評定・特定する。
相対自己位置姿勢評定装置174は、リアルタイム映像をCV演算して、相対的な座標と姿勢を求める。
The three-dimensional machine map device 171 arbitrarily reads a three-dimensional map for a machine (computer) to judge, not a human.
The space analysis device 172 performs a three-dimensional analysis on the environment in which the vehicle performing automatic driving is located, by using a correspondence between the three-dimensional mechanical map and a real-time image acquired by a camera mounted on the vehicle.
The approximate position rating device 173 evaluates and specifies the approximate position of the vehicle using a known technique such as GPS.
The relative self-position / posture evaluation device 174 calculates a relative coordinate and posture by CV-calculating the real-time video.
絶対自己位置姿勢評定装置175は、概略位置評定装置173で得られた概略位置と相対自己位置姿勢評定装置174で得られた相対な座標と姿勢から、車両位置を絞り込み、その範囲で三次元機械地図の中にリアルタイム映像との対応により、一致点を探して、精度の高い現在位置座標と姿勢を絶対値で求める。
移動体分離装置176は、リアルタイム映像に関する多くの特徴点をトラッキングし、その中から、移動体のトラッキング成分を演算により抽出し、静止座標系から移動体映像成分を分離する。
移動体位置姿勢評定装置177は、移動体分離装置176で得られた移動体映像成分に係わる移動体トラッキング成分から移動体の位置と姿勢を抽出する。
The absolute self-position / posture evaluation device 175 narrows down the vehicle position from the approximate position obtained by the approximate position-assessment device 173 and the relative coordinates and posture obtained by the relative self-position / posture evaluation device 174, and the three-dimensional machine within that range is narrowed down. A matching point is searched for by matching with a real-time image in the map, and the current position coordinates and posture with high accuracy are obtained as absolute values.
The moving body separation device 176 tracks many feature points related to the real-time video, extracts a tracking component of the moving body from among them, and separates the moving body video component from the stationary coordinate system.
The moving object position / posture evaluation device 177 extracts the position and posture of the moving object from the moving object tracking component related to the moving object image component obtained by the moving object separation device 176.
対象物認識装置178は、車両走行に関係する他車両や、障害物等を登録されている属性と比較して、対象物を認識する。
移動体認識装置179は、移動体の属性を知る必要がある場合には、登録されている属性と比較して、移動体の属性種別を決定する。
判断装置180は、上記の全ての装置の全部又は一部からの情報、又はその一部を取り入れて、安全を判断し、適切な進路を選択し、車両制御に必要な信号を生成する。
制御装置181は、車両制御に必要な信号によって車両を安全で適切に制御する。
表示装置182は、上記の全装置からの情報、又はその一部の信号、制御内容等を表示する。
The object recognition device 178 recognizes an object by comparing other vehicles related to vehicle travel, obstacles, and the like with registered attributes.
When the mobile object recognition device 179 needs to know the attribute of the mobile object, the mobile object recognition device 179 determines the attribute type of the mobile object in comparison with the registered attribute.
The determination device 180 takes in information from all or a part of all of the above devices, or a part thereof, determines safety, selects an appropriate course, and generates a signal necessary for vehicle control.
The control device 181 controls the vehicle safely and appropriately by signals necessary for vehicle control.
The display device 182 displays information from all the above devices, or some signals, control contents, and the like.
CV映像更新装置183は、三次元機械地図が存在しない、あるいは、地図と現実が一致しない地域・現場において、新規に映像を取得しながらCV演算をしたCV映像を、空間解析装置172から取り込む。
CV映像データベース184は、CV映像更新装置183から取り込まれたCV映像を格納・記憶する記憶手段であり、CV映像更新装置183により更新又は追加されたCV映像により、随時データベースの内容が更新される。
そして、このCV映像データベース184により、三次元機械地図装置171の内容が更新される。
The CV video update device 183 fetches from the spatial analysis device 172 a CV video obtained by performing a CV calculation while acquiring a new video in a region / site where a three-dimensional mechanical map does not exist or does not match the actual map.
The CV video database 184 is a storage unit that stores and stores the CV video captured from the CV video update device 183, and the contents of the database are updated as needed by the CV video updated or added by the CV video update device 183. .
Then, the contents of the three-dimensional machine map device 171 are updated by the CV video database 184.
以上のような構成からなる本実施形態の自動運転装置170は、具体的には以下のように動作する。
空間解析装置172では、自動運転を行う「場」である環境そのものの情報を取得する。
具体的には、車両が存在する環境の三次元空間、気候、時間、場所等の情報を取得する。
この空間解析装置172により、場の情報の中に、車両自身を位置づけることで初めて自動運転の条件が整う。
Specifically, the automatic driving apparatus 170 of the present embodiment configured as described above operates as follows.
The space analysis device 172 acquires information on the environment itself, which is a “place” for automatic driving.
Specifically, information such as the three-dimensional space, climate, time, and location of the environment in which the vehicle exists is acquired.
This spatial analysis device 172 establishes the conditions for automatic driving only by positioning the vehicle itself in the field information.
また、空間解析装置172は、リアルタイム映像を取得するとともに、リアルタイム映像からCV値を取得し、取得したCV値により、三次元空間の概略と自車位置と姿勢の関係を求める。
このCV値の演算は、上述したCV値取得装置136(図26参照)におけるのと同様に行うことができる(図13〜図25参照)。
ここで、リアルタイム映像を取得するには、例えば、上述した図14に示したような車載カメラにより取得できるが、本実施形態では、図31に示すように、複数のカメラを車両の屋根等に所定の配置レイアウトで設定することでリアルタイム映像を取得するようにしてある。
In addition, the space analysis device 172 acquires a real-time video image, acquires a CV value from the real-time video image, and obtains the outline of the three-dimensional space and the relationship between the vehicle position and the posture based on the acquired CV value.
The calculation of the CV value can be performed in the same manner as in the CV value acquisition device 136 (see FIG. 26) described above (see FIGS. 13 to 25).
Here, in order to acquire the real-time video, for example, it can be acquired by the in-vehicle camera as shown in FIG. 14 described above. However, in this embodiment, as shown in FIG. Real-time video is acquired by setting with a predetermined layout.
具体的には、図31に示すように、カメラ1とカメラ2の二個対になった複合カメラを用い、それぞれ水平視野角135度を確保し、合成視野角として270度以上の水平視野角を確保する。二個のカメラで合成視野角270度を確保できないときは、三個のカメラとすることで目的の合成視野角を確保すればよい。
このような対のカメラを車両の4カ所(車両前方2カ所、後方2カ所)に取り付けて、水平方向には360度の全周視野を確保し、後述するように、一部重複視野としてその視差も利用する。重複視野については後述する。
これにより、本実施形態では、4カ所計8個のカメラで水平方向全視野を確保していることになる。この計8個のカメラから得られる映像を結合合成して全周映像を生成する。以下これをリアルタイム映像として扱う。
なお、図31に示すように、車両の屋根中央部分(図31のA)の位置に、水平全方向を撮影できる全周カメラを取り付けるようにしても良い。
Specifically, as shown in FIG. 31, two pairs of cameras 1 and 2 are used to secure a horizontal viewing angle of 135 degrees and a combined viewing angle of 270 degrees or more. Secure. If the combined viewing angle of 270 degrees cannot be secured with two cameras, the desired combined viewing angle may be secured by using three cameras.
Attach such a pair of cameras at four locations of the vehicle (two locations at the front of the vehicle and two locations at the rear) to secure a 360-degree view of the entire circumference in the horizontal direction. Parallax is also used. The overlapping visual field will be described later.
Thereby, in this embodiment, a total field of view in the horizontal direction is ensured by a total of eight cameras at four locations. All-round images are generated by combining and synthesizing images obtained from these eight cameras. This is treated as real-time video below.
In addition, as shown in FIG. 31, you may make it attach the perimeter camera which can image | photograph all horizontal directions in the position of the roof center part (A of FIG. 31) of a vehicle.
また、リアルタイム映像をCV演算することで、CV値を取得することができる。このCV値を得るためのCV演算の詳細については上述した通りである(図13〜図25参照)。
一方、三次元機械地図は三次元機械地図装置に記録してあり、概略位置評定装置173で、概略位置を指定して、その付近の三次元機械地図を取り出すことができる。
三次元機械地図を生成するには、全周映像をCV演算し、鉛直補正し、絶対座標を付加するなどの処理の後に、CV映像を生成する。
そして、CV映像から、新たな特徴点を三次元計測しながら、単純幾何学図形に分解することで、三次元機械地図を生成する。
三次元機械地図とリアルタイム映像の対比により、リアルタイム映像のカメラ位置を演算で求める方法は上述した通りである(図26参照)。
Also, the CV value can be obtained by performing CV calculation on the real-time video. Details of the CV calculation for obtaining the CV value are as described above (see FIGS. 13 to 25).
On the other hand, the three-dimensional machine map is recorded in the three-dimensional machine map device, and the approximate position evaluation device 173 can designate the approximate position and take out the nearby three-dimensional machine map.
In order to generate a three-dimensional machine map, a CV image is generated after processing such as CV calculation of the entire circumference image, vertical correction, and addition of absolute coordinates.
Then, a new feature point is three-dimensionally measured from the CV image and decomposed into a simple geometric figure to generate a three-dimensional machine map.
The method for calculating the camera position of the real-time video by comparing the three-dimensional machine map and the real-time video is as described above (see FIG. 26).
ここで、三次元機械地図が存在しない地域、あるいは、例えば現場が工事されているなどして地図と現実が一致しない地区を通行するような場合は、当該自動運転車両は新規に映像を取得しながらCV演算をして、空間解析装置172からのCV映像をCV映像更新装置183に取り込み、CV映像データベース184の内容(現地の内容)を更新するか、新規に追加する。更新又は追加されたCV映像データベース184により、三次元機械地図装置171の内容が更新される。
このように、本実施形態では、地図と現実が一致しない地区を走行する場合と、地図に存在しない地域を走行する場合には、三次元機械地図の元となるCV映像を追加又は更新しながら進むことができる。
Here, if the vehicle does not pass the area where the 3D machine map does not exist or the site does not match the reality, for example, the site is under construction, the autonomous driving vehicle will acquire a new video. While performing the CV calculation, the CV video from the space analysis device 172 is taken into the CV video update device 183, and the content (local content) of the CV video database 184 is updated or newly added. The contents of the three-dimensional machine map apparatus 171 are updated by the updated or added CV video database 184.
As described above, in the present embodiment, when traveling in a region where the map and the reality do not match and when traveling in a region that does not exist on the map, the CV video that is the basis of the three-dimensional machine map is added or updated. You can go forward.
なお、車両の走行にはリアルタイム処理が求められるので、CV映像を三次元機械地図に変換する必要はなく、CV映像をそのまま三次元地図として利用することができる。
CV映像そのものであっても、三次元機械地図の目的は達成することができるので、CV映像をそのまま三次元機械地図の代わりにすることが可能である。三次元機械地図装置171に格納される三次元機械地図は、データ量を極力少なくすることを最大の目的としているのであり、例えば、データ量が問題とならないような場合には、CV映像を三次元機械地図の代わりとすることは可能である。
Since real-time processing is required for vehicle travel, it is not necessary to convert the CV video into a three-dimensional machine map, and the CV video can be used as it is as a three-dimensional map.
Even if it is a CV image itself, the purpose of the three-dimensional machine map can be achieved. Therefore, the CV image can be used as it is instead of the three-dimensional machine map. The three-dimensional machine map stored in the three-dimensional machine map device 171 has a main purpose of reducing the data amount as much as possible. For example, when the data amount does not cause a problem, the CV video is converted into a tertiary image. It is possible to replace the original machine map.
ただし、CV映像のままでは更新地域が増大するとデータ量が増大するので、CV映像と三次元機械地図を適宜併用することが好ましい。
このようにして、本実施形態では、地図のないところは地図を作りながら走行することが可能となる。
CV映像は記録され、後処理で三次元機械地図に変換される。更新情報は通信で他社に伝達することも可能である。
実際には、地図のない地域では地図生成専用の車両を走行させ、地図データの更新には更新専用車両を走行させることが一般的である。
However, since the amount of data increases when the update area increases if the CV video is used as it is, it is preferable to appropriately use the CV video and the three-dimensional machine map.
In this way, in this embodiment, it is possible to travel where there is no map while making a map.
The CV video is recorded and converted into a three-dimensional machine map by post-processing. Update information can also be transmitted to other companies via communication.
In practice, it is common to drive a map-dedicated vehicle in an area without a map, and to update a map data, to drive an update-only vehicle.
次に、概略位置評定装置173により、GPS等を設置した車両概略位置が求められ、現場の概略位置を出力して、それを三次元機械地図装置509に送ることで、概略位置の三次元機械地図が次々出力される。
一方、空間解析装置172からのリアルタイム映像をCV演算することにより、相対自己位置姿勢評定装置174で相対的な自己位置と姿勢が決定される。
ここで、「相対的」とは、緯度経度高度に関する絶対座標を持たないことを意味する。
なお、本実施形態の自動運転装置170では、空間解析装置172の8個のカメラの視野が重複しているので(図31参照)、一部視差のある映像を取得することができ、距離長さに関しては相対的ではなく、長さの単位スケールを持つことができる。
Next, the approximate position evaluation device 173 obtains the approximate position of the vehicle where the GPS or the like is installed, outputs the approximate position of the site, and sends it to the three-dimensional machine map device 509 so that the approximate position of the three-dimensional machine Maps are output one after another.
On the other hand, the relative self-position and posture are determined by the relative self-position posture evaluation device 174 by performing CV calculation on the real-time video from the space analysis device 172.
Here, “relative” means having no absolute coordinates related to the latitude and longitude altitude.
In the automatic driving device 170 of the present embodiment, since the visual fields of the eight cameras of the space analysis device 172 overlap (see FIG. 31), it is possible to acquire a video with a partial parallax, and the distance length You can have a unit scale of length, not relative.
次に、リアルタイム映像と三次元機械地図装置171から出力される概略位置近傍の三次元機械地図との比較により、当該車両の、正確には当該車両に積載したそれぞれのカメラの、絶対位置が求められる。
本実施形態では、この三次元機械地図とリアルタイム映像の比較に、端点、直接による単純幾何学図形と指定マーカ図形、統一形状マーカ図形を用いるものとする(図27参照)。
これにより、三次元機械地図は、端点、直線以外に、案内マーカが登録されていて、中心座標を示していることで、その絶対三次元座標を取得することが可能となる。
すなわち、単純幾何学図形とマーカ図形を一致する地点と姿勢を探し出す作業を自動的に行うことで、カメラのそれぞれの位置を三次元機械地図上で決定できることになる。このようにして当該車両の絶対自己位置と姿勢が求められる。
Next, by comparing the real-time image with the three-dimensional mechanical map in the vicinity of the approximate position output from the three-dimensional mechanical map device 171, the absolute position of each camera mounted on the vehicle is calculated. It is done.
In the present embodiment, it is assumed that an end point, a direct simple geometric figure, a designated marker figure, and a unified shape marker figure are used for comparison between the three-dimensional machine map and the real-time image (see FIG. 27).
As a result, in the 3D machine map, in addition to the end points and straight lines, guide markers are registered and the center coordinates are indicated, so that the absolute 3D coordinates can be acquired.
That is, by automatically searching for a point and posture where the simple geometric figure matches the marker figure, each position of the camera can be determined on the three-dimensional machine map. In this way, the absolute self position and posture of the vehicle are obtained.
ここで、絶対自己位置姿勢評定装置175によって絶対自己位置姿勢を精度良く求めるには演算時間もそれなりにかかることから、システムの効率の点を考慮して、本実施形態では、絶対自己位置姿勢評定演算の頻度は、毎秒30フレームで出力するリアルタイム映像のフレームを間引いて毎秒5フレームとする。
さらに、リアルタイム映像から毎秒5フレームの間欠フレームで、絶対自己位置姿勢を精度良く求め、その中間は毎秒30フレームのリアルタイム映像を直接CV演算したCV値(相対自己位置姿勢評定装置174の出力)を内挿して求める。あるいは、内挿のための信号にはこれ以外にも、自車両の車速パルス又は加速度計とジャイロの組み合わせ等でも良い。
Here, since it takes a certain amount of time to calculate the absolute self-position / posture accurately by the absolute self-position / posture evaluation device 175, in consideration of the efficiency of the system, in this embodiment, the absolute self-position / posture evaluation is performed. The calculation frequency is set to 5 frames per second by thinning out frames of real-time video output at 30 frames per second.
Furthermore, the absolute self-position / posture is obtained accurately from intermittent frames of 5 frames per second from the real-time video, and the middle is a CV value (output of the relative self-position / posture assessment device 174) obtained by direct CV calculation of the real-time video of 30 frames per second. Find by interpolation. Alternatively, the signal for interpolation may be a vehicle speed pulse of the own vehicle or a combination of an accelerometer and a gyro.
対象物認識装置178は、長さの単位スケールを持つこの状態のCV映像で処理することが十分可能であるが、本実施形態では、対象物認識を上述したPRM方式で行うこともできる。なお、PRM方式による場合、対象物のデータベースに登録されたパーツを検索するため、後の過程の三次元機械地図により絶対自己位置姿勢評定装置175による処理を行った後に、対象物認識を行うことが望ましい。
絶対自己位置姿勢が演算によって求まることで、CV映像を利用することができ、これによって、対象物を三次元空間で切り取ることが容易になる。
対象物は複数のCV映像のフレームで重複しているが、三次元座標の絶対値が求められていることで、関連する複数のフレームから対象物を切り出して処理することができることになり、精度、認識確度が向上する。
The object recognition device 178 can sufficiently process the CV video in this state having a unit scale of length, but in this embodiment, the object recognition can also be performed by the above-described PRM method. In the case of the PRM method, in order to search for parts registered in the object database, the object recognition is performed after the processing by the absolute self-position / posture evaluation device 175 is performed using a three-dimensional machine map in the later process. Is desirable.
By obtaining the absolute self-position / posture by calculation, a CV image can be used, and this makes it easy to cut out an object in a three-dimensional space.
Although the object overlaps in a plurality of CV video frames, since the absolute value of the three-dimensional coordinates is obtained, the object can be cut out from a plurality of related frames and processed. , Recognition accuracy is improved.
移動体分離装置176においては、CV映像に多数の特徴点を設定し、それらの特徴点について、静止座標系に属するものと、移動体座標系に属するものとに分離することができる。
移動体位置姿勢評定装置177では、移動体座標系に属する特徴点のトラッキングデータと、重複する視野の視差からスケールを求め、移動体の静止座標系に対する位置、速度、加速度、姿勢、方向、角速度、角加速度等を演算で求めることができる。
これは、並進する車両や対向車の速度のみならず、その姿勢や回転角速度等も全て自車両と同様に演算で求めることを意味する。
従って、自車両の速度姿勢のコントロールのための情報としてのみならず、当該情報を記録しておくことで、走行の解析や、自己解析にも極めて有益である。
In the moving body separating apparatus 176, a large number of feature points can be set in the CV video, and these feature points can be separated into those belonging to the stationary coordinate system and those belonging to the moving body coordinate system.
The moving object position / posture evaluation device 177 obtains a scale from the tracking data of the feature points belonging to the moving object coordinate system and the parallax of the overlapping visual field, and the position, velocity, acceleration, posture, direction, angular velocity of the moving object with respect to the stationary coordinate system. Angular acceleration and the like can be obtained by calculation.
This means that not only the speed of the vehicle to be translated or the oncoming vehicle, but also the attitude, the rotational angular velocity, and the like are all obtained by calculation in the same manner as the own vehicle.
Therefore, not only as information for controlling the speed and orientation of the host vehicle, but also by recording the information, it is extremely useful for running analysis and self-analysis.
移動体認識装置179では、移動体位置姿勢評定装置177で、移動体のCV値が既知となることで、さらに、PRM方式により移動体の候補をデータベースから検索することで、移動体の認識を可能とする。
ここまでで、リアルタイム映像のCV値、自車両の位置と姿勢の絶対値、速度、加速度、回転、進行方向、回転角速度、三次元機械地図における座標値付近の属性部品、対象物認識結果、対向車両、並進車両等の位置と姿勢の絶対値、速度、加速度、回転、進行方向、回転角速度、移動体認識結果、等の情報が取得される。
そして、これらの情報が判断装置180に入力され、人工知能により安全走行条件と適性走行条件を満たす自車両の走行条件を決定し、自車両の制御信号に変換される。
In the mobile object recognition device 179, when the mobile object position / posture evaluation device 177 knows the CV value of the mobile object, the mobile object recognition is further performed by searching the database for candidates for the mobile object using the PRM method. Make it possible.
Up to this point, the CV value of the real-time video, the absolute value of the position and orientation of the host vehicle, the speed, the acceleration, the rotation, the traveling direction, the rotational angular velocity, the attribute parts near the coordinate values in the 3D machine map, the object recognition result, the opposite Information such as absolute values of position and orientation, speed, acceleration, rotation, traveling direction, rotational angular velocity, moving object recognition result, and the like of a vehicle, a translation vehicle, and the like is acquired.
These pieces of information are input to the determination device 180, and the driving conditions of the host vehicle satisfying the safe driving conditions and the appropriate driving conditions are determined by artificial intelligence, and converted into control signals for the host vehicle.
さらには、対向車両、並進車両に対しても、自車両走行条件を送信して、相手車両の走行条件に追加することも可能である。同様に他車両からの信号を通信手段で取得して、自車両の判断装置512に反映させることも可能である。
制御装置181では、このようにして取得された自車両の制御信号により、自車両の速度、方向、さらには複数のサスペンション、ホイールをそれぞれ独立にコントロールし、あるいはヘッドライト方向をコントロールすることで、実際の車両走行をコントロールすることができる。
また、車両の自動運転・手動運転は、任意に切り替えことが可能で、運転者が同乗している場合もあるので、コントロール信号を可視化して、表示装置182に表示することができるようになっている。
Furthermore, it is also possible to transmit the own vehicle travel condition to the oncoming vehicle and the translation vehicle and add it to the travel condition of the opponent vehicle. Similarly, a signal from another vehicle can be acquired by the communication means and reflected on the determination device 512 of the host vehicle.
In the control device 181, by controlling the speed and direction of the own vehicle, and also a plurality of suspensions and wheels independently by the control signal of the own vehicle acquired in this way, or by controlling the headlight direction, The actual vehicle travel can be controlled.
Further, automatic driving / manual driving of the vehicle can be arbitrarily switched, and the driver may be in the vehicle, so that the control signal can be visualized and displayed on the display device 182. ing.
表示装置182には、上述した8個のカメラ(図31参照)からの映像を結合表示することで、サラウンドビュウや、超広角バックモニターを実現している。
この表示装置182における表示例を図32〜図34に示す。
図32はサラウンドビュウの表示例、図33は超広角バックモニターの表示例、図34はリアルタイムCV映像にCGガイドを付加した表示例である。
The display device 182 realizes a surround view and a super-wide-angle back monitor by combining and displaying images from the eight cameras (see FIG. 31) described above.
Display examples on the display device 182 are shown in FIGS.
FIG. 32 shows a display example of surround view, FIG. 33 shows a display example of an ultra-wide-angle back monitor, and FIG. 34 shows a display example in which a CG guide is added to a real-time CV video.
以上、本実施形態に係る自動運転装置170について説明したが、本実施形態に係る自動運転装置170は、上述した構成・動作に限定されるものではなく、種々の追加・変更が可能である。
例えば、三次元機械地図に目的地や通過地をセットすることで、リアルタイム映像の中に、案内CGを表示することができる。また、表示画面上の案内CGを指先等の手段でクリックすると案内の内容が表示され、案内先との通信が可能となる。
また、三次元機械地図又はCV映像を当該表示装置に表示し、予定の基本走行経路を三次元機械地図上に自動又は手動で記載し、その基本走行経路を自動走行し、障害物や交通状況に応じて、進路変更し、経路変更し、速度変更し、障害物を避け、目的地まで到達することができる。
さらに、道路定点の設置されたカメラからの映像を、通信手段を介して受信し、三次元機械地図やV映像に座標統合して合成することができ、表示装置182を介して、矛盾の無い位置と姿勢の関係で表示することもできる。
Although the automatic driving apparatus 170 according to the present embodiment has been described above, the automatic driving apparatus 170 according to the present embodiment is not limited to the configuration and operation described above, and various additions and changes can be made.
For example, the guidance CG can be displayed in the real-time video by setting the destination and passing place on the three-dimensional machine map. Further, when the guidance CG on the display screen is clicked with a fingertip or the like, the contents of the guidance are displayed, and communication with the guidance destination becomes possible.
In addition, a 3D machine map or CV video is displayed on the display device, a scheduled basic travel route is automatically or manually described on the 3D machine map, the basic travel route is automatically traveled, and obstacles and traffic conditions Depending on the route, you can change course, change route, change speed, avoid obstacles and reach your destination.
Furthermore, it is possible to receive an image from a camera on which a road fixed point is installed via a communication means, and to coordinate and synthesize it with a three-dimensional machine map or a V image, and there is no contradiction via the display device 182. It is also possible to display the relationship between position and posture.
以上、本発明の三次元機械地図と三次元機械地図生成装置、及び三次元機械地図を用いたナビゲーション装置及び自動運転装置について、好ましい実施形態を示して説明したが、本発明は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
例えば、本発明のナビゲーション装置及び自動運転装置は、三次元地図を持つことから、適用する移動体は、地上を走行する車両に限らず、三次元空間を航行するものであっても良い。飛行機でも利用可能であるから、着陸時の精度の高いナビゲーションや自動運転が可能である。ロボットは究極の自動運転でありそのままの利用が可能である。また、宇宙船から見える星や星座を特徴点として、宇宙規模でのナビゲーションや自動運転も可能である。
As described above, the three-dimensional machine map and the three-dimensional machine map generation device, and the navigation device and the automatic driving device using the three-dimensional machine map of the present invention have been described with reference to the preferred embodiments. Needless to say, the present invention is not limited to the embodiments, and various modifications can be made within the scope of the present invention.
For example, since the navigation device and the automatic driving device of the present invention have a three-dimensional map, the moving body to be applied is not limited to a vehicle traveling on the ground, and may be one that navigates a three-dimensional space. Since it can also be used on airplanes, it is possible to perform highly accurate navigation and automatic driving when landing. The robot is the ultimate automatic operation and can be used as it is. In addition, navigation and automatic driving on a cosmic scale are possible by using stars and constellations that can be seen from a spacecraft.
本発明は、例えば、自動車に搭載されるカーナビゲーション装置、飛行機に搭載されるナビゲーション装置、危険な箇所での無人自動運転重機、自動運転用のナビゲーション装置、ロボットのナビゲーション装置などに好適なナビゲーション装置として利用することができる。 The present invention provides a navigation device suitable for, for example, a car navigation device mounted on an automobile, a navigation device mounted on an airplane, an unmanned automatic driving heavy machine in a dangerous place, a navigation device for automatic driving, a robot navigation device, and the like. Can be used as
2 CV演算部
110 三次元機械地図生成装置
111 全周映像撮影装置
112 CV演算装置
113 幾何学的単純図形検出装置
114 三次元座標付加装置
115 属性登録装置
116 三次元機械地図記録装置
120 ナビゲーション装置
121 三次元機械地図
122 リアルタイム映像
123 比較演算装置
124 位置方向評定出力装置
125 車両制御装置
126 案内表示
2 CV operation unit 110 3D machine map generation device 111 All-round video imaging device 112 CV operation device 113 Geometric simple figure detection device 114 3D coordinate addition device 115 Attribute registration device 116 3D machine map recording device 120 Navigation device 121 Three-dimensional machine map 122 Real-time video 123 Comparison calculation device 124 Position / direction rating output device 125 Vehicle control device 126 Guide display
Claims (12)
全周CV映像を取得するCV演算装置と、
前記全周CV映像から、幾何学的単純図形を抽出し、選択し、分離し、その位置座標と姿勢を三次元的に求める幾何学的単純図形検出装置と、
検出された前記幾何学的単純図形に三次元座標を与える三次元座標付加装置と、
検出された前記幾何学的単純図形に属性を与える属性登録装置と、
検出された前記幾何学的単純図形から、三次元空間を再構築し、目的に応じた他の情報を付加することで所定の三次元機械地図を生成して記録する三次元機械地図記録装置と、
を有し、
前記所定の三次元機械地図が、
目的となる三次元空間の一部又は大部分が複数の幾何学的単純図形で置換され、単純化されて再構成された単純化三次元空間データを持ち、それら単純化三次元空間データがコンピュータによって読み取られることで、幾何学的単純図形が前記三次元空間に対応した座標、姿勢、及び/又は属性等の関連データと共に出力されるとともに、
現実空間から取り出した幾何学的単純図形とともに、使用目的に合致した対象物を前記幾何学的単純図形として、再構築した単純化三次元データを持ち、目的となる現実の三次元空間を使用目的に合致させて再構築することで、コンピュータで読み取り、又は書き込み可能であって、前記図形の全ての座標、姿勢、及び/又は属性等の関連データと共に出力される地図データからなり、
この三次元機械地図が、
前記車両の自動運転を目的として、本来運転者が読み取る目的で設置された交通標識、道路表示(地物)、道路案内板等の対象物を幾何学的単純図形として形状分類し、その属性情報と共に対象物が存在する三次元空間の座標に追加して配置するとともに、現実には直接数値表示されていない走行中心線、道路幅員、車線数、道路勾配、回転半径等の自動運転、又は運転アシストに必要な数値属性情報を、車両走行のための三次元空間に対応させて配置することを特徴とする三次元機械地図生成装置。 An in-vehicle all-around video capturing device that acquires all-around video from a running vehicle;
A CV arithmetic unit that acquires all-round CV video;
A geometric simple figure detecting device for extracting, selecting and separating a geometric simple figure from the all-round CV image and obtaining its position coordinate and orientation in three dimensions;
A three-dimensional coordinate adding device for giving three-dimensional coordinates to the detected geometric simple figure;
An attribute registration device for giving an attribute to the detected geometric simple figure;
A three-dimensional mechanical map recording device for reconstructing a three-dimensional space from the detected geometric simple figure and generating and recording a predetermined three-dimensional mechanical map by adding other information according to the purpose; ,
Have
The predetermined three-dimensional machine map is
A part or most of the target three-dimensional space is replaced with a plurality of simple geometric figures, and simplified and reconstructed simplified three-dimensional spatial data is stored. Are read together with related data such as coordinates, postures, and / or attributes corresponding to the three-dimensional space, and
Along with the geometric simple figure extracted from the real space, the object that matches the purpose of use is used as the geometric simple figure, and has the reconstructed simplified three-dimensional data, and the intended real three-dimensional space is used. It can be read or written by a computer by being reconstructed in conformity with the map data output together with related data such as all coordinates, postures, and / or attributes of the figure,
This three-dimensional machine map
For the purpose of automatic driving of the vehicle, objects such as traffic signs, road indications (features), road guide boards, and the like originally installed for the purpose of reading by the driver are classified as geometric simple figures and their attribute information In addition, it is arranged in addition to the coordinates of the three-dimensional space where the object exists, and in addition, automatic driving such as driving center line, road width, number of lanes, road gradient, turning radius, etc. that are not directly numerically displayed in reality A three-dimensional machine map generation device characterized in that numerical attribute information necessary for assisting is arranged in correspondence with a three-dimensional space for vehicle travel.
リアルタイム映像から、及び/又は当該ナビゲーション装置で取得された車両のCV値を用いて解析し、映像内の静止物体の位置と姿勢及び、移動する自車以外の車両の位置、姿勢、回転、速度、加速度等の力学的数値を求め、危険回避行動を行わせることを特徴とするナビゲーション装置。 A navigation device comprising a three-dimensional machine map generated by the three-dimensional machine map generation device according to claim 1,
Analyzed from the real-time video and / or using the CV value of the vehicle acquired by the navigation device, the position and posture of a stationary object in the video, and the position, posture, rotation and speed of a vehicle other than the moving own vehicle A navigation device characterized by obtaining a mechanical numerical value such as acceleration and performing a risk avoidance action.
リアルタイム映像の記録、及び/又は当該ナビゲーション装置から得られたCV値の記録から、事故時の自車を含む関連対象物の力学的解析を行うことを特徴とするナビゲーション装置。 A navigation device comprising a three-dimensional machine map generated by the three-dimensional machine map generation device according to claim 1,
A navigation apparatus characterized in that a mechanical analysis of a related object including an own vehicle at the time of an accident is performed from recording of a real-time video and / or recording of a CV value obtained from the navigation apparatus.
現実の空間に、及び/又はリアルタイム映像に矢印等の案内用のCGを合成し、又は音声によりナビゲーションを実行することを特徴とするナビゲーション装置。 A navigation device comprising a three-dimensional machine map generated by the three-dimensional machine map generation device according to claim 1,
A navigation apparatus characterized by synthesizing a guidance CG such as an arrow or the like in an actual space and / or real-time video, or performing navigation by voice.
リアルタイム映像を前記三次元機械地図と同様のアルゴリズムで分析及び解析して、単純幾何学図形を抽出し、前記三次元機械地図を更新することを特徴とするナビゲーション装置。 A navigation device comprising a three-dimensional machine map generated by the three-dimensional machine map generation device according to claim 1,
A navigation device, wherein real-time video is analyzed and analyzed by an algorithm similar to that of the three-dimensional machine map, simple geometric figures are extracted, and the three-dimensional machine map is updated.
取得された自車両の情報を他車両に配信することにより、当該他車両とで情報交換を行うことを特徴とするナビゲーション装置。 A navigation device comprising a three-dimensional machine map generated by the three-dimensional machine map generation device according to claim 1,
A navigation apparatus, wherein information is exchanged with another vehicle by distributing the acquired information of the own vehicle to the other vehicle.
道路定点に設置されたカメラからの映像を前記三次元機械地図上に、座標統合して、合成して、矛盾無い位置と姿勢の関係で表示することを特徴とするナビゲーション装置。 A navigation device comprising a three-dimensional machine map generated by the three-dimensional machine map generation device according to claim 1,
A navigation apparatus characterized in that an image from a camera installed at a fixed point on a road is coordinate-integrated and synthesized on the three-dimensional machine map, and is displayed with a consistent position and posture relationship.
車両に固定されて設置され、車両周囲の映像を取得する車載カメラ装置と、
当該車載カメラから出力するリアルタイム映像を取得するリアルタイム映像生成装置と、
当該車両に車載された三次元機械地図と前記リアルタイム映像を比較する比較装置と、
当該車両が走行していると予想される地域の範囲で、前記リアルタイム映像内の複数の領域で、一部分の幾何学的成分が前記三次元機械地図の一部分の幾何学成分との対応位置を求めながら、三次元機械地図の視点位置と視点姿勢と視点方向とが近づくように調整し、三次元機械地図の限定された範囲内を探索する再生探索装置と、
前記リアルタイム映像の複数部分が前記三次元機械地図の複数部分に一致したときの三次元機械地図の位置座標と、同様に一致したときの回転座標を出力する一致出力装置と、
当該車両の走行時のリアルタイム映像の各フレームについて、その位置座標と回転座標を求めることで、前記リアルタイム映像のCV値を取得するCV値取得装置と、
当該車両位置と姿勢、速度、加速度、方向、角速度、角加速度等を演算して、リアルタイムで取得する走行情報取得装置と、
前記CV値から、リアルタイム映像内の自車両以外の車両及び障害物等の位置と姿勢、速度、加速度、方向、角速度、角速度等を演算して、リアルタイムで取得する対象物情報取得装置と、
当該車両の走行車線と走行速度と走行方向を決定して走行させる自動走行装置と
を備えることを特徴とする自動運転装置。 An automatic driving device comprising a three-dimensional mechanical map generated by the three-dimensional mechanical map generating device according to claim 1,
An in-vehicle camera device that is fixedly installed in a vehicle and acquires an image around the vehicle;
A real-time video generation device that acquires real-time video output from the in-vehicle camera;
A comparison device for comparing the real-time video with a three-dimensional mechanical map mounted on the vehicle;
In a range of an area where the vehicle is expected to travel, a part of a geometric component in a plurality of regions in the real-time video determines a corresponding position with a part of the geometric component of the three-dimensional machine map. However, a playback search device that adjusts the viewpoint position, viewpoint orientation, and viewpoint direction of the three-dimensional machine map to approach each other, and searches within a limited range of the three-dimensional machine map;
A coincidence output device that outputs position coordinates of a three-dimensional machine map when a plurality of parts of the real-time image coincide with a plurality of parts of the three-dimensional machine map, and a rotation coordinate when the parts coincide with each other;
A CV value acquisition device that acquires the CV value of the real-time video by obtaining the position coordinate and the rotation coordinate for each frame of the real-time video during travel of the vehicle;
A travel information acquisition device that calculates the vehicle position and posture, speed, acceleration, direction, angular velocity, angular acceleration, etc., and acquires in real time;
From the CV value, the object information acquisition device for calculating in real time by calculating the position and posture of the vehicle and obstacles other than the own vehicle and obstacles in the real-time video, speed, acceleration, direction, angular velocity, angular velocity, etc.
An automatic driving device comprising: an automatic travel device that travels by determining a travel lane, a travel speed, and a travel direction of the vehicle.
形状が既知である案内マーカを、前もって道路又は道路近傍に適切な密度で設置し、それを前記三次元機械地図生成装置により、三次元機械地図に対応して反映させた案内マーカ図形を三次元機械地図の三次元空間に対応させた統一形状案内マーカ図形と、
前記案内マーカ図形の元となる映像の一部画像を、そのまま案内マーカ画像として、三次元機械地図の三次元空間に対応させた案内マーカ画像と、を備え、
前記指定案内マーカ図形と統一形状案内マーカの内で図形によるものを案内マーカ図形として属性登録するとともに、画像によるものを案内マーカ画像として属性登録してこれらを組み合わせる請求項8記載の自動運転装置。 In order to use as a coordinate reference when the vehicle is driven by automatic driving, a selected figure or image is selected as a guide marker figure or a guide marker image from a geometric simple figure constituting the three-dimensional machine map. A designated guide marker figure corresponding to the three-dimensional space of
A guide marker having a known shape is installed in advance at an appropriate density on the road or in the vicinity of the road, and the guide marker figure reflected in correspondence with the three-dimensional machine map by the three-dimensional machine map generator is three-dimensional. Unified shape guidance marker figure corresponding to the three-dimensional space of the machine map,
A partial image of the video that is the basis of the guide marker graphic, as it is as a guide marker image, and a guide marker image corresponding to the three-dimensional space of the three-dimensional machine map,
9. The automatic driving apparatus according to claim 8, wherein among the designated guide marker graphic and the unified shape guide marker, an attribute is registered as a guide marker graphic, and an attribute of an image is registered as a guide marker image and combined.
検出された前記案内マーカ映像と三次元機械地図上の案内マーカ図形とを対応させる案内マーカ地図対応装置と、
前記案内マーカ地図対応装置により、対応した複数の案内マーカ図形が持っているそれぞれの座標から、当該車両の座標と姿勢を演算で求める車両CV値取得装置と、
当該車両の進行に応じて、次々と新しく現れる案内マーカの座標を前記三次元機械地図上の新しい案内マーカ図形の座標を読み取るマーカ座標読み取り装置と、
前記座標を予想位置として前記座標付近をリアルタイム映像内に検索して、前記案内マーカ地図対応装置で、新しい案内マーカ映像と新しい案内マーカ図形とを対応させ、対応の取れた複数の案内マーカ図形が属性として持つ座標から、前記車両CV値取得装置により、前位置より先に進行した車両の座標と姿勢を演算で求める作業を連続的に続ける繰り返し演算装置と、
繰り返し作業による車両位置と姿勢を連続的に出力することで、常に車両位置を安定的に検出し続ける出力装置と、を備え、
車両の座標と姿勢を取得しながら進行させる請求項9記載の自動運転装置。 A guidance marker detection device for detecting a guidance marker image reflected in a real-time image of the road and the vicinity of the road by the in-vehicle camera;
A guide marker map corresponding device for associating the detected guide marker image with a guide marker graphic on a three-dimensional machine map;
A vehicle CV value acquisition device for calculating the coordinates and posture of the vehicle from the coordinates of the corresponding guide marker graphics by the guidance marker map correspondence device;
A marker coordinate reading device that reads the coordinates of a new guide marker figure on the three-dimensional machine map, the coordinates of the guide marker newly appearing one after another according to the progress of the vehicle,
By searching for the vicinity of the coordinates in the real-time video with the coordinates as the predicted position, the guide marker map corresponding device associates a new guide marker video with a new guide marker graphic, and a plurality of corresponding guide marker graphics are obtained. A repetitive arithmetic device that continuously continues the operation of calculating the coordinates and posture of the vehicle that has traveled ahead of the previous position by the vehicle CV value acquisition device from the coordinates possessed as attributes;
An output device that continuously outputs the vehicle position and posture due to repetitive work and continuously detects the vehicle position, and
The automatic driving apparatus according to claim 9, wherein the automatic driving apparatus is advanced while acquiring the coordinates and posture of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008105003A JP5227065B2 (en) | 2008-01-25 | 2008-04-14 | 3D machine map, 3D machine map generation device, navigation device and automatic driving device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008015267 | 2008-01-25 | ||
JP2008015267 | 2008-01-25 | ||
JP2008105003A JP5227065B2 (en) | 2008-01-25 | 2008-04-14 | 3D machine map, 3D machine map generation device, navigation device and automatic driving device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009199572A JP2009199572A (en) | 2009-09-03 |
JP5227065B2 true JP5227065B2 (en) | 2013-07-03 |
Family
ID=41142959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008105003A Active JP5227065B2 (en) | 2008-01-25 | 2008-04-14 | 3D machine map, 3D machine map generation device, navigation device and automatic driving device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5227065B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10215572B2 (en) | 2015-11-04 | 2019-02-26 | Toyota Jidosha Kabushiki Kaisha | Map update determination system |
CN111341094A (en) * | 2020-03-31 | 2020-06-26 | 天台县有成汽车用品有限公司 | New forms of energy driven station board formula navigator |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011086111A (en) * | 2009-10-15 | 2011-04-28 | Mitsubishi Electric Corp | Imaging apparatus calibration method and image synthesis device |
US8346466B2 (en) * | 2009-11-11 | 2013-01-01 | Northrop Grumman Guidance & Electronics | Systems and methods for determining heading |
US9684989B2 (en) | 2010-06-16 | 2017-06-20 | Qualcomm Incorporated | User interface transition between camera view and map view |
CN104204726B (en) | 2012-03-06 | 2017-05-31 | 日产自动车株式会社 | Moving object position attitude estimating device and moving object position Attitude estimation method |
JP5910180B2 (en) * | 2012-03-06 | 2016-04-27 | 日産自動車株式会社 | Moving object position and orientation estimation apparatus and method |
JP6044084B2 (en) * | 2012-03-08 | 2016-12-14 | 日産自動車株式会社 | Moving object position and orientation estimation apparatus and method |
US9664528B2 (en) * | 2012-03-27 | 2017-05-30 | Autoliv Asp, Inc. | Inertial sensor enhancement |
JP5921320B2 (en) | 2012-04-27 | 2016-05-24 | 富士通テン株式会社 | Display system, portable device, in-vehicle device, and program |
EP2933790B1 (en) * | 2012-12-12 | 2017-09-27 | Nissan Motor Co., Ltd | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method |
US20150316386A1 (en) | 2014-04-30 | 2015-11-05 | Toyota Motor Engineering & Manufacturing North America, Inc. | Detailed map format for autonomous driving |
US20150316387A1 (en) | 2014-04-30 | 2015-11-05 | Toyota Motor Engineering & Manufacturing North America, Inc. | Detailed map format for autonomous driving |
JP6322812B2 (en) | 2014-08-21 | 2018-05-16 | パナソニックIpマネジメント株式会社 | Information management apparatus, vehicle, and information management method |
DE102014116037A1 (en) * | 2014-11-04 | 2016-05-04 | Connaught Electronics Ltd. | Method for operating a driver assistance system of a motor vehicle, driver assistance system and motor vehicle |
WO2016080452A1 (en) * | 2014-11-19 | 2016-05-26 | エイディシーテクノロジー株式会社 | Automatic driving control device |
AU2016219343B2 (en) * | 2015-02-10 | 2021-09-02 | Mobileye Vision Technologies Ltd. | Sparse map for autonomous vehicle navigation |
KR101711964B1 (en) * | 2015-07-14 | 2017-03-13 | 서울대학교산학협력단 | Free space map construction method, free space map construction system, foreground/background extraction method using the free space map, and foreground/background extraction system using the free space map |
JP6790417B2 (en) * | 2016-03-31 | 2020-11-25 | ソニー株式会社 | Information processing equipment and information processing server |
KR102457265B1 (en) * | 2016-05-25 | 2022-10-20 | 현대모비스 주식회사 | Apparatus for generating top-view image and method thereof |
CN113008263B (en) * | 2016-11-01 | 2024-04-30 | 松下电器(美国)知识产权公司 | Data generation method and data generation device |
JP6821154B2 (en) * | 2016-11-16 | 2021-01-27 | 株式会社岩根研究所 | Self-position / posture setting device using a reference video map |
WO2018142580A1 (en) * | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | Display control apparatus and display control method |
WO2019005547A1 (en) | 2017-06-28 | 2019-01-03 | Panasonic Intellectual Property Corporation Of America | Moving body control apparatus, moving body control method, and training method |
JP7152137B2 (en) * | 2017-08-28 | 2022-10-12 | 株式会社トプコン | Photogrammetry system and photogrammetry method |
JP6954850B2 (en) * | 2018-02-09 | 2021-10-27 | トヨタ自動車株式会社 | Display device |
JP7158881B2 (en) * | 2018-04-10 | 2022-10-24 | キヤノン株式会社 | Image processing device, imaging device, image processing method, and image processing program |
JP7352331B2 (en) * | 2018-05-11 | 2023-09-28 | ジオテクノロジーズ株式会社 | Information processing device, information processing method, and information processing program |
US11136022B2 (en) * | 2018-05-29 | 2021-10-05 | Hitachi Automotive Systems, Ltd. | Road marker detection method |
CN109544443B (en) * | 2018-11-30 | 2023-03-10 | 北京小马智行科技有限公司 | Route map generation method and device |
WO2020123531A1 (en) * | 2018-12-11 | 2020-06-18 | SafeAI, Inc. | Techniques for kinematic and dynamic behavior estimation in autonomous vehicles |
JP7185786B2 (en) * | 2019-10-18 | 2022-12-07 | 株式会社Nttドコモ | Positioning system and terminal |
JP7421923B2 (en) * | 2019-12-23 | 2024-01-25 | フォルシアクラリオン・エレクトロニクス株式会社 | Position estimation device and position estimation method |
CN115239899B (en) * | 2022-06-29 | 2023-09-05 | 北京百度网讯科技有限公司 | Pose map generation method, high-precision map generation method and device |
CN115100362B (en) * | 2022-08-23 | 2022-11-11 | 航天正通汇智(北京)科技股份有限公司 | Space automatic modeling and visualization method based on four-color chart and oblique photography |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005038402A1 (en) * | 2003-10-21 | 2005-04-28 | Waro Iwane | Navigation device |
-
2008
- 2008-04-14 JP JP2008105003A patent/JP5227065B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10215572B2 (en) | 2015-11-04 | 2019-02-26 | Toyota Jidosha Kabushiki Kaisha | Map update determination system |
CN111341094A (en) * | 2020-03-31 | 2020-06-26 | 天台县有成汽车用品有限公司 | New forms of energy driven station board formula navigator |
Also Published As
Publication number | Publication date |
---|---|
JP2009199572A (en) | 2009-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5227065B2 (en) | 3D machine map, 3D machine map generation device, navigation device and automatic driving device | |
JP7040867B2 (en) | System, method and program | |
US12330679B2 (en) | Systems and methods for vehicle navigation | |
US12147242B2 (en) | Crowdsourcing a sparse map for autonomous vehicle navigation | |
JP7432285B2 (en) | Lane mapping and navigation | |
JP7125214B2 (en) | Programs and computing devices | |
US10248124B2 (en) | Localizing vehicle navigation using lane measurements | |
JP4767578B2 (en) | High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device | |
JP4273119B2 (en) | Navigation device | |
JP6821154B2 (en) | Self-position / posture setting device using a reference video map | |
CN115950440A (en) | System and method for vehicle navigation | |
US20230341239A1 (en) | Systems and methods for road segment mapping | |
CN115735168A (en) | Control loop for navigating a vehicle | |
Soheilian et al. | Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas | |
JP4773794B2 (en) | New and old video coordinate integration device | |
BR112019000918B1 (en) | METHOD AND SYSTEM FOR CONSTRUCTING COMPUTER READABLE CHARACTERISTICS LINE REPRESENTATION OF ROAD SURFACE AND NON-TRANSITIONAL MEDIUM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090616 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090824 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20091201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120824 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130111 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130315 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5227065 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |