[go: up one dir, main page]

JP2016057108A - 演算装置、演算システム、演算方法およびプログラム - Google Patents

演算装置、演算システム、演算方法およびプログラム Download PDF

Info

Publication number
JP2016057108A
JP2016057108A JP2014182100A JP2014182100A JP2016057108A JP 2016057108 A JP2016057108 A JP 2016057108A JP 2014182100 A JP2014182100 A JP 2014182100A JP 2014182100 A JP2014182100 A JP 2014182100A JP 2016057108 A JP2016057108 A JP 2016057108A
Authority
JP
Japan
Prior art keywords
moving body
image
position data
reference point
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014182100A
Other languages
English (en)
Inventor
陽 佐々木
Akira Sasaki
陽 佐々木
忠之 伊藤
Tadayuki Ito
忠之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2014182100A priority Critical patent/JP2016057108A/ja
Priority to EP15183526.1A priority patent/EP2993490B1/en
Priority to US14/843,298 priority patent/US10509983B2/en
Priority to CA2903298A priority patent/CA2903298A1/en
Publication of JP2016057108A publication Critical patent/JP2016057108A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

【課題】カメラのキャリブレーションを効率よく行える技術を提供する。
【解決手段】車両100に固定され、外部標定要素が取得されたレーザスキャナ115により、車両100を移動させながらビル131のレーザスキャンを行って基準レーザスキャンデータを取得する。また、この際の特定の時刻に車載のカメラ114でビル131を撮影する。そして、移動した車両100の軌跡に基づき、基準レーザスキャンデータを前記特定の時刻における車両100上での座標系で記述した基準点群位置データを算出する。次に、基準点群位置データにおける特徴点とカメラ114が撮影した画像上の特徴点の対応する点を指定する。最後に、対応点の基準点群位置データと前記画像上の画面座標値との対応関係に基づき、カメラ113の外部標定要素を算出する。
【選択図】図1

Description

本発明は、カメラのキャリブレーションを行う技術に関する。
車両に、GNSSユニット、IMU(慣性計測装置:Inertial Measurement Unit)、カメラ、レーザスキャナ等を搭載し、走行した周囲環境の3Dイメージデータを取得する技術が知られている(例えば、特許文献1を参照)。
特開2013−40886号公報
この技術では、予め車両に対するIMUの位置と姿勢、IMUに対するカメラとレーザスキャナの外部標定要素(位置と姿勢)を取得するキャリブレーションを行う必要がある。通常、キャリブレーションは、製品の出荷時に行われている。しかしながら、ユーザ側の要望として、カメラをユーザが希望する位置や姿勢で取り付けたい場合がある。また、何らかの事情により、カメラの位置や向きを変更したい場合もある。
しかしながら、一般的な手法によるキャリブレーションは、煩雑な手順が必要であり、ユーザ側で行うのは容易ではない。このような背景において、本発明は、カメラのキャリブレーションを効率よく行える技術の提供を目的とする。
請求項1に記載の発明は、移動体に固定され、前記移動体に対する外部標定要素が取得されたレーザスキャナを用い、前記移動体を移動させながら測定対象物のレーザスキャンを行うことで得られたレーザスキャンデータを基準レーザスキャンデータとして取得する基準レーザスキャンデータ取得部と、前記移動体に固定されたカメラを用い、前記移動体の前記移動時における特定の時刻に前記測定対象物を撮影した画像の画像データを取得する画像データ取得部と、前記移動時における前記移動体の軌跡に基づき、前記基準レーザスキャンデータを前記特定の時刻における前記移動体上での座標系で記述した基準点群位置データを算出する基準点群位置データ算出部と、前記基準点群位置データと前記画像における対応点を指定する対応点指定部と、前記対応点の前記基準点群位置データと前記画像における前記対応点の画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素を算出する外部標定要素算出部とを備えることを特徴とする演算装置である。
請求項2に記載の発明は、請求項1に記載の発明において、前記画像は、複数の時刻において撮影され、前記基準点群位置データ算出部は、前記複数の時刻における前記移動体上での座標系で記述した複数の基準点群位置データを算出し、前記対応点指定部は、同時刻において撮影された前記画像および前記基準点群位置データにおける対応点を指定し、前記外部標定要素算出部は、前記複数の時刻において重ねた前記対応点の前記基準点群位置データと前記複数の時刻において重ねた前記対応点の前記画像における画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素の算出を行うことを特徴とする。
請求項3に記載の発明は、移動体に固定され、前記移動体に対する外部標定要素が取得されたレーザスキャナを用い、前記移動体を移動させながら測定対象物のレーザスキャンを行うことで得られたレーザスキャンデータを基準レーザスキャンデータとして取得する基準レーザスキャンデータ取得手段と、前記移動体に固定されたカメラを用い、前記移動体の前記移動時における特定の時刻に前記測定対象物を撮影した画像の画像データを取得する画像データ取得手段と、前記移動時における前記移動体の軌跡に基づき、前記基準レーザスキャンデータを前記特定の時刻における前記移動体上での座標系で記述した基準点群位置データを算出する基準点群位置データ算出手段と、前記基準点群位置データと前記画像における対応点を指定する対応点指定手段と、前記対応点の前記基準点群位置データと前記画像における前記対応点の画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素を算出する外部標定要素算出手段とを備えることを特徴とする演算システムである。
請求項4に記載の発明は、移動体に固定され、前記移動体に対する外部標定要素が取得されたレーザスキャナを用い、前記移動体を移動させながら測定対象物のレーザスキャンを行うことで得られたレーザスキャンデータを基準レーザスキャンデータとして取得する基準レーザスキャンデータ取得ステップと、前記移動体に固定されたカメラを用い、前記移動体の前記移動時における特定の時刻に前記測定対象物を撮影した画像の画像データを取得する画像データ取得ステップと、前記移動時における前記移動体の軌跡に基づき、前記基準レーザスキャンデータを前記特定の時刻における前記移動体上での座標系で記述した基準点群位置データを算出する基準点群位置データ算出ステップと、前記基準点群位置データと前記画像における対応点を指定する対応点指定ステップと、前記対応点の前記基準点群位置データと前記画像における前記対応点の画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素を算出する外部標定要素算出ステップとを備えることを特徴とする演算方法である。
請求項5に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを移動体に固定され、前記移動体に対する外部標定要素が取得されたレーザスキャナを用い、前記移動体を移動させながら測定対象物のレーザスキャンを行うことで得られたレーザスキャンデータを基準レーザスキャンデータとして取得する基準レーザスキャンデータ取得部と、前記移動体に固定されたカメラを用い、前記移動体の前記移動時における特定の時刻に前記測定対象物を撮影した画像の画像データを取得する画像データ取得部と、前記移動時における前記移動体の軌跡に基づき、前記基準レーザスキャンデータを前記特定の時刻における前記移動体上での座標系で記述した基準点群位置データを算出する基準点群位置データ算出部と、前記基準点群位置データと前記画像における対応点を指定する対応点指定部と、前記対応点の前記基準点群位置データと前記画像における前記対応点の画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素を算出する外部標定要素算出部として機能させることを特徴とするプログラムである。
本発明によれば、カメラのキャリブレーションを効率よく行うことができる。
実施形態の概念図である。 演算部のブロック図である。 処理の手順の一例を示すフローチャートである。 基準レーザスキャンデータに係る説明図である。 後方交会法を説明する説明図である。
(構成)
図1には、実施形態の概念図が示されている。本実施形態では、車両100に取り付けたカメラ113の外部標定要素を求める。ここでは、カメラ113の外部標定要素としてIMU114に対する位置と姿勢を用いる。なお、IMU114の計測システム110に対する位置と姿勢は予め決められており、計測システム110の車両100に対する姿勢と位置も予め決められているので、IMU114に対するカメラ113の外部標定要素を求めることは、車両100に対するカメラ113の外部標定要素を求めることと等価である。
車両100には、計測システム110が取り付けられている。計測システム110は、基台上にGNSSユニット111、演算部120、IMU114、カメラ113およびレーザスキャナ115を配置した構造を有している。
GNSSユニット111は、GNSS(Global Navigation Satellite System)を構成する航法衛星からの航法信号を受信し、自身の位置情報と校正された高精度の時刻情報を出力する。カメラ112は、特定の方向に向けられ、向けられた範囲の特定の視野内の動画撮影を行う。カメラ112としては、周囲360°を撮影する全周カメラや広角カメラを用いることもできる。
IMU114は、慣性計測装置であり、加速度を検出し、自身の位置の変化、向きの変化を計測する。レーザスキャナ115は、レーザ光を線状に走査しながら測定対象物に対して照射し、その反射光を検出することで、測定対象物の点群位置データを取得する。車両100を走行させながらレーザスキャナ115によるレーザスキャンを行うことで、レーザスキャナ115が向けられている方向における点群位置データが取得される。
点群位置データは、多数の点の三次元座標のデータにより構成される。点群位置データによれば、三次元座標を特定した点の集合により測定対象物の外形がデータ化される。また、点群位置データは、レーザ光の反射強度の違いに関するデータを含んでおり、この反射強度の違いを輝点の強さの違いとして表示することで、点群位置データを2次元画面上に表示させた際に、測定対象物の外観を点状の輝点の集まりとして視認することができる。
カメラ113、IMU114、レーザスキャナ115および演算部120には、GNSSユニット111からGNSSを利用した同期信号が提供され、各装置は同期して動作する。また、IMU114は、予め地上座標系上で校正されている。地上座標系というのは、地上に固定された絶対座標系であり、GNSSユニットにより測位される地上での位置を記述する3次元直交座標系である。また、IMU114は、GNSSユニット111から得られる位置情報と時刻情報に基づき特定のタイミングで校正される。なお、同期信号を発生する装置を用意し、そこからの同期信号に基づき各部に同期しての動作を行わせる構成も可能である。
計測システム110の車両100に対する位置と姿勢、計測システム110上におけるIMU114の位置と姿勢、IMU114に対するGNSSユニット111の位置(アンテナ部分の位置)、IMU114に対するレーザスキャナ115の位置と姿勢は予め測定され、それらの情報は演算部120内のメモリに記憶されている。つまり、IMU114に対するレーザスキャナ115の外部標定要素は予め取得されている。
カメラ113は、ユーザにより計測システム110の希望する位置に希望する向き(姿勢)で取り付けられている。このため、車両に取り付けられた段階におけるカメラ113のIMU114に対する外部標定要素は明確でない。なお、カメラ113の取り付け位置は、計測システム100の基台上に限定されず、車両100上の任意の位置が可能である。
演算部120は、コンピュータとして機能するハードウェアであり、CPU、メモリ、各種インタフェース、その他必要な電子回路を備えている。演算部120は、図2に示す各機能部を備えたハードウェアとして捉えることができる。なお、図2に示す各機能部は、ソフトウェア的に構成されていてもよいし、その一または複数が専用のハードウェアで構成されていてもよい。演算部120の機能を実行するためのプログラムは、演算部120内のメモリに記憶されている。なお、当該プログラムを外部の記憶媒体に記憶させ、そこから提供する形態も可能である。
演算部120は、レーザスキャンデータ取得部121、画像データ受付部122、基準点群位置データ算出部123、対応点指定部124、外部標定要素算出部125、3次元モデルおよび軌跡算出部127を備えている。なお、図示省略されているが、演算部120は、画像データやレーザスキャンデータを統合的に処理し、車両100が走行した周囲環境の3次元データを得る機能を有している。この3次元データを用いることで、車両100が走行した環境の3次元モデルを作成することができる。
レーザスキャンデータ取得部121は、レーザスキャナ115が測定したレーザスキャンデータを取得する。レーザスキャンデータ取得部121が取得するレーザスキャンデータには、基準レーザスキャンデータが含まれる。基準レーザスキャンデータは、カメラ113のキャリブレーションを行うためのレーザスキャンデータである。この例では、ビル131をスキャン対象(測定対象)としたレーザスキャンデータが基準レーザスキャンデータとなる。また、レーザスキャンデータ取得部121は、基準レーザスキャンデータ以外のスキャンデータも取得する。
画像データ取得部122は、カメラ113が撮影した画像の画像データを取得する。例えば、カメラ113が動画像を撮影した場合、その動画像データが画像データ受付部122で取得される。画像データ取得部122は、カメラ113の外部標定要素を求めるために用いられる比較画像の画像データを取得する。比較画像は、基準レーザスキャンデータに係るスキャン対象(この例では、ビル131)と重複する部分を撮影した画像である。なお、画像データ取得部122は、比較画像以外の画像データも取得する。
基準点群位置データ算出部123は、レーザスキャナ115が測定した基準スキャンデータに基づき、基準点群位置データを作成する。基準点群位置データは、カメラ113が比較画像を撮影した時刻tにおけるIMU座標系(IMU114を原点とするIMU114に固定された座標系)に基準レーザスキャンデータを座標変換することで得られる。
基準レーザスキャンデータは、車両100が移動している最中において取得されるので、各点を得た際の視点の位置(レーザスキャナ115の位置)は、同じではなく、各点を記述する座標系も同じではない。この基準レーザスキャンデータをカメラ113が比較画像を撮影した時刻tにおけるIMU座標系(IMU114を原点とする座標系)で捉え直す演算を行うことで基準点群位置データが得られる。この処理が基準点群位置データ算出部123で行われる。
対応点指定部124は、基準点群位置データ中の特徴点と、カメラ113が撮影した比較画像の中の特徴点とにおける対応する点(共通の点)を指定する。例えば、特定の時刻tにおけるIMU座標系で記述したビル131に係る基準点群位置データを適当なディスプレイ上(例えば、パーソナルコンピュータのディスプレイ上)の左半分に画像表示する。この際、点状の輝点の集合によるビル131の外観が表示される。他方において、時刻tにおいてカメラ113が撮影したビル131の画像を上記のディスプレイ上の右半分に表示する。
この際、当該ディスプレイ上には、車両100上の少し異なる位置から見たビル131の外観を示す2つの画像が表示される。ここで、表示される左側の画像は輝点で構成される点群画像であり、右側の画像は写真画像である。
対応点指定部124では、上記の2つの画像において共通の特徴点が指定される。対応点を指定する方法としては、ユーザが行う方法、ソフトウェア処理により候補点を抽出し、その中からユーザが指定する方法、ソフトウェア処理により自動的に行う方法が挙げられる。
対応点指定部124において指定される対応点の最低数は、用いる標定の手法により異なる。例えば、単写真標定を用いる場合は、最低4点の対応点が指定される。また例えば、DLT法を用いる場合は、最低6点の対応点が指定される。勿論、これらの最低数を超える対応点を指定してもよい。
外部標定要素算出部125は、対応点指定部124で指定された特徴点の三次元座標(IMU座標系での三次元座標)と、対応点指定部124で指定された比較画像中の対応点の画面座標値とに基づき、カメラ113の外部標定要素を算出する。この処理は、単写真標定またはDLT法を用いて行われる。
軌跡算出部127は、車両100が走行した地上座標系上における軌跡を算出する。車両100の軌跡を算出する方法としては、IMU114とGNSSユニット111の出力に基づく方法が挙げられる。また、軌跡算出部127で行われる処理としては、IMU114およびGNSSユニット111の出力と外部の機器の出力とに基づいて車両100の軌跡を算出する処理も可能である。
また、移動する車両から撮影した動画像から、当該車両の移動経路(軌跡)を求める処理を軌跡算出部127において行ってもよい。この技術に関しては、例えば特開2013−186816号公報に記載されている。この場合、カメラ113が撮影した画像を用いて車両100の刻々と変化する位置(すなわち、車両100の軌跡)を算出する処理が軌跡算出部127において行われる。
なお、トータルステーション等の外部に設置された機器により、車両100の軌跡を測定することも可能である。トータルステーションは、測定対象物にレーザ光を照射し、対象物までの測距と方位を刻々と測定し、測定対象物の移動経路を測定する。
(処理の一例)
以下、カメラ113の外部標定要素を取得する処理の手順の詳細な一例を説明する。まず、計測システム110を搭載した車両100を用意する(図1参照)。この段階では、計測システム110の車両100に対する位置と姿勢、計測システム110上におけるIMU114の位置と姿勢、IMU114に対するGNSSユニット111の位置(アンテナ部分の位置)、IMU114に対するレーザスキャナ115の位置と姿勢は予め測定され取得されている。他方において、カメラ113のIMUに対する外部標定要素(IMU114に対する位置と姿勢)は取得されていない。
計測システム110を搭載した車両100を用意したら、適当なキャリブレーション用コース130を走行させる。キャリブレーション用コース130は、直線でビル131のような特徴点を捉えやすい測定対象物をレーザスキャンおよび撮影できる環境が好ましい。
図3に処理の手順の一例を示す。なお、図3の処理の手順を実行するためのプログラムは、演算部120内のメモリ領域に記憶されている。なお、当該プログラムを外部の記憶媒体に記憶させ、そこから提供する形態も可能である。
図3の処理は、キャリブレーション用コース130上で車両100を走行させながら行うことができる。もちろん、基準レーザスキャンデータと比較画像を取得し、その後の適当なタイミングにおいてステップS303以下の処理を行うこともできる。
処理が開始されると、車両100をキャリブレーション用コース130上で走行させながらレーザスキャナ115によるビル131のレーザスキャンを行う(ステップS301)。この処理によって、基準レーザスキャンデータが得られる。
上記のレーザスキャンが行われている期間の適当なタイミングでカメラ113によるビル131の動画撮影を行う(ステップS302)。この動画撮影により比較画像が得られる。この場合、動画中の適当なタイミングにおけるフレーム画像が比較画像として利用される。ここで、動画撮影ではなく、1または複数の写真撮影を行うのでもよい。
次に基準レーザスキャンデータを座標変換し、基準点群位置データを得る(ステップS303)。この処理は、基準点群位置データ算出部123において行われる。以下、ステップS303で行われる処理の詳細について説明する。
基準レーザスキャンデータは、移動しながらのレーザスキャンによって取得される。そのため、レーザスキャナ115が得た基準レーザスキャンデータの原点(視点)は、刻々と移動している。図4には、基準レーザスキャンデータPとPが位置関係を誇張した状態で示されている。図4には、まず点Pのスキャン点が取得され、その後でPのスキャン点が取得され、その際にレーザスキャナ115はOからOに移動した場合が示されている。
図4に示す場合、位置Oにおいて得たスキャン点P、位置Oにおいて得たスキャン点Pといった関係がある。ここで、OとOは異なる位置であるので、2つのスキャン点を記述する座標系1と座標系2は、同じではない。
そこで、以下の原理により、PとPの座標系を統合する。まず、基準スキャンデータを得る過程における車両100の地上座標系上における軌跡を取得する。車両100の地上座標系上における軌跡は、IMU114による計測や外部標定要素が既知であるトータルステーションに車両を自動追尾させることで得られる。車両100の軌跡から、各時刻における車両100の位置と向き(姿勢)が判明する。
他方において、レーザスキャナ115には、基準となる時刻がGNSSユニット111から供給されているので、基準レーザスキャンデータでは、各スキャン点とそのスキャン点が得られた時刻とは関連付けされている。図4の場合でいうと、点Pの座標データと点Pが得られた時刻とが関連付けされたものが比較用レーザスキャンデータには含まれている。
車両100は、点Oと点Oを通過しているので時刻を手掛かりに車両100の軌跡のデータから図4の座標系1と座標系2の相対的な関係(位置の関係と向きの関係)が判る。この座標系1と座標系2の相対的な関係(位置の関係と向きの関係)から、座標系2をどのように平行移動させ、更にどのように回転させれば、座標系1に変換できるのかが判る。
よって、車両100の軌跡に基づき、Pを座標系1に座標変換することができる。すなわち、Pを座標系1上で記述することができる。この原理により、カメラ113が比較画像を撮影した時刻をtとした場合に、時刻tのIMU座標系に基準レーザスキャンデータのそれぞれを座標変換することができ、それにより基準点群位置データを得ることができる。
数1には、カメラ113がk番目のフレーム画像を撮影した時刻におけるIMU座標系でのi番目の基準点群位置データ(Pimu(i))が示されている。
Figure 2016057108
ここで、(1)と(3)は、車両100の軌跡から得られる。(2)は、基準レーザスキャンデータと車両100の軌跡とから得られる。すなわち、車両100の軌跡は、地上座標系上で記述されているので、基準レーザスキャンデータの各点の座標を車両100の軌跡に基づき、地上座標系に変換することで(2)が得られる。数1の演算が基準点群位置データ算出部123において行われる。
ステップS303における基準点群位置データの算出を行ったら、対応点の指定を行う(ステップS304)。この処理は対応点指定部124において行われる。対応点の選定は、表示された画像を見ながらユーザが指定する方法が挙げられるが、ソフトウェア的に特徴点を抽出し、その特徴を数値的に判定することで行うことも可能である。この場合、対応点の選出がソフトウェアによって自動的に行われる。
対応点の選出は1フレームにおいて行うこともできるが、複数フレームを対象に行ってもよい。例えば、時刻tにおいてカメラ113が撮影した第1の比較画像と、時刻tのIMU座標系に基準レーザスキャンデータのそれぞれを座標変換することで得た第1の基準点群位置データとの間で対応点を指定し、更に、時刻tにおいてカメラ113が撮影した第2の比較画像と、時刻tのIMU座標系に基準レーザスキャンデータのそれぞれを座標変換することで得た第2の基準点群位置データとの間で対応点を指定し、更に、時刻tにおいてカメラ113が撮影した第3の比較画像と、時刻tのIMU座標系に基準レーザスキャンデータのそれぞれを座標変換することで得た第3の基準点群位置データとの間で対応点を指定し、といった処理を行うことも可能である。
対応点が指定されたら、カメラ113の外部標定要素の算出が行われる(ステップS305)。この処理は外部標定要素算出部125において行われる。以下、カメラ113の外部標定要素を算出する処理の詳細について説明する。
図5は、後方交会法を説明する説明図である。後方交会法とは、未知点Oから3つ以上の既知点P、P、Pへ向かう方向を観測して、それらの方向線の交点として未知点Oの位置を求める方法である。ここでは、ステップS304で指定された対応点の3次元座標を図5の基準点P、P、Pとし、それを基にして、後方交会法によって比較画像を撮影したカメラ131の外部標定要素(X,Y,Z,ω,φ,κ)を算出する。ここでは、後方交会法として、単写真標定とDLT法を説明する。
まず、単写真標定を用いてカメラ113の外部標定要素(X,Y,Z,ω,φ,κ)を算出する場合を説明する。単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X,Y,Z)およびカメラの姿勢(ω,φ,κ)を求める手法である。共線条件とは、投影中心O、写真像(p,p,p)および測定対象点(この場合は対応点)(Op,Op,Op)が、一直線上にあるという条件である。ここで、カメラの位置O(X,Y,Z)とカメラの姿勢(ω,φ,κ)が、図1におけるカメラ113の外部標定要素となる。
まず、カメラ座標系(x,y,z)、写真座標系(x,y)、測定対象物の座標系である基準座標系(X,Y,Z)を考える。ここで、写真座標系が比較画像中の座標系であり、基準座標系がIMU座標系となる。
ここで、カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、ステップS304で指定された4点の対応点の画像座標値(図5では3点のみ記載)と対応する基準点の三次元座標を取得する。ここで、画面座標値は、比較画像における画面上の座標値(x値およびy値)であり、基準点の三次元座標は、基準点群位置データから得られる。上記の画面座標値と基準点の三次元座標を下記の数2に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。
Figure 2016057108
そして、数2のパラメータb1〜b8を用いて、以下の数3から外部標定要素(X,Y,Z,ω,φ,κ)を求める。ここで、(X,Y,Z)はカメラ113のIMU114に対する位置であり、(ω,φ,κ)は、そのカメラ113のIMU114に対する姿勢(向き)である。
Figure 2016057108
以上のようにして、基準点群位置データと比較画像とにおいて共通の特徴点となる対応点を指定し、更に単写真標定を行うことでカメラ113の外部標定要素の算出が行われる。
次に、DLT法によって、カメラ113の外部標定要素を算出する手順について説明する。DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数4となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46−51、p149−155」等に記載されている。
Figure 2016057108
数4の式の分母を消去すると、数5の線形式が導出される。
Figure 2016057108
さらに、数5を変形すると、以下の数6が得られる。
Figure 2016057108
数6に6点以上の対応点(X,Y,Z)の三次元座標と比較画像の画面座標値(写真座標)を代入し、最小二乗法を用いて解くと、L〜L11の11個の未知変量が得られる。L〜L11には、カメラ113の外部標定要素(IMU114に対する位置と姿勢)が含まれており、L〜L11を求めることで、カメラ113の外部標定要素が得られる。以上のようにして、DLT法によりカメラ113の外部標定要素を算出することができる。
本実施形態によれば、カメラ113の設置位置や姿勢が未知の場合であっても、車両110をキャリブレーション用コース130上で走らせつつレーザスキャナ115によるレーザスキャンを行い、更にその際にカメラ113による撮影を行うことで、カメラ113の外部標定要素を求めることができる。特に、キャリブレーションコース130は特別に設けられたコースである必要はなく、通常の道路を利用できるので、簡便な方法によりカメラ113の外部標定要素を求めることができる。よって、例えば、カメラ113がユーザにより取り付けられた場合やカメラ113の位置や姿勢が変更された場合であっても簡便な方法でカメラ113の外部標定要素を求めることができる。
複数フレームを対象とする場合、各フレームにおいて比較画像と基準点群位置データとにおける対応点の指定を行い、次に各フレームにおいて指定した対応点のデータを重ねて重畳対応点データを得、この重畳対応点データを用いて、上述した後方交会法あるいはDLT法により外部標定要素の算出を行う。
例えば、時刻tにおいてカメラ113が撮影した第1の比較画像と、時刻tのIMU座標系に基準レーザスキャンデータのそれぞれを座標変換することで得た第1の基準点群位置データとの間で対応点を指定し、更に、時刻tにおいてカメラ113が撮影した第2の比較画像と、時刻tのIMU座標系に基準レーザスキャンデータのそれぞれを座標変換することで得た第2の基準点群位置データとの間で対応点を指定し、更に、時刻tにおいてカメラ113が撮影した第3の比較画像と、時刻tのIMU座標系に基準レーザスキャンデータのそれぞれを座標変換することで得た第3の基準点群位置データとの間で対応点を指定する場合、以下の処理が行われる。
この場合、第1の比較画像と第1の基準点群位置データとの間で対応点を指定した第1の対応点データと、第2の比較画像と第2の基準点群位置データとの間で対応点を指定した第2の対応点データと、第3の比較画像と第3の基準点群位置データとの間で対応点を指定した第3の対応点データとを重ね、重畳対応点データを得る。この重畳対応点データは、第1〜第3の比較画像における対応点が重畳された比較画像側の重畳対応点データと、第1〜第3の基準点群位置データにおける対応点が重畳された基準点群位置データ側の重畳対応点データにより構成される。そして、比較画像側の重畳対応点データと基準点群位置データ側の重畳対応点データとを対象に、上述した後方交会法あるいはDLT法によりカメラ113の外部標定要素の算出が行われる。
具体的には、比較画像側の重畳対応点の画面座標値(カメラ113の撮像画像中での座標値)と基準点群位置データ側の重畳対応点の三次元座標値とを用いて、上述した後方交会法あるいはDLT法によりカメラ113の外部標定要素の算出が行われる。この方法によれば、多様な視点から得られる対応点が利用されるので、外部標定要素の算出精度を高めることができる。
また別の方法として、複数フレームを対象に対応点の指定を行った場合に、フレーム毎にカメラ113の外部標定要素を算出し、得られた複数の外部標定要素の平均値や特定の偏差範囲の中心値を採用する方法も可能である。
(その他)
図2の演算部120の機能部の一または複数を別のハードウェアとし、それらを適当な通信手段で接続し、システムとして演算部120の機能を実現することもできる。例えば、演算部120の機能の一部を実行する外部機器(パーソナルコンピュータや専用のコンピュータ)を演算部120に接続し、演算部120の機能の一部を当該外部機器で行う構成が可能である。
上記の例では、IMU114に対する外部標定要素が取得されていない状態のカメラ113を用いて比較画像を撮影し、カメラ113の外部標定要素を求める場合を説明したが、カメラ113の外部標定要素が誤差を含む形で求められている(あるいは設定されている)状態において、同様な方法によってカメラ113の外部標定要素の算出を行ってもよい。
軌道等を用いてキャリブレーション用コース130を固定してもよい。こうすることで、キャリブレーション用コース130における車両100の軌跡をより高精度に取得することができる。
特徴点となり易いマーカやターゲットを測定対象物とし、基準点群位置データの取得と比較画像の撮影を行ってもよい。
近年、車両周囲の三次元情報を取得し、車両の自動運転や運転の補助を行う技術が知られている。この技術に車載のカメラを用いる場合に、当該車載カメラのキャリブレーションに本発明を利用することができる。
本発明は、カメラの外部標定要素を求める技術に利用可能である。
100…車両、110…計測システム、111…GNSSユニット、113…カメラ、114…IMU、115…レーザスキャナ、130…キャリブレーション用コース、131…ビル。

Claims (5)

  1. 移動体に固定され、前記移動体に対する外部標定要素が取得されたレーザスキャナを用い、前記移動体を移動させながら測定対象物のレーザスキャンを行うことで得られたレーザスキャンデータを基準レーザスキャンデータとして取得する基準レーザスキャンデータ取得部と、
    前記移動体に固定されたカメラを用い、前記移動体の前記移動時における特定の時刻に前記測定対象物を撮影した画像の画像データを取得する画像データ取得部と、
    前記移動時における前記移動体の軌跡に基づき、前記基準レーザスキャンデータを前記特定の時刻における前記移動体上での座標系で記述した基準点群位置データを算出する基準点群位置データ算出部と、
    前記基準点群位置データと前記画像における対応点を指定する対応点指定部と、
    前記対応点の前記基準点群位置データと前記画像における前記対応点の画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素を算出する外部標定要素算出部と
    を備えることを特徴とする演算装置。
  2. 前記画像は、複数の時刻において撮影され、
    前記基準点群位置データ算出部は、前記複数の時刻における前記移動体上での座標系で記述した複数の基準点群位置データを算出し、
    前記対応点指定部は、同時刻において撮影された前記画像および前記基準点群位置データにおける対応点を指定し、
    前記外部標定要素算出部は、前記複数の時刻において重ねた前記対応点の前記基準点群位置データと前記複数の時刻において重ねた前記対応点の前記画像における画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素の算出を行うことを特徴とする請求項1に記載の演算装置。
  3. 移動体に固定され、前記移動体に対する外部標定要素が取得されたレーザスキャナを用い、前記移動体を移動させながら測定対象物のレーザスキャンを行うことで得られたレーザスキャンデータを基準レーザスキャンデータとして取得する基準レーザスキャンデータ取得手段と、
    前記移動体に固定されたカメラを用い、前記移動体の前記移動時における特定の時刻に前記測定対象物を撮影した画像の画像データを取得する画像データ取得手段と、
    前記移動時における前記移動体の軌跡に基づき、前記基準レーザスキャンデータを前記特定の時刻における前記移動体上での座標系で記述した基準点群位置データを算出する基準点群位置データ算出手段と、
    前記基準点群位置データと前記画像における対応点を指定する対応点指定手段と、
    前記対応点の前記基準点群位置データと前記画像における前記対応点の画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素を算出する外部標定要素算出手段と
    を備えることを特徴とする演算システム。
  4. 移動体に固定され、前記移動体に対する外部標定要素が取得されたレーザスキャナを用い、前記移動体を移動させながら測定対象物のレーザスキャンを行うことで得られたレーザスキャンデータを基準レーザスキャンデータとして取得する基準レーザスキャンデータ取得ステップと、
    前記移動体に固定されたカメラを用い、前記移動体の前記移動時における特定の時刻に前記測定対象物を撮影した画像の画像データを取得する画像データ取得ステップと、
    前記移動時における前記移動体の軌跡に基づき、前記基準レーザスキャンデータを前記特定の時刻における前記移動体上での座標系で記述した基準点群位置データを算出する基準点群位置データ算出ステップと、
    前記基準点群位置データと前記画像における対応点を指定する対応点指定ステップと、
    前記対応点の前記基準点群位置データと前記画像における前記対応点の画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素を算出する外部標定要素算出ステップと
    を備えることを特徴とする演算方法。
  5. コンピュータに読み取らせて実行させるプログラムであって、
    コンピュータを
    移動体に固定され、前記移動体に対する外部標定要素が取得されたレーザスキャナを用い、前記移動体を移動させながら測定対象物のレーザスキャンを行うことで得られたレーザスキャンデータを基準レーザスキャンデータとして取得する基準レーザスキャンデータ取得部と、
    前記移動体に固定されたカメラを用い、前記移動体の前記移動時における特定の時刻に前記測定対象物を撮影した画像の画像データを取得する画像データ取得部と、
    前記移動時における前記移動体の軌跡に基づき、前記基準レーザスキャンデータを前記特定の時刻における前記移動体上での座標系で記述した基準点群位置データを算出する基準点群位置データ算出部と、
    前記基準点群位置データと前記画像における対応点を指定する対応点指定部と、
    前記対応点の前記基準点群位置データと前記画像における前記対応点の画面座標値とに基づき、前記カメラの前記移動体に対する外部標定要素を算出する外部標定要素算出部と
    して機能させることを特徴とするプログラム。
JP2014182100A 2014-09-08 2014-09-08 演算装置、演算システム、演算方法およびプログラム Pending JP2016057108A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014182100A JP2016057108A (ja) 2014-09-08 2014-09-08 演算装置、演算システム、演算方法およびプログラム
EP15183526.1A EP2993490B1 (en) 2014-09-08 2015-09-02 Operating device, operating method, and program therefor
US14/843,298 US10509983B2 (en) 2014-09-08 2015-09-02 Operating device, operating system, operating method, and program therefor
CA2903298A CA2903298A1 (en) 2014-09-08 2015-09-04 Operating device, operating system, operating method, and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014182100A JP2016057108A (ja) 2014-09-08 2014-09-08 演算装置、演算システム、演算方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2016057108A true JP2016057108A (ja) 2016-04-21

Family

ID=54064150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014182100A Pending JP2016057108A (ja) 2014-09-08 2014-09-08 演算装置、演算システム、演算方法およびプログラム

Country Status (4)

Country Link
US (1) US10509983B2 (ja)
EP (1) EP2993490B1 (ja)
JP (1) JP2016057108A (ja)
CA (1) CA2903298A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018044942A (ja) * 2016-09-08 2018-03-22 パナソニックIpマネジメント株式会社 カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
JP2018146258A (ja) * 2017-03-01 2018-09-20 株式会社トプコン 測定素子の補正方法、路面性状の評価方法、及び路面性状の評価装置
JP2018179990A (ja) * 2017-04-20 2018-11-15 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
JP2018179865A (ja) * 2017-04-19 2018-11-15 三菱電機株式会社 アンテナ位置計測装置
JP2018189637A (ja) * 2017-05-01 2018-11-29 パナソニックIpマネジメント株式会社 カメラパラメータ算出方法、カメラパラメータ算出プログラム、カメラパラメータ算出装置、及びカメラパラメータ算出システム
CN109916300A (zh) * 2019-03-20 2019-06-21 天远三维(天津)科技有限公司 基于在线图像处理的面向三维扫描的标志点粘贴指示方法
KR20190104304A (ko) * 2019-09-03 2019-09-09 주식회사 모빌테크 점군을 포함하는 라이다 지도 생성 방법
CN110480181A (zh) * 2018-06-16 2019-11-22 南京理工大学 基于激光清除异物装置的目标预测方法
JP2020046427A (ja) * 2018-09-19 2020-03-26 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド マルチセンサーのキャリブレーション方法とその装置、コンピュータ機器、媒体及び車両
JPWO2019176118A1 (ja) * 2018-03-16 2020-12-03 三菱電機株式会社 重畳表示システム
CN112050731A (zh) * 2020-08-14 2020-12-08 大连理工大学 基于大型虚拟计量器的测量数据配准精度评价方法
JP2021051720A (ja) * 2019-09-20 2021-04-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド カメラをキャリブレーションするための方法及び装置
WO2022033421A1 (zh) * 2020-08-14 2022-02-17 深圳市瑞立视多媒体科技有限公司 标定杆数据的筛选方法、装置和计算机设备
JP2022054649A (ja) * 2020-09-28 2022-04-07 株式会社トプコン カメラの光学系の歪み判定装置、カメラの光学系の歪み判定方法およびカメラの光学系の歪みの判定を行うためのプログラム
EP4057223A1 (en) 2021-03-08 2022-09-14 Topcon Corporation Optical data processing apparatus, optical data processing method and optical data processing program
EP4057224A1 (en) 2021-03-08 2022-09-14 Topcon Corporation Optical data processing apparatus, optical data processing method and optical data processing program
JP7527532B1 (ja) * 2023-01-30 2024-08-02 三菱電機株式会社 画像点群データ処理装置、画像点群データ処理方法、及び画像点群データ処理プログラム

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
US11370422B2 (en) * 2015-02-12 2022-06-28 Honda Research Institute Europe Gmbh Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
CN105844696B (zh) * 2015-12-31 2019-02-05 清华大学 基于射线模型三维重构的图像定位方法以及装置
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner
US10721451B2 (en) 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US10343620B2 (en) 2016-04-22 2019-07-09 Uber Technologies, Inc. External sensor assembly for vehicles
USD851508S1 (en) * 2016-05-03 2019-06-18 Uber Technologies, Inc. External sensor assembly for a vehicle
JP2018004401A (ja) * 2016-06-30 2018-01-11 株式会社トプコン レーザスキャナ及びレーザスキャナシステム及び点群データのレジストレーション方法
US10776661B2 (en) 2016-08-19 2020-09-15 Symbol Technologies, Llc Methods, systems and apparatus for segmenting and dimensioning objects
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US10451405B2 (en) * 2016-11-22 2019-10-22 Symbol Technologies, Llc Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
DE102016224095A1 (de) * 2016-12-05 2018-06-07 Robert Bosch Gmbh Verfahren zum Kalibrieren einer Kamera und Kalibriersystem
DE102016225595A1 (de) * 2016-12-20 2018-06-21 Siemens Aktiengesellschaft Verfahren und Anordnung zur Kalibrierung mindestens eines Sensors eines Schienenfahrzeugs
US10354411B2 (en) 2016-12-20 2019-07-16 Symbol Technologies, Llc Methods, systems and apparatus for segmenting objects
WO2018176290A1 (en) 2017-03-29 2018-10-04 SZ DJI Technology Co., Ltd. Light detection and ranging (lidar) signal processing circuitry
JP2020508457A (ja) 2017-03-29 2020-03-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd センサーシステム及びその方法
EP3602749A4 (en) 2017-03-29 2020-03-25 SZ DJI Technology Co., Ltd. HOLLOW MOTOR APPARATUSES AND RELATED SYSTEMS AND METHODS
DE102017109039A1 (de) * 2017-04-27 2018-10-31 Sick Ag Verfahren zur Kalibrierung einer Kamera und eines Laserscanners
CN110573830B (zh) 2017-04-28 2022-03-22 深圳市大疆创新科技有限公司 激光传感器的校准方法
CN110573928B (zh) 2017-04-28 2021-10-08 深圳市大疆创新科技有限公司 光检测和测距系统中的角校准
EP3615955A4 (en) * 2017-04-28 2020-05-13 SZ DJI Technology Co., Ltd. CALIBRATION OF LASER AND VISION SENSORS
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
WO2018204342A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Product status detection system
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
CN110603533A (zh) 2017-05-01 2019-12-20 讯宝科技有限责任公司 用于对象状态检测的方法和装置
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
WO2018201423A1 (en) 2017-05-05 2018-11-08 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
CN116359934A (zh) 2017-07-20 2023-06-30 深圳市大疆创新科技有限公司 用于光学距离测量的系统和方法
KR102284565B1 (ko) 2017-07-31 2021-07-30 에스지 디제이아이 테크놀러지 코., 엘티디 포인트 클라우드에서의 모션 기반 부정확성의 정정
CN109425365B (zh) * 2017-08-23 2022-03-11 腾讯科技(深圳)有限公司 激光扫描设备标定的方法、装置、设备及存储介质
CN107507235B (zh) * 2017-08-31 2020-11-10 山东大学 一种基于rgb-d设备采集的彩色图像和深度图像的配准方法
EP3472645A4 (en) 2017-08-31 2019-07-17 SZ DJI Technology Co., Ltd. DELAY TIME CALIBRATION OF OPTICAL DISTANCE MEASURING DEVICES AND RELATED SYSTEMS AND METHOD
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US11294060B2 (en) * 2018-04-18 2022-04-05 Faraday & Future Inc. System and method for lidar-based vehicular localization relating to autonomous navigation
US11841216B2 (en) * 2018-04-30 2023-12-12 Zebra Technologies Corporation Methods and apparatus for freight dimensioning using a laser curtain
CN110909088B (zh) * 2018-09-14 2023-01-13 阿里巴巴(中国)有限公司 激光坐标系和惯导坐标系的标定方法和装置以及存储介质
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
CN109410282B (zh) * 2018-11-08 2021-06-01 上海智蕙林医疗科技有限公司 一种输液杆的检测跟踪方法和装置
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
CN109360250A (zh) * 2018-12-27 2019-02-19 爱笔(北京)智能科技有限公司 一种对摄像装置的标定方法、设备及系统
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
CN110082740A (zh) * 2019-04-25 2019-08-02 苏州艾吉威机器人有限公司 一种车体激光头水平校正方法
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
CN112750165B (zh) * 2019-10-29 2023-12-15 商汤集团有限公司 参数标定方法、智能驾驶方法及其装置、设备和存储介质
DE102019129986A1 (de) 2019-11-07 2021-05-12 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
WO2021150679A1 (en) 2020-01-23 2021-07-29 Brain Corporation Systems, apparatuses, and methods for calibrating lidar sensors of a robot using intersecting lidar sensors
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
WO2022006158A1 (en) * 2020-06-29 2022-01-06 Brain Corporation Systems, apparatuses, and methods for calibrating lidar sensors of a robot using intersecting lidar sensors
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
CN112861595A (zh) * 2020-07-31 2021-05-28 北京京东乾石科技有限公司 数据点的识别方法、装置和计算机可读存储介质
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
CN112455396B (zh) * 2020-12-18 2022-05-27 青海慧洗智能科技有限公司 面向自动洗车的车轮定位系统、方法和装置
CN112816993B (zh) * 2020-12-25 2022-11-08 北京一径科技有限公司 激光雷达点云处理方法和装置
CN113281770A (zh) * 2021-05-28 2021-08-20 东软睿驰汽车技术(沈阳)有限公司 坐标系关系获取方法及装置
CN113253246B (zh) * 2021-06-01 2021-09-10 奥特酷智能科技(南京)有限公司 一种激光雷达和相机的标定方法
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
CN113724303B (zh) * 2021-09-07 2024-05-10 广州文远知行科技有限公司 点云与图像匹配方法、装置、电子设备和存储介质
EP4202837A1 (en) * 2021-12-22 2023-06-28 Aptiv Technologies Limited A feature describing the shape of spatially distributed data set
CN114001704B (zh) * 2021-12-29 2022-03-29 四川中水成勘院测绘工程有限责任公司 一种基于自由设站归算算法的工程施工变形监测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088114A (ja) * 2010-10-18 2012-05-10 Topcon Corp 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
JP2012242317A (ja) * 2011-05-23 2012-12-10 Mitsubishi Electric Corp キャリブレーション装置、キャリブレーション装置のキャリブレーション方法およびキャリブレーションプログラム
JP2013242186A (ja) * 2012-05-18 2013-12-05 Acs Kk 車載測量システム
GB2507560A (en) * 2012-11-05 2014-05-07 Univ Oxford Extrinsic calibration of mobile camera and lidar

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
JP2013040886A (ja) 2011-08-19 2013-02-28 Mitsubishi Electric Corp 三次元点群計測方法、三次元点群計測プログラム
JP5832341B2 (ja) 2012-03-09 2015-12-16 株式会社トプコン 動画処理装置、動画処理方法および動画処理用のプログラム
JP6181388B2 (ja) * 2013-03-08 2017-08-16 株式会社トプコン 計測装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088114A (ja) * 2010-10-18 2012-05-10 Topcon Corp 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
JP2012242317A (ja) * 2011-05-23 2012-12-10 Mitsubishi Electric Corp キャリブレーション装置、キャリブレーション装置のキャリブレーション方法およびキャリブレーションプログラム
JP2013242186A (ja) * 2012-05-18 2013-12-05 Acs Kk 車載測量システム
GB2507560A (en) * 2012-11-05 2014-05-07 Univ Oxford Extrinsic calibration of mobile camera and lidar

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018044942A (ja) * 2016-09-08 2018-03-22 パナソニックIpマネジメント株式会社 カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
JP7038315B2 (ja) 2016-09-08 2022-03-18 パナソニックIpマネジメント株式会社 カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
JP2018146258A (ja) * 2017-03-01 2018-09-20 株式会社トプコン 測定素子の補正方法、路面性状の評価方法、及び路面性状の評価装置
JP2018179865A (ja) * 2017-04-19 2018-11-15 三菱電機株式会社 アンテナ位置計測装置
JP2018179990A (ja) * 2017-04-20 2018-11-15 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
JP7038345B2 (ja) 2017-04-20 2022-03-18 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
JP7038346B2 (ja) 2017-05-01 2022-03-18 パナソニックIpマネジメント株式会社 カメラパラメータ算出方法、カメラパラメータ算出プログラム、及びカメラパラメータ算出装置
JP2018189637A (ja) * 2017-05-01 2018-11-29 パナソニックIpマネジメント株式会社 カメラパラメータ算出方法、カメラパラメータ算出プログラム、カメラパラメータ算出装置、及びカメラパラメータ算出システム
JPWO2019176118A1 (ja) * 2018-03-16 2020-12-03 三菱電機株式会社 重畳表示システム
JP7003219B2 (ja) 2018-03-16 2022-01-20 三菱電機株式会社 重畳表示システム
CN110480181A (zh) * 2018-06-16 2019-11-22 南京理工大学 基于激光清除异物装置的目标预测方法
JP2020046427A (ja) * 2018-09-19 2020-03-26 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド マルチセンサーのキャリブレーション方法とその装置、コンピュータ機器、媒体及び車両
US11002840B2 (en) 2018-09-19 2021-05-11 Baidu Online Network Technology (Beijing) Co., Ltd. Multi-sensor calibration method, multi-sensor calibration device, computer device, medium and vehicle
CN109916300A (zh) * 2019-03-20 2019-06-21 天远三维(天津)科技有限公司 基于在线图像处理的面向三维扫描的标志点粘贴指示方法
KR102083911B1 (ko) * 2019-09-03 2020-03-04 주식회사 모빌테크 점군을 포함하는 라이다 지도 생성 방법
KR20190104304A (ko) * 2019-09-03 2019-09-09 주식회사 모빌테크 점군을 포함하는 라이다 지도 생성 방법
JP2021051720A (ja) * 2019-09-20 2021-04-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド カメラをキャリブレーションするための方法及び装置
US11694359B2 (en) 2019-09-20 2023-07-04 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for calibrating camera
CN112050731B (zh) * 2020-08-14 2021-08-20 大连理工大学 基于大型虚拟计量器的测量数据配准精度评价方法
WO2022033421A1 (zh) * 2020-08-14 2022-02-17 深圳市瑞立视多媒体科技有限公司 标定杆数据的筛选方法、装置和计算机设备
CN112050731A (zh) * 2020-08-14 2020-12-08 大连理工大学 基于大型虚拟计量器的测量数据配准精度评价方法
JP2022054649A (ja) * 2020-09-28 2022-04-07 株式会社トプコン カメラの光学系の歪み判定装置、カメラの光学系の歪み判定方法およびカメラの光学系の歪みの判定を行うためのプログラム
EP4057223A1 (en) 2021-03-08 2022-09-14 Topcon Corporation Optical data processing apparatus, optical data processing method and optical data processing program
EP4057224A1 (en) 2021-03-08 2022-09-14 Topcon Corporation Optical data processing apparatus, optical data processing method and optical data processing program
JP2022136764A (ja) * 2021-03-08 2022-09-21 株式会社トプコン 光学データ処理装置、光学データ処理方法および光学データ処理用プログラム
JP2022136754A (ja) * 2021-03-08 2022-09-21 株式会社トプコン 光学データ処理装置、光学データ処理方法および光学データ処理用プログラム
JP7656448B2 (ja) 2021-03-08 2025-04-03 株式会社トプコン 光学データ処理装置、光学データ処理方法および光学データ処理用プログラム
JP7672245B2 (ja) 2021-03-08 2025-05-07 株式会社トプコン 光学データ処理装置、光学データ処理方法および光学データ処理用プログラム
JP7527532B1 (ja) * 2023-01-30 2024-08-02 三菱電機株式会社 画像点群データ処理装置、画像点群データ処理方法、及び画像点群データ処理プログラム

Also Published As

Publication number Publication date
US20160070981A1 (en) 2016-03-10
EP2993490B1 (en) 2020-05-27
US10509983B2 (en) 2019-12-17
EP2993490A1 (en) 2016-03-09
CA2903298A1 (en) 2016-03-08

Similar Documents

Publication Publication Date Title
JP2016057108A (ja) 演算装置、演算システム、演算方法およびプログラム
US9953461B2 (en) Navigation system applying augmented reality
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP6192938B2 (ja) 三次元合成処理システムおよび三次元合成処理方法
JP6656886B2 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
CN102511162B (zh) 广角摄像装置及测定系统
KR101220527B1 (ko) 센서 시스템, 이를 이용하는 환경 지도 작성 시스템 및 방법
JP5214355B2 (ja) 車両走行軌跡観測システム、車両走行軌跡観測方法、およびそのプログラム
EP2990762B1 (en) Operating device, operating method, and program therefor
WO2020039937A1 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
CN101513062A (zh) 车载图像处理装置及其视点变换信息生成方法
JP4077385B2 (ja) 画像処理を用いたグローバル座標取得装置
JP2016048172A (ja) 画像処理装置、画像処理方法、およびプログラム
KR101252680B1 (ko) 디지털 항공이미지를 이용한 영상도화시스템
JP5716273B2 (ja) 捜索目標位置特定装置、捜索目標位置特定方法及びプログラム
KR20170094030A (ko) 실내 내비게이션 및 파노라마 사진 맵핑 제공 시스템 및 그 방법
JP4852006B2 (ja) 空間情報データベース生成装置及び空間情報データベース生成プログラム
WO2021111613A1 (ja) 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
EP2696168A1 (en) Using gravity measurements within a photogrammetric adjustment
CN109032330A (zh) 无缝桥接ar装置和ar系统
KR101323099B1 (ko) 모자이크 영상 생성 장치
Trusheim et al. Cooperative localisation using image sensors in a dynamic traffic scenario
JP2017182612A (ja) 画像配置方法及び画像配置用コンピュータプログラム
JP2020073931A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
KR20180054219A (ko) 전방위 영상의 좌표 맵핑 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180827

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190228