JP7008308B2 - Image processing device, ranging device, image pickup device, image processing method and program - Google Patents
Image processing device, ranging device, image pickup device, image processing method and program Download PDFInfo
- Publication number
- JP7008308B2 JP7008308B2 JP2018017791A JP2018017791A JP7008308B2 JP 7008308 B2 JP7008308 B2 JP 7008308B2 JP 2018017791 A JP2018017791 A JP 2018017791A JP 2018017791 A JP2018017791 A JP 2018017791A JP 7008308 B2 JP7008308 B2 JP 7008308B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- instantaneous velocity
- image processing
- velocity distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/493—Extracting wanted echo signals
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は、画像処理装置、測距装置、撮像装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, a distance measuring device, an imaging device, an image processing method and a program.
画像の中の移動物体を検出する種々の手法が検討されている。特許文献1には、動画を構成する複数のフレームを用いて移動物体を検出する方法が開示されている。特許文献1の方法では、連続する3つのフレームFr0、Fr1、Fr2に対し、フレームFr0とフレームFr1の差分Aと、フレームFr1とフレームFr2との差分Bとを算出し、差分Aと差分Bとの論理和を取得することで、画像中の移動物体を検出することができる。
Various methods for detecting moving objects in images are being studied.
特許文献1に記載されているような移動物体の検出方法では、動画のフレーム等の時間的に連続する複数の画像を処理に用いる必要があるため、1つの画像から移動物体を抽出することはできない。
In the method for detecting a moving object as described in
本発明は、上述の課題に鑑みてなされたものであって、1つの画像から移動物体を抽出することができる画像処理装置、測距装置、撮像装置、画像処理方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and provides an image processing device, a distance measuring device, an image pickup device, an image processing method and a program capable of extracting a moving object from one image. The purpose.
本発明の一観点によれば、空間内の第1領域の中の物体の瞬間速度分布を取得する第1取得部と、前記第1領域の少なくとも一部を含む画像を取得する第2取得部と、前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出する検出部と、を有することを特徴とする画像処理装置が提供される。 According to one aspect of the present invention, a first acquisition unit for acquiring an instantaneous velocity distribution of an object in a first region in space and a second acquisition unit for acquiring an image including at least a part of the first region. And an image processing apparatus characterized by having a detection unit for detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution.
本発明の他の観点によれば、空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、前記第1領域の少なくとも一部を含む画像を取得するステップと、前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、を有することを特徴とする画像処理方法が提供される。 According to another aspect of the present invention, a step of acquiring an instantaneous velocity distribution of an object in a first region in space, a step of acquiring an image including at least a part of the first region, and the instantaneous velocity. Provided is an image processing method comprising: a step of detecting a second region indicating a moving object included in the image based on a distribution.
本発明の更に他の観点によれば、コンピュータに、空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、前記第1領域の少なくとも一部を含む画像を取得するステップと、前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、を実行させることを特徴とするプログラムが提供される。 According to still another aspect of the present invention, a step of acquiring an instantaneous velocity distribution of an object in a first region in space and a step of acquiring an image including at least a part of the first region are obtained by a computer. , A program comprising the step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution and the execution of the step is provided.
本発明によれば、1つの画像から移動物体を抽出することができる画像処理装置、測距装置、撮像装置、画像処理方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide an image processing device, a distance measuring device, an image pickup device, an image processing method and a program capable of extracting a moving object from one image.
以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。 Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. Similar elements or corresponding elements may be designated by the same reference numerals in the drawings, and the description thereof may be omitted or simplified.
[第1実施形態]
図1は、第1実施形態に係る画像処理装置10を含む物体検出システム1の概略構成を示す模式図である。物体検出システム1は、画像処理装置10、測距装置20及び撮像装置30を含む。
[First Embodiment]
FIG. 1 is a schematic diagram showing a schematic configuration of an
測距装置20は、例えばLiDAR(Light Detection and Ranging)装置であり、所定の範囲における測距装置20からの距離、瞬間速度等の分布を取得することができる。撮像装置30は、例えばデジタルカメラであり、所定の範囲の画像を取得することができる。これらの機能により、物体検出システム1は、対象物2の検出を行うことができる。
The
画像処理装置10は、例えばコンピュータであり、測距装置20により取得された情報に基づいて撮像装置30により取得された画像の処理を行う。画像処理装置10と測距装置20の間及び画像処理装置10と撮像装置30の間は有線又は無線により通信可能に接続される。
The
物体検出システム1は、画像処理装置10、測距装置20及び撮像装置30を統括的に制御する不図示の制御装置を更に含んでもよく、画像処理装置10として機能するコンピュータが当該制御の機能を有していてもよい。また、物体検出システム1は、通信可能に接続された複数の装置により構成されていてもよく、1つの装置として構成されていてもよい。
The
図2は、本発明の第1実施形態に係る画像処理装置10のハードウェア構成例を示すブロック図である。画像処理装置10は、例えば、測距装置20及び撮像装置30と一体に構成されたコンピュータであり得る。また、画像処理装置10は、測距装置20及び撮像装置30とは別の装置として構成されたコンピュータであってもよい。
FIG. 2 is a block diagram showing a hardware configuration example of the
画像処理装置10は、演算、制御及び記憶を行うコンピュータとして、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103及びHDD(Hard Disk Drive)104を備える。また、画像処理装置10は、通信I/F(インターフェース)105、表示装置106及び入力装置107を備える。CPU101、RAM102、ROM103、HDD104、通信I/F105、表示装置106及び入力装置107は、バス108を介して相互に接続される。なお、表示装置106及び入力装置107は、これらの装置を駆動するための不図示の駆動装置を介してバス108に接続されてもよい。
The
図2では、画像処理装置10を構成する各部が一体の装置として図示されているが、これらの機能の一部は外付け装置により提供されるものであってもよい。例えば、表示装置106及び入力装置107は、CPU101等を含むコンピュータの機能を構成する部分とは別の外付け装置であってもよい。
In FIG. 2, each part constituting the
CPU101は、ROM103、HDD104等に記憶されたプログラムに従って所定の動作を行うとともに、画像処理装置10の各部を制御する機能をも有する。RAM102は、揮発性記憶媒体から構成され、CPU101の動作に必要な一時的なメモリ領域を提供する。ROM103は、不揮発性記憶媒体から構成され、画像処理装置10の動作に用いられるプログラム等の必要な情報を記憶する。HDD104は、不揮発性記憶媒体から構成され、画像データ、プログラム等の記憶を行う記憶装置である。
The
通信I/F105は、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。表示装置106は、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等であって、画像、文字、インターフェース等の表示に用いられる。入力装置107は、キーボード、ポインティングデバイス等であって、ユーザが画像処理装置10を操作するために用いられる。ポインティングデバイスの例としては、マウス、トラックボール、タッチパネル等が挙げられる。表示装置106及び入力装置107は、タッチパネルとして一体に形成されていてもよい。
The communication I /
なお、図1に示されているハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。更に、本実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されるものであってもよい。例えば、HDD104は、半導体メモリを用いたSSD(Solid State Drive)に置換されていてもよく、クラウドストレージに置換されていてもよい。
The hardware configuration shown in FIG. 1 is an example, and devices other than these may be added or some devices may not be provided. Further, some devices may be replaced with other devices having similar functions. Further, some functions of the present embodiment may be provided by other devices via a network, or the functions of the present embodiment may be distributed and realized by a plurality of devices. For example, the
図3は、本実施形態に係る画像処理装置10の機能ブロック図である。画像処理装置10は、第1取得部121、第2取得部122、検出部123、座標設定部124、トリミング処理部125及び記憶部126を有する。
FIG. 3 is a functional block diagram of the
CPU101は、ROM103等に記憶されたプログラムをRAM102にロードして実行することにより、第1取得部121、第2取得部122、検出部123、座標設定部124及びトリミング処理部125の機能を実現する。これらの各部で行われる処理については後述する。CPU101は、HDD104を制御することにより記憶部126の機能を実現する。記憶部126は、測距装置20から取得された距離、瞬間速度等の分布、撮像装置30から取得した画像等の情報を記憶する。
The
図4は、本実施形態に係る測距装置20の機能ブロック図である。図4には測距装置20の構成の一例として、FMCW(Frequency Modulated Continuous Wave)方式のLiDAR装置のブロック図が示されている。LiDAR装置は、赤外光、可視光、紫外光等のレーザー光を投射し、反射光を取得する動作を繰り返して所定範囲を走査することにより、反射光強度分布、距離分布等を取得する装置である。また、図4に示す測距装置20にはFMCW方式が適用されている。そのため、測距装置20は、ドップラー効果による周波数変化を測定することにより、瞬間速度分布を更に取得することができる。なお、LiDARは、レーザーレーダーと呼ばれることもある。また、周波数変化の測定にドップラー効果を利用することから、瞬間速度分布は、対象物2から測距装置20に向かう方向、あるいは、測距装置20から遠ざかる方向の瞬間速度を示すものであることが望ましい。
FIG. 4 is a functional block diagram of the
測距装置20は、反射鏡ユニット201、LD(Laser Diode)204、PD(Photodiode)205、206、フィルタ207、208、209、変調器210、復調器211、212、三角波発生器213、振幅・周期比較器214、215、モータ制御部216及び演算部217を有する。反射鏡ユニット201は、反射鏡202及びモータ203を有する。
The
三角波発生器213は、時間に対して電圧が増減を繰り返す三角波を生成する。三角波発生器213で生成された三角波は変調器210に出力される。また、当該三角波は振幅・周期等を参照するための参照信号として振幅・周期比較器214、215及び演算部217にも出力される。
The
変調器210は、VCO(Voltage-Controlled Oscillator)等を含み、三角波発生器213で生成された三角波状の電圧の入力に応じた周波数変調波を生成する。生成された周波数変調波は、フィルタ207に入力される。フィルタ207は、周波数変調波の周波数を通過帯域とする帯域通過フィルタである。フィルタ207を通過した周波数変調波は、LD204に入力される。LD204は、入力された周波数変調波に基づくレーザー光を生成する。なお、LD204は、例えば、近赤外領域の波長のレーザー光を射出する赤外線通信用の発光素子である。
The
LD204から射出されたレーザー光は、反射鏡ユニット201に入射される。反射鏡ユニット201内の反射鏡202は、入射されたレーザー光を反射し、レーザー光が投射される方向を変化させる。モータ203は、例えばエンコーダ付きのDC(Direct Current)モータであり、反射鏡202を回転させる。反射鏡202は、モータ203により回転駆動されることにより、レーザー光を所定範囲内で走査させることができる。レーザー光の一部は参照光としてPD205に入射され、他の一部は測距装置20の外部に投射される。
The laser beam emitted from the
測距装置20の外部に投射されたレーザー光が対象物2で反射され測距装置20に再び入射すると、当該反射光は、PD206に入射される。なお、対象物2と測距装置20との間の距離をrとすると、反射光は参照光に対して光路が2rだけ長くなる。そのため、反射光がPD206に入射される時刻は、光速をcとすると、参照光がPD205に入射される時刻よりも2r/cだけ遅い時刻となる。
When the laser beam projected to the outside of the
PD205、206は、例えば、LD204と同程度の波長の光を受光して電荷に変換する赤外線通信用の光電変換素子である。PD205、206に光が入射すると、生成された電荷に基づく電圧の変化が電気信号として後段のフィルタ208、209に伝達される。フィルタ208、209も、フィルタ207と同様に、三角波発生器213で生成された周波数変調波の周波数を通過帯域とする帯域通過フィルタである。フィルタ208を通過した周波数変調波は、復調器211に入力され、フィルタ209を通過した周波数変調波は、復調器212に入力される。
PD205 and 206 are, for example, photoelectric conversion elements for infrared communication that receive light having a wavelength similar to that of LD204 and convert it into electric charges. When light is incident on PD205 and 206, the change in voltage based on the generated charge is transmitted to the
復調器211、212は、PLL(Phase-Locked Loop)等を含み、入力された周波数変調波を復調する。周波数変調波は三角波発生器213で生成された三角波に基づくものであるため、復調器211、212により復調された信号は三角波となる。復調器211における復調により得られた三角波は振幅・周期比較器214に入力され、復調器212における復調により得られた三角波は振幅・周期比較器215に入力される。
The
振幅・周期比較器214、215は、ビート信号を生成するミキサ等を含む。振幅・周期比較器214は、三角波発生器213から出力される三角波の振幅・周期と、復調器211から出力される三角波の振幅・周期とを比較する。振幅・周期比較器214での比較結果は、演算部217に出力される。振幅・周期比較器215は、三角波発生器213から出力される三角波の振幅・周期と、復調器212から出力される三角波の振幅・周期とを比較する。振幅・周期比較器215での比較結果は、演算部217に出力される。ここで、比較結果とは、2つの入力信号の振幅・周期の差又は比であり得る。
The amplitude /
演算部217は、振幅・周期比較器214から出力された参照光に基づく信号と、三角波発生器213から出力される三角波とを用いて、振幅・周期比較器215から出力された反射光に基づく信号を補正する演算を行う。これにより演算部217は、反射光の強度、測距装置20と対象物2との距離及び対象物2の瞬間速度を算出する。測距装置20は、レーザー光を所定範囲内に走査させて反射光の強度、距離及び瞬間速度を測定することにより、これらを2次元状の反射光強度分布、距離分布及び瞬間速度分布として画像処理装置10に出力する。
The
振幅・周期比較器214から出力される参照光の情報はモータ制御部216にも出力される。モータ制御部216は、振幅・周期比較器214から取得した情報と、モータ203に設けられたエンコーダから取得した情報とに基づき、反射鏡202の現在の位置、回転速度等を算出する。モータ制御部216は、反射鏡202の現在の位置、回転速度等の情報に基づき、モータ203の回転速度を増加又は低下させる制御を行うことで、反射鏡202の回転速度を所定の値に安定化させる。
The information of the reference light output from the amplitude /
フィルタ207、208、209、変調器210、復調器211、212、三角波発生器213、振幅・周期比較器214、215、モータ制御部216及び演算部217の一部又は全部は、一体の回路として形成されていてもよい。ここで、一体の回路とは、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)であり得る。
図5は、本実施形態に係る撮像装置30の機能ブロック図である。図5には撮像装置30の構成の一例として、レンズ及び本体が一体となっているデジタルスチルカメラのブロック図が示されている。撮像装置30は、対象物2を含む所定の範囲(所定の画角)の画像をデジタルデータとして取得する。
FIG. 5 is a functional block diagram of the
撮像装置30は、レンズユニット301、撮像素子302、信号処理部303、撮像装置制御部304、外部I/F305及び記録媒体306を有する。撮像装置制御部304は、撮像装置30全体を制御する。レンズユニット301は、対象物2からの光を撮像素子302に導く光学系であり、1又は2以上のレンズを含む。また、レンズユニット301は、絞り、ズームレンズ、光学フィルタ、メカニカルシャッタ等の光学部材を更に含んでもよい。
The
撮像素子302は、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等であり得る。撮像素子302の撮像面には複数の画素が2次元状に配列されている。撮像素子302は、撮像面に投影された所定の画角の光学像に基づく画像信号を生成する。
The
信号処理部303は、DSP(Digital Signal Processor)等のプロセッサであり得る。信号処理部303は、撮像素子302で生成された画像信号に対し、補正、圧縮等の処理を行い、画像データを生成する。生成された画像データは、フラッシュメモリ等により構成された不揮発性の記録媒体306に記憶される。外部I/F305は、記録媒体306に記憶された画像データを画像処理装置10に出力する。
The
図6は、第1実施形態に係る画像処理装置10、測距装置20及び撮像装置30により行われる処理の概略を示すシーケンス図である。図6を参照しつつ、処理の概略を説明する。
FIG. 6 is a sequence diagram showing an outline of the processing performed by the
ステップS10において、測距装置20は、所定の範囲内の反射光強度分布、距離分布及び瞬間速度分布を取得する。これらの分布に関する情報は、総称として分布情報と呼ばれることもある。また、分布情報を取得する所定の範囲は、第1領域と呼ばれることもある。
In step S10, the ranging
ステップS20において、撮像装置30は、反射光強度分布、距離分布及び瞬間速度分布を取得した範囲の少なくとも一部を含む範囲内の画像を撮影する。なお、図6では、ステップS10の後にステップS20が行われるように図示されているが、ステップS10とステップS20の順序は逆であってもよく、これらが並行して行われてもよい。
In step S20, the
ステップS30において、測距装置20は、画像処理装置10に分布情報を送信する。ステップS40において、撮像装置30は、画像処理装置10に画像を送信する。なお、図6では、ステップS30の後にステップS40が行われるように図示されているが、ステップS30とステップS40の順序は逆であってもよく、これらが並行して行われてもよい。
In step S30, the
ステップS50において、画像処理装置10は、少なくとも瞬間速度分布に基づいて画像の中から移動物体を検出する。検出された移動物体を含む画像中の範囲は、第2領域と呼ばれることもある。
In step S50, the
ステップS60において、画像処理装置10は、第2領域に対する画像処理を行う。ここで、画像処理の例としては、画像から第2領域を含む範囲を切り出して移動物体画像を生成するトリミング処理が挙げられる。
In step S60, the
図7乃至図10を参照して、測距装置20において行われる処理をより具体的に説明する。図7は、第1実施形態に係る測距装置20により行われる処理の概略を示すフローチャートである。図8は、測距の原理を示すグラフである。図9及び図10は、瞬間速度測定の原理を示すグラフである。
The processing performed in the
図7のステップS101からステップS104は、図6のステップS10に対応する処理である。図7のステップS105は、図6のステップS30に対応する処理である。ステップS101において、測距装置20は、近赤外光等の周波数帯域のレーザー光を投射する。ステップS102において、測距装置20は、対象物2から反射された反射光を受光する。
Steps S101 to S104 of FIG. 7 are processes corresponding to step S10 of FIG. Step S105 in FIG. 7 is a process corresponding to step S30 in FIG. In step S101, the ranging
ステップS103において、測距装置20は、参照光、反射光等に基づく信号を用いて反射光強度、距離及び瞬間速度を算出する。ここで、FMCW方式による距離及び瞬間速度の算出方法について図8乃至図10を参照して説明する。
In step S103, the
まず、図8を参照しつつ距離の算出方法を説明する。図8のグラフは、参照光に基づく三角波の一部、反射光に基づく三角波の一部及びこれらのビートの周波数の時間変化を示している。図8より、参照光に基づく三角波は、時刻t0において周波数f0であり、時間の経過とともに線形に周波数が増加する。その後、時間Tが経過した時刻t0+Tにおいて、周波数f0+Fとなる。すなわち、参照光に基づく三角波の傾きはF/Tである。三角波の傾きF/Tの値は、三角波発生器213で生成される三角波により定まるため、既知である。反射光に基づく三角波は、上述のように、参照光よりも時間Δt(=2r/c)だけ遅れて入力されるため、図8に示されるように、参照光を横方向に時間Δtだけシフトした波形となる。なお、図8において、対象物2は動いておらず、ドップラー効果による波形のシフトはないものとしている。
First, a method of calculating the distance will be described with reference to FIG. The graph of FIG. 8 shows a part of the triangle wave based on the reference light, a part of the triangle wave based on the reflected light, and the time change of the frequency of these beats. From FIG. 8, the triangular wave based on the reference light has a frequency f 0 at time t 0 , and the frequency increases linearly with the passage of time. After that, at the time t 0 + T when the time T has elapsed, the frequency becomes f 0 + F. That is, the slope of the triangular wave based on the reference light is F / T. The value of the slope F / T of the triangular wave is known because it is determined by the triangular wave generated by the
時間Δtは極めて短い時間であるため、時間Δt自体を高精度に測定することは困難な場合があるが、周波数Δfはミキサ等によりビートを生成することで比較的高精度に測定することができる。そこで、参照光に基づく三角波と反射光に基づく三角波とを混合してビートを生成して、そのビートの周波数を測定することで、参照光の周波数と反射光の周波数の差Δfを取得する。ΔfとΔtの比は、図8から明らかなように、FとTの比と一致する。そのため、Δtは、ビートから得られたΔfと、既知の(F/T)の値を用いて、Δt=Δf/(F/T)と表すことができる。上述のΔt=2r/cの関係を考慮すると、測距装置20から対象物2までの距離は、以下の式(1)で表される。
したがって、時間の経過とともに線形に周波数が増加するように周波数変調された光を投射し、反射光に基づく信号と参照光に基づく信号のビートの周波数を測定することにより測距を行うことができる。 Therefore, distance measurement can be performed by projecting frequency-modulated light so that the frequency increases linearly with the passage of time, and measuring the beat frequencies of the signal based on the reflected light and the signal based on the reference light. ..
次に、図9及び図10を参照しつつ瞬間速度の算出方法を説明する。図9及び図10は、三角波の1周期分を含むように、図8に示したグラフをより広い時間範囲で示したグラフである。図9は、対象物2の瞬間速度がゼロである場合の周波数の時間変化を示している。図9より理解できるように、ビート周波数は、三角波の頂点付近を除き、Δfで一定である。
Next, a method of calculating the instantaneous velocity will be described with reference to FIGS. 9 and 10. 9 and 10 are graphs showing the graph shown in FIG. 8 over a wider time range so as to include one cycle of the triangular wave. FIG. 9 shows the time change of the frequency when the instantaneous velocity of the
図10は、対象物2が測距装置20に向かう方向に動いている場合の周波数の時間変化を示している。測距装置20から投射された光は、対象物2で反射する際にドップラー効果により周波数が高くなる。これにより、三角波の周波数上昇時と下降時とで、ビート周波数がΔf1とΔf2の2種類の値を繰り返す。ドップラー効果による周波数変動量をΔfdとすると、Δfd=(Δf2-Δf1)/2で表される。また、上述の式(1)におけるΔfは、Δf=(Δf1+Δf2)/2で表される。したがって、ビート周波数としてΔf1とΔf2を取得することにより、対象物2が動いている場合においても式(1)に基づいて距離rを算出することができる。更に、Δfdを光のドップラー効果の公式に入力することにより対象物2の瞬間速度を算出することができる。このように、本実施形態の測距装置20は、FMCW方式を用いたLiDAR装置であるため、距離分布及び瞬間速度分布を取得することができる。また、反射光に基づく信号の強度に基づき、本実施形態の測距装置20は、反射光強度分布を取得することができる。
FIG. 10 shows the time change of the frequency when the
図7のステップS104において、測距装置20は、所定範囲内における反射光強度分布、距離分布及び瞬間速度分布の取得が完了しているか否かを判断する。これらの取得が完了していない場合(ステップS104においてNO)、処理はステップS101に移行し、光を照射する位置を変えて異なる測定点の反射光強度、距離及び瞬間速度の測定を行う。これらの取得が完了している場合(ステップS104においてYES)、処理はステップS105に移行する。このように、ステップS101からステップS104のループにおいては、反射光強度分布、距離分布及び瞬間速度分布の取得のための走査が行われる。
In step S104 of FIG. 7, the
ステップS105において、測距装置20は、画像処理装置10に反射光強度分布、距離分布及び瞬間速度分布(分布情報)を送信する。
In step S105, the
図11及び図12を参照して、画像処理装置10において行われる処理をより具体的に説明する。図11は、第1実施形態に係る画像処理装置10により行われる処理の概略を示すフローチャートである。図12は、トリミング処理の概略を示す模式図である。
The processing performed in the
図11のステップS201は、図6のステップS30及び図7のステップS105に対応する処理である。図11のステップS202は、図6のステップS40に対応する処理である。図11のステップS203は、図6のステップS50に対応する処理である。図11のステップS204及びステップS205は、図6のステップS60に対応する処理である。 Step S201 of FIG. 11 is a process corresponding to step S30 of FIG. 6 and step S105 of FIG. 7. Step S202 of FIG. 11 is a process corresponding to step S40 of FIG. Step S203 of FIG. 11 is a process corresponding to step S50 of FIG. Step S204 and step S205 of FIG. 11 are processes corresponding to step S60 of FIG.
ステップS201において、画像処理装置10の第1取得部121は、測距装置20から空間内の第1領域の中の分布情報を取得する。取得された分布情報は、記憶部126に記憶され、後続の処理において、適宜記憶部126から読み出されて用いられる。ここで、分布情報は、少なくとも瞬間速度分布を含む。
In step S201, the
ステップS202において、画像処理装置10の第2取得部122は、測距装置20から第1領域の少なくとも一部を含む画像を取得する。取得された画像は、記憶部126に記憶され、後続の処理において、適宜記憶部126から読み出されて用いられる。ステップS201とステップS202の順序は逆であってもよく、これらが並行して行われてもよい。
In step S202, the
ステップS203において、画像処理装置10の検出部123は、瞬間速度分布に基づいて、画像に含まれる移動物体を示す移動物体領域(第2領域)を検出する。ステップS203の処理について図12を参照してより詳細に説明する。
In step S203, the
図12の上段には第1領域における瞬間速度分布91が示されている。瞬間速度分布91は、瞬間速度の2次元分布が示されており、所定の閾値よりも大きい瞬間速度を有する部分がハッチングで示されている。図12より、瞬間速度分布91内に、人型の移動物体92が存在することがわかる。なお、ここでの瞬間速度を有する部分の判別は閾値に基づくものでなくてもよく、例えば、瞬間速度の微分値等を用いたエッジ抽出処理を行い、エッジに囲まれた領域を所定の瞬間速度を有する部分と判別するものであってもよい。
The upper part of FIG. 12 shows the
図12の中段には、画像93が示されている。画像93は、静止画又は動画のうちの1フレームである。画像93のみを参照した場合、画像93の中のどの領域に移動物体があるのかを判別することは難しい。例えば、画像93の情報のみに基づいて画像93内の人型の部分が移動物体であることを判定することは困難である。そこで、検出部123は、瞬間速度分布91を参照して、画像93の中から移動物体92に対応する領域を検出する。この検出は、例えば、瞬間速度分布91内の移動物体92の形状と類似する形状を画像93内から探索することにより行われる。このようにして、移動物体92に対応する領域として、画像93内に人型の移動物体領域94が検出される。
ステップS204において、座標設定部124は、瞬間速度分布91内の移動物体92の座標と、画像93内の移動物体領域94の座標との対応付けを行う。これにより、例えば、瞬間速度分布91を取得した範囲と画像93を取得した範囲との位置又は大きさが一致していない場合であっても、画像93内の移動物体領域94の範囲を明らかにすることができる。
In step S204, the coordinate setting
ステップS205において、トリミング処理部125は、画像93の一部を移動物体領域94が含まれるようにトリミングして移動物体画像95を生成する。生成された移動物体画像95は、記憶部126に記憶され、必要に応じて画像処理装置10から外部に出力可能である。このようにして、本処理によれば、移動物体領域94のみ、あるいは、移動物体領域94及びその近傍のみを含む移動物体画像95を取得することができる。
In step S205, the trimming
本実施形態によれば、動画のフレーム等の時間的に連続する複数の画像を処理に用いることなく、1つの画像から移動物体を抽出することができる画像処理装置10が提供される。
According to the present embodiment, there is provided an
ここで、1つの画像から移動物体を抽出することの効果についてより具体的に説明する。複数の画像を比較して移動物体を検出する手法では、扱う情報量が多くなるため処理負荷が大きくなり得る。撮像装置から他の処理装置に複数の画像を送信して、他の処理装置で移動物体を検出する処理を行うことで処理を高速化する手法も考えられるが、この場合、複数の画像を送信することが必要になるため、通信負荷の増大を招き得る。これに対し、本実施形態では、処理に用いる画像は1つにすることができ、処理に用いる画像の個数を少なくすることができる。本実施形態の処理に用いられる瞬間速度分布は、画像に比べると情報量が小さい場合が多い。そのため、上述の要因による処理負荷、通信負荷の影響が低減される。 Here, the effect of extracting a moving object from one image will be described more specifically. In the method of detecting a moving object by comparing a plurality of images, the amount of information to be handled is large, so that the processing load can be large. A method of speeding up the processing by transmitting a plurality of images from the image pickup device to another processing device and performing a process of detecting a moving object by the other processing device is also conceivable. In this case, a plurality of images are transmitted. This can lead to an increase in communication load. On the other hand, in the present embodiment, the number of images used for processing can be one, and the number of images used for processing can be reduced. The instantaneous velocity distribution used in the processing of the present embodiment often has a smaller amount of information than the image. Therefore, the influence of the processing load and the communication load due to the above-mentioned factors is reduced.
移動物体のトリミングを行う際には、移動物体の全体が含まれるように余裕を持ったトリミングを行う必要があるため、移動物体の輪郭の検出精度が高いほどトリミング後の画像のサイズを小さくすることができる。本実施形態の手法では、瞬間速度を直接測定しているため、複数の画像の差分等から移動物体を推測して検出するような間接的な手法に比べ移動物体の検出精度が向上し得る。そのため、移動物体の輪郭を高精度に検出でき、トリミング後の移動物体画像の情報量を更に小さくすることができる。したがって、他の装置に移動物体画像を送信する際の通信負荷を低減することができる。 When trimming a moving object, it is necessary to perform trimming with a margin so that the entire moving object is included. Therefore, the higher the accuracy of detecting the contour of the moving object, the smaller the size of the trimmed image. be able to. Since the method of the present embodiment directly measures the instantaneous velocity, the detection accuracy of the moving object can be improved as compared with the indirect method of estimating and detecting the moving object from the difference between a plurality of images. Therefore, the contour of the moving object can be detected with high accuracy, and the amount of information of the moving object image after trimming can be further reduced. Therefore, it is possible to reduce the communication load when transmitting the moving object image to another device.
ステップS203における移動物体領域94の検出において、瞬間速度分布91に加えて、更に距離分布を用いてもよい。移動物体領域94とその他の領域とが等距離である場合は少なく、通常は両者の距離に差がある。したがって、距離分布においても移動物体の輪郭を検出可能な場合がある。そこで、瞬間速度分布91と距離分布の情報を総合して移動物体領域94の検出を行うことで、更に検出精度が向上し得る。
In the detection of the moving
また、ステップS203における移動物体領域94の検出において、更に反射光強度分布を用いてもよい。移動物体領域94とその他の領域とが偶然同じ反射率であることは少なく、通常は反射率にも差がある。したがって、反射光強度分布においても移動物体の輪郭を検出可能な場合がある。そこで、瞬間速度分布91と反射光強度分布の情報を総合して移動物体領域94の検出を行うことで、更に検出精度が向上し得る。
Further, the reflected light intensity distribution may be further used in the detection of the moving
処理に用いられる画像は、画質向上のため、静止画、あるいは、フレーム間の圧縮を行っていない形式の動画を構成するフレームのいずれかであることが望ましい。フレーム間の圧縮を行う形式であるMPEG4(Moving Picture Experts Group 4)等の動画から1つのフレームを取り出して本処理に用いる場合、フレーム間の圧縮に起因する画質劣化が生じ得る。これに対し、静止画、あるいは、フレーム間の圧縮を行っていない形式の動画から1つのフレームを取り出して本処理に用いる場合、この画質劣化は生じないためである。なお、フレーム間の圧縮を行っていない形式の動画は、例えば、Motion JPEG(Joint Photographic Experts Group)であり得る。 In order to improve the image quality, it is desirable that the image used for processing is either a still image or a frame constituting a moving image in a format in which compression between frames is not performed. When one frame is taken out from a moving image such as MPEG4 (Moving Picture Experts Group 4), which is a format for compressing between frames, and used for this processing, image quality deterioration due to compression between frames may occur. On the other hand, when one frame is taken out from a still image or a moving image in a format in which compression between frames is not performed and used for this processing, this deterioration in image quality does not occur. The moving image in a format in which compression between frames is not performed may be, for example, Motion JPEG (Joint Photographic Experts Group).
[第2実施形態]
本発明の第2実施形態として、測距装置40に画像処理装置10が組み込まれている場合の構成例を説明する。第1実施形態と共通する要素についての説明は省略又は簡略化する。
[Second Embodiment]
As a second embodiment of the present invention, a configuration example in which the
図13は、第2実施形態に係る物体検出システム1の概略構成を示す模式図である。物体検出システム1は、測距装置40及び撮像装置30を含む。測距装置40は、画像処理装置10及び測定装置50を含む。測定装置50は、例えば第1実施形態で述べた測距装置20に相当するFMCW方式のLiDAR装置であり得る。測距装置40に含まれている画像処理装置10は、第1実施形態の画像処理装置10と同様の処理を行う。
FIG. 13 is a schematic diagram showing a schematic configuration of the
本実施形態の測距装置40に画像処理装置10が組み込まれている構成においても、第1実施形態と同様の効果を得ることができる。したがって、動画のフレーム等の時間的に連続する複数の画像を処理に用いることなく、1つの画像から移動物体を抽出することができる測距装置40が提供される。
Even in the configuration in which the
[第3実施形態]
本発明の第3実施形態として、撮像装置60に画像処理装置10が組み込まれている場合の構成例を説明する。第1実施形態と共通する要素についての説明は省略又は簡略化する。
[Third Embodiment]
As a third embodiment of the present invention, a configuration example in which the
図14は、第3実施形態に係る物体検出システム1の概略構成を示す模式図である。物体検出システム1は、測距装置20及び撮像装置60を含む。撮像装置60は、画像処理装置10及び撮像素子を備えたカメラユニット70を含む。カメラユニット70は、例えば第1実施形態で述べた撮像装置30に対応するデジタルスチルカメラであり得る。撮像装置60に含まれている画像処理装置10は、第1実施形態の画像処理装置10と同様の処理を行う。
FIG. 14 is a schematic diagram showing a schematic configuration of the
本実施形態の撮像装置60に画像処理装置10が組み込まれている構成においても、第1実施形態と同様の効果を得ることができる。したがって、動画のフレーム等の時間的に連続する複数の画像を処理に用いることなく、1つの画像から移動物体を抽出することができる撮像装置60が提供される。
Even in the configuration in which the
上述の実施形態において説明したシステムは以下の第4実施形態のようにも構成することができる。 The system described in the above-described embodiment can also be configured as in the following fourth embodiment.
[第4実施形態]
図15は、第4実施形態に係る画像処理装置800の機能ブロック図である。画像処理装置800は、第1取得部821、第2取得部822及び検出部823を備える。第1取得部821は、空間内の第1領域の中の物体の瞬間速度分布を取得する。第2取得部822は、第1領域の少なくとも一部を含む画像を取得する。検出部823は、瞬間速度分布に基づいて、画像に含まれる移動物体を示す第2領域を検出する。
[Fourth Embodiment]
FIG. 15 is a functional block diagram of the
本実施形態によれば、1つの画像から移動物体を抽出することができる画像処理装置が提供される。 According to the present embodiment, an image processing device capable of extracting a moving object from one image is provided.
[変形実施形態]
本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
[Modification Embodiment]
The present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the spirit of the present invention.
上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1又は2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC、FPGA等の回路であってもよい。 A processing method in which a program for operating the configuration of the embodiment is recorded in a storage medium so as to realize the functions of the above-described embodiment, the program recorded in the storage medium is read out as a code, and the program is executed in a computer is also described in each embodiment. Included in the category. That is, a computer-readable storage medium is also included in the scope of each embodiment. Further, not only the storage medium in which the above-mentioned program is recorded but also the program itself is included in each embodiment. Further, the one or more components included in the above-described embodiment may be a circuit such as an ASIC or FPGA configured to realize the function of each component.
該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。 As the storage medium, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk) -ROM, a magnetic tape, a non-volatile memory card, or a ROM can be used. Further, not only the program recorded on the storage medium is executed by itself, but also the program that operates on the OS and executes the process in cooperation with other software and the function of the expansion board is also an embodiment. Is included in the category of.
上述の各実施形態の機能により実現されるサービスは、SaaS(Software as a Service)の形態でユーザに対して提供することもできる。 The service realized by the functions of each of the above-described embodiments can also be provided to the user in the form of SaaS (Software as a Service).
なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:
(付記1)
空間内の第1領域の中の物体の瞬間速度分布を取得する第1取得部と、
前記第1領域の少なくとも一部を含む画像を取得する第2取得部と、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出する検出部と、
を有することを特徴とする画像処理装置。
(Appendix 1)
The first acquisition unit that acquires the instantaneous velocity distribution of the object in the first region in space,
A second acquisition unit that acquires an image including at least a part of the first region, and
A detection unit that detects a second region indicating a moving object included in the image based on the instantaneous velocity distribution.
An image processing device characterized by having.
(付記2)
前記瞬間速度分布は、前記瞬間速度分布を測定する測定装置に向かう方向又は前記測定装置から遠ざかる方向の瞬間速度の大きさを示す分布である
ことを特徴とする付記1に記載の画像処理装置。
(Appendix 2)
The image processing apparatus according to
(付記3)
前記検出部は、前記瞬間速度分布の中の瞬間速度が所定の閾値よりも大きい領域を含むように前記第2領域を検出する
ことを特徴とする付記1又は2に記載の画像処理装置。
(Appendix 3)
The image processing apparatus according to
(付記4)
前記検出部は、前記瞬間速度分布の中の瞬間速度のエッジを検出し、前記エッジを含む領域を前記第2領域として検出する
ことを特徴とする付記1又は2に記載の画像処理装置。
(Appendix 4)
The image processing apparatus according to
(付記5)
前記第1領域の座標と、前記画像の座標との対応付けを行う座標設定部を更に備える
ことを特徴とする付記1乃至4のいずれか1項に記載の画像処理装置。
(Appendix 5)
The image processing apparatus according to any one of
(付記6)
前記画像の一部を前記第2領域が含まれるようにトリミングすることにより移動物体画像を生成するトリミング処理部を更に備える
ことを特徴とする付記1乃至5のいずれか1項に記載の画像処理装置。
(Appendix 6)
The image processing according to any one of
(付記7)
前記第1取得部は、更に、前記瞬間速度分布を測定する測定装置から被写体までの距離を示す距離分布を取得し、
前記検出部は、更に、前記距離分布に基づいて、前記第2領域を検出する
ことを特徴とする付記1乃至6のいずれか1項に記載の画像処理装置。
(Appendix 7)
The first acquisition unit further acquires a distance distribution indicating the distance from the measuring device for measuring the instantaneous velocity distribution to the subject.
The image processing apparatus according to any one of
(付記8)
前記第1取得部は、更に、前記第1領域に投射した光による被写体からの反射光の強度を示す反射光強度分布を取得し、
前記検出部は、更に、前記反射光強度分布に基づいて、前記第2領域を検出する
ことを特徴とする付記1乃至7のいずれか1項に記載の画像処理装置。
(Appendix 8)
The first acquisition unit further acquires a reflected light intensity distribution indicating the intensity of the reflected light from the subject by the light projected on the first region.
The image processing apparatus according to any one of
(付記9)
前記瞬間速度分布は、FMCW(Frequency Modulated Continuous Wave)方式のLiDAR(Light Detection and Ranging)装置を用いて測定された、投射光の周波数と反射光の周波数とのドップラー効果に起因する差に基づいて取得される
ことを特徴とする付記1乃至8のいずれか1項に記載の画像処理装置。
(Appendix 9)
The instantaneous velocity distribution is based on the difference due to the Doppler effect between the frequency of the projected light and the frequency of the reflected light measured by using an FMCW (Frequency Modulated Continuous Wave) type LiDAR (Light Detection and Ranging) device. The image processing apparatus according to any one of
(付記10)
前記画像は、フレーム間の圧縮を行っていない形式の動画を構成するフレームである
ことを特徴とする付記1乃至9のいずれか1項に記載の画像処理装置。
(Appendix 10)
The image processing apparatus according to any one of
(付記11)
前記画像は、静止画である
ことを特徴とする付記1乃至9のいずれか1項に記載の画像処理装置。
(Appendix 11)
The image processing apparatus according to any one of
(付記12)
瞬間速度分布を測定する測定装置と、
付記1乃至11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする測距装置。
(Appendix 12)
A measuring device that measures the instantaneous velocity distribution,
The image processing apparatus according to any one of
A ranging device characterized by having.
(付記13)
前記測定装置は、FMCW方式のLiDAR装置であり、投射光の周波数と反射光の周波数との間のドップラー効果に起因する差に基づいて前記瞬間速度分布を測定する
ことを特徴とする付記12に記載の測距装置。
(Appendix 13)
The measuring device is an FMCW type LiDAR device, and is characterized in that the instantaneous velocity distribution is measured based on the difference caused by the Doppler effect between the frequency of the projected light and the frequency of the reflected light. The range measuring device described.
(付記14)
前記測定装置は、前記測定装置から被写体までの距離を示す距離分布と、投射した光による被写体からの反射光の強度を示す反射光強度分布とを更に測定する
ことを特徴とする付記12又は13に記載の測距装置。
(Appendix 14)
Appendix 12 or 13 is characterized in that the measuring device further measures a distance distribution indicating the distance from the measuring device to the subject and a reflected light intensity distribution indicating the intensity of the reflected light from the subject due to the projected light. The distance measuring device described in.
(付記15)
入射光に基づく画像を生成する撮像素子と、
付記1乃至11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。
(Appendix 15)
An image sensor that generates an image based on incident light,
The image processing apparatus according to any one of
An imaging device characterized by having.
(付記16)
空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、
前記第1領域の少なくとも一部を含む画像を取得するステップと、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、
を有することを特徴とする画像処理方法。
(Appendix 16)
The step of acquiring the instantaneous velocity distribution of an object in the first region in space,
The step of acquiring an image including at least a part of the first region, and
A step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution, and a step of detecting the second region.
An image processing method characterized by having.
(付記17)
コンピュータに、
空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、
前記第1領域の少なくとも一部を含む画像を取得するステップと、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、
を実行させることを特徴とするプログラム。
(Appendix 17)
On the computer
The step of acquiring the instantaneous velocity distribution of an object in the first region in space,
The step of acquiring an image including at least a part of the first region, and
A step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution, and a step of detecting the second region.
A program characterized by executing.
10、800 画像処理装置
121、821 第1取得部
122、822 第2取得部
123、823 検出部
124 座標設定部
125 トリミング処理部
126 記憶部
10,800
Claims (17)
前記第1領域の少なくとも一部を含む画像を取得する第2取得部と、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出する検出部と、
を有し、
前記検出部は、前記瞬間速度分布に含まれている所定の瞬間速度を有する移動物体の形状と類似する形状を前記画像の中から検索することにより、前記第2領域を検出する
ことを特徴とする画像処理装置。 The first acquisition unit that acquires the instantaneous velocity distribution of the object in the first region in space,
A second acquisition unit that acquires an image including at least a part of the first region, and
A detection unit that detects a second region indicating a moving object included in the image based on the instantaneous velocity distribution.
Have,
The detection unit detects the second region by searching the image for a shape similar to the shape of a moving object having a predetermined instantaneous velocity included in the instantaneous velocity distribution.
An image processing device characterized by this.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the instantaneous velocity distribution is a distribution indicating the magnitude of the instantaneous velocity in the direction toward the measuring device for measuring the instantaneous velocity distribution or in the direction away from the measuring device. ..
ことを特徴とする請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the detection unit detects the second region so that the instantaneous velocity in the instantaneous velocity distribution includes a region larger than a predetermined threshold value.
ことを特徴とする請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the detection unit detects an edge of an instantaneous velocity in the instantaneous velocity distribution and detects a region including the edge as the second region.
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, further comprising a coordinate setting unit that associates the coordinates of the first region with the coordinates of the image.
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The image according to any one of claims 1 to 5, further comprising a trimming processing unit that generates a moving object image by trimming a part of the image so as to include the second region. Processing device.
前記検出部は、更に、前記距離分布に基づいて、前記第2領域を検出する
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The first acquisition unit further acquires a distance distribution indicating the distance from the measuring device for measuring the instantaneous velocity distribution to the subject.
The image processing apparatus according to any one of claims 1 to 6, wherein the detection unit further detects the second region based on the distance distribution.
前記検出部は、更に、前記反射光強度分布に基づいて、前記第2領域を検出する
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 The first acquisition unit further acquires a reflected light intensity distribution indicating the intensity of the reflected light from the subject by the light projected on the first region.
The image processing apparatus according to any one of claims 1 to 7, wherein the detection unit further detects the second region based on the reflected light intensity distribution.
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 The instantaneous velocity distribution is based on the difference due to the Doppler effect between the frequency of the projected light and the frequency of the reflected light measured by using an FMCW (Frequency Modulated Continuous Wave) type LiDAR (Light Detection and Ranging) device. The image processing apparatus according to any one of claims 1 to 8, wherein the image processing apparatus is obtained.
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the image is a frame constituting a moving image in a format in which compression between frames is not performed.
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the image is a still image.
請求項1乃至11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする測距装置。 A measuring device that measures the instantaneous velocity distribution,
The image processing apparatus according to any one of claims 1 to 11.
A ranging device characterized by having.
ことを特徴とする請求項12に記載の測距装置。 The measuring device is an FMCW type LiDAR device, and is characterized in that the instantaneous velocity distribution is measured based on the difference caused by the Doppler effect between the frequency of the projected light and the frequency of the reflected light. The distance measuring device described in.
ことを特徴とする請求項12又は13に記載の測距装置。 13. 13. The distance measuring device according to 13.
請求項1乃至11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。 An image sensor that generates an image based on incident light,
The image processing apparatus according to any one of claims 1 to 11.
An imaging device characterized by having.
前記第1領域の少なくとも一部を含む画像を取得するステップと、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、
を有し、
前記瞬間速度分布に含まれている所定の瞬間速度を有する移動物体の形状と類似する形状を前記画像の中から検索することにより、前記第2領域が検出される
ことを特徴とする画像処理方法。 The step of acquiring the instantaneous velocity distribution of an object in the first region in space,
The step of acquiring an image including at least a part of the first region, and
A step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution, and a step of detecting the second region.
Have,
The second region is detected by searching the image for a shape similar to the shape of a moving object having a predetermined instantaneous velocity included in the instantaneous velocity distribution.
An image processing method characterized by that.
空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、
前記第1領域の少なくとも一部を含む画像を取得するステップと、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、
を実行させるプログラムであって、
前記瞬間速度分布に含まれている所定の瞬間速度を有する移動物体の形状と類似する形状を前記画像の中から検索することにより、前記第2領域が検出される
ことを特徴とするプログラム。 On the computer
The step of acquiring the instantaneous velocity distribution of an object in the first region in space,
The step of acquiring an image including at least a part of the first region, and
A step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution, and a step of detecting the second region.
Is a program that executes
The second region is detected by searching the image for a shape similar to the shape of a moving object having a predetermined instantaneous velocity included in the instantaneous velocity distribution.
A program characterized by that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018017791A JP7008308B2 (en) | 2018-02-05 | 2018-02-05 | Image processing device, ranging device, image pickup device, image processing method and program |
PCT/JP2019/001956 WO2019151059A1 (en) | 2018-02-05 | 2019-01-23 | Image processing device, range finding device, imaging device, image processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018017791A JP7008308B2 (en) | 2018-02-05 | 2018-02-05 | Image processing device, ranging device, image pickup device, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019135446A JP2019135446A (en) | 2019-08-15 |
JP7008308B2 true JP7008308B2 (en) | 2022-01-25 |
Family
ID=67478204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018017791A Active JP7008308B2 (en) | 2018-02-05 | 2018-02-05 | Image processing device, ranging device, image pickup device, image processing method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7008308B2 (en) |
WO (1) | WO2019151059A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10884130B1 (en) | 2020-08-18 | 2021-01-05 | Aeva, Inc. | LIDAR system noise calibration and target detection |
WO2022195969A1 (en) | 2021-03-17 | 2022-09-22 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023026920A1 (en) | 2021-08-26 | 2023-03-02 | パナソニックIpマネジメント株式会社 | Sensing device, processing device and data processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008171140A (en) | 2007-01-10 | 2008-07-24 | Omron Corp | Image processing apparatus, method and program |
JP2008241434A (en) | 2007-03-27 | 2008-10-09 | Stanley Electric Co Ltd | Distance image generator |
JP2011027457A (en) | 2009-07-22 | 2011-02-10 | Fujitsu Ten Ltd | Object detecting device, information processing method and information processing system |
JP2016138878A (en) | 2009-02-20 | 2016-08-04 | デジタル・シグナル・コーポレーション | System and method for generating three-dimensional image using lidar and video measurements |
US20160225148A1 (en) | 2015-01-29 | 2016-08-04 | Alpha Networks Inc. | Intelligent monitoring system and method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5786071A (en) * | 1980-11-17 | 1982-05-28 | Toshiba Corp | Laser distance measuring device |
-
2018
- 2018-02-05 JP JP2018017791A patent/JP7008308B2/en active Active
-
2019
- 2019-01-23 WO PCT/JP2019/001956 patent/WO2019151059A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008171140A (en) | 2007-01-10 | 2008-07-24 | Omron Corp | Image processing apparatus, method and program |
JP2008241434A (en) | 2007-03-27 | 2008-10-09 | Stanley Electric Co Ltd | Distance image generator |
JP2016138878A (en) | 2009-02-20 | 2016-08-04 | デジタル・シグナル・コーポレーション | System and method for generating three-dimensional image using lidar and video measurements |
JP2011027457A (en) | 2009-07-22 | 2011-02-10 | Fujitsu Ten Ltd | Object detecting device, information processing method and information processing system |
US20160225148A1 (en) | 2015-01-29 | 2016-08-04 | Alpha Networks Inc. | Intelligent monitoring system and method |
Also Published As
Publication number | Publication date |
---|---|
JP2019135446A (en) | 2019-08-15 |
WO2019151059A1 (en) | 2019-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2729826B1 (en) | Improvements in or relating to the processing of time-of-flight signals | |
US12080008B2 (en) | Time-of-flight depth measurement using modulation frequency adjustment | |
US10419741B2 (en) | Systems and methods for compression of three dimensional depth sensing | |
JP6863342B2 (en) | Optical ranging device | |
US8159598B2 (en) | Distance estimation apparatus, distance estimation method, storage medium storing program, integrated circuit, and camera | |
KR102194233B1 (en) | Apparatus and method for generating a depth image | |
JP7008308B2 (en) | Image processing device, ranging device, image pickup device, image processing method and program | |
JP6261681B2 (en) | Improvements in or relating to processing of time-of-flight signals | |
US11693093B2 (en) | Distance-measuring apparatus that outputs precision information | |
KR20170050058A (en) | Apparatus and method of sensing depth information | |
US20140347553A1 (en) | Imaging devices with light sources for reduced shadow, controllers and methods | |
CN111308482B (en) | Filtered Continuous Wave Time-of-Flight Measurement Based on Coded Modulated Images | |
KR102787166B1 (en) | LiDAR device and operating method of the same | |
KR20160026189A (en) | Method and apparatus for generating depth image | |
CN113497892B (en) | Imaging device, distance measuring method, storage medium, and computer device | |
US11885880B2 (en) | Unwrapped phases for time-of-flight modulation light | |
US20200175706A1 (en) | Three-dimensional position detecting device, three-dimensional position detecting system and method for detecting three-dimensional positions | |
CN114868037A (en) | Information processing device, imaging device, information processing method, and program | |
WO2022176679A1 (en) | Distance measurement correction device, distance measurement correction method, distance measurement correction program, and distance measurement device | |
US11567205B2 (en) | Object monitoring system including distance measuring device | |
WO2023238741A1 (en) | Photodetection device, system, and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180413 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7008308 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |