JPH06147895A - 物体の位置計測装置 - Google Patents
物体の位置計測装置Info
- Publication number
- JPH06147895A JPH06147895A JP4299677A JP29967792A JPH06147895A JP H06147895 A JPH06147895 A JP H06147895A JP 4299677 A JP4299677 A JP 4299677A JP 29967792 A JP29967792 A JP 29967792A JP H06147895 A JPH06147895 A JP H06147895A
- Authority
- JP
- Japan
- Prior art keywords
- gravity
- center
- calculation
- calculating
- sum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
(57)【要約】
【目的】 複数台の撮像装置から撮影された画像データ
により対象物の三次元座標位置を計測する高速動画像の
三次元位置測定装置を提供することを目的とする。 【構成】 複数のカメラで物体の画像を入力し、これに
もとづき物体の三次元位置を計測する物体の位置計測装
置において、画像から物体を抽出する物体抽出手段1
と、物体の重心を算出する重心算出手段2と、重心を正
規化する重心正規化手段3と、正規化した重心から積和
演算により三次元位置を算出する積和演算手段4と、積
和演算で使用する重みを登録したり、積和演算の判定基
準を登録する重み判定基準登録手段6を具備することを
特徴とする。
により対象物の三次元座標位置を計測する高速動画像の
三次元位置測定装置を提供することを目的とする。 【構成】 複数のカメラで物体の画像を入力し、これに
もとづき物体の三次元位置を計測する物体の位置計測装
置において、画像から物体を抽出する物体抽出手段1
と、物体の重心を算出する重心算出手段2と、重心を正
規化する重心正規化手段3と、正規化した重心から積和
演算により三次元位置を算出する積和演算手段4と、積
和演算で使用する重みを登録したり、積和演算の判定基
準を登録する重み判定基準登録手段6を具備することを
特徴とする。
Description
【0001】
【産業上の利用分野】本発明は、複数台の撮像装置(例
えばTVカメラ)により撮影された画像データにより対
象物の三次元座標位置を計測する高速動画像三次元位置
測定装置に関する。
えばTVカメラ)により撮影された画像データにより対
象物の三次元座標位置を計測する高速動画像三次元位置
測定装置に関する。
【0002】近年、自動検査、無人監視、運動解析な
ど、カメラで捉えた画像を処理する画像処理装置が普及
しつつある。画像から所望の物体を抽出し、物体の位
置、大きさ、色などの情報を捉えることができる。これ
により画像処理装置は、人手で行っていた作業を軽減す
ることができたり、人が立ち入ることのできない作業を
実現でき、更に人間がわからない現象を捉えたりするな
ど人間の目以上の役割を果たす非接触なセンサーとして
着目されている。本発明は画像処理装置において、物体
の位置を算出する手段に関する。
ど、カメラで捉えた画像を処理する画像処理装置が普及
しつつある。画像から所望の物体を抽出し、物体の位
置、大きさ、色などの情報を捉えることができる。これ
により画像処理装置は、人手で行っていた作業を軽減す
ることができたり、人が立ち入ることのできない作業を
実現でき、更に人間がわからない現象を捉えたりするな
ど人間の目以上の役割を果たす非接触なセンサーとして
着目されている。本発明は画像処理装置において、物体
の位置を算出する手段に関する。
【0003】
【従来の技術】従来から行われている画像からの三次元
情報の抽出は、主に写真測量技術を応用したパッシブな
方法と、より積極的にスリット光等を対象物に照射し、
その時に得られる情報から三次元情報を抽出するアクテ
ィブな手法が用いられている。
情報の抽出は、主に写真測量技術を応用したパッシブな
方法と、より積極的にスリット光等を対象物に照射し、
その時に得られる情報から三次元情報を抽出するアクテ
ィブな手法が用いられている。
【0004】どちらの手法も、既知である2ヶ所の位置
情報、つまり2台のカメラ位置又は光源位置とカメラ位
置から、三角測量により三次元情報を導き出すものであ
る。アクティブな方法は、情報媒体となる光を積極的に
投影することで効率的な三次元情報を観測できる。一
方、パッシブな方法は周囲の環境に応じ様々な対象物の
三次元情報が観測でき、自然画等広範囲な画像に応用さ
れる。特に両眼立体視等の様に、2組の画像から三次元
情報を抽出する場合は、写真測量技術を積極的に応用し
た方法が古くから用いられ、又現在でも主流である。
情報、つまり2台のカメラ位置又は光源位置とカメラ位
置から、三角測量により三次元情報を導き出すものであ
る。アクティブな方法は、情報媒体となる光を積極的に
投影することで効率的な三次元情報を観測できる。一
方、パッシブな方法は周囲の環境に応じ様々な対象物の
三次元情報が観測でき、自然画等広範囲な画像に応用さ
れる。特に両眼立体視等の様に、2組の画像から三次元
情報を抽出する場合は、写真測量技術を積極的に応用し
た方法が古くから用いられ、又現在でも主流である。
【0005】ところで従来の写真測量を応用した三次元
座標位置計測方法は、カメラの光学的特性、カメラの位
置情報等の撮像系の情報を必要としていた。例えばカメ
ラのレンズの収差等の特性、及びカメラの位置、X軸、
Y軸、Z軸に対するカメラの回転角度等のパラメータ
と、左右のカメラの撮像情報から三次元座標位置計算を
行っていた。その場合、パラメータ等の条件によっては
計算が収束しない場合を生じたりして計算に時間がかか
る上に、光軸、カメラ位置を求めておく等煩わしい作業
を必要としていたので能率の悪いものであった。
座標位置計測方法は、カメラの光学的特性、カメラの位
置情報等の撮像系の情報を必要としていた。例えばカメ
ラのレンズの収差等の特性、及びカメラの位置、X軸、
Y軸、Z軸に対するカメラの回転角度等のパラメータ
と、左右のカメラの撮像情報から三次元座標位置計算を
行っていた。その場合、パラメータ等の条件によっては
計算が収束しない場合を生じたりして計算に時間がかか
る上に、光軸、カメラ位置を求めておく等煩わしい作業
を必要としていたので能率の悪いものであった。
【0006】またスリット光を対象物に照射して反射光
をカメラで受光するアクティブな方法は、光照射するた
め利用環境がある程度暗くなければならない等利用条件
が制限されるものである。
をカメラで受光するアクティブな方法は、光照射するた
め利用環境がある程度暗くなければならない等利用条件
が制限されるものである。
【0007】これを改善するため、本願出願人は先に特
願平3−242005号により、移動物体を観測したい
対象空間を正六面体等のボクセル(単位部分空間)を組
み合わせた多面体で構成し、そのボクセルの各頂点の三
次元位置とカメラ投影面での位置をテーブル化し、その
情報から対象物の三次元位置を幾何学的な計算を用いて
計測することを提案した。
願平3−242005号により、移動物体を観測したい
対象空間を正六面体等のボクセル(単位部分空間)を組
み合わせた多面体で構成し、そのボクセルの各頂点の三
次元位置とカメラ投影面での位置をテーブル化し、その
情報から対象物の三次元位置を幾何学的な計算を用いて
計測することを提案した。
【0008】以下その概略について説明する。図10に
示す如く、左カメラ30及び右カメラ31により観測領
域32を観測する。観測領域32は、例えば1辺が50
cmの正六面体で示される3×3個のボクセル33で構
成される立方形のものとして説明する。図10は観測状
態を上より見た図を平面的に示したものである。また図
10において観測領域32の白丸は各ボクセルの頂点を
示したものである。
示す如く、左カメラ30及び右カメラ31により観測領
域32を観測する。観測領域32は、例えば1辺が50
cmの正六面体で示される3×3個のボクセル33で構
成される立方形のものとして説明する。図10は観測状
態を上より見た図を平面的に示したものである。また図
10において観測領域32の白丸は各ボクセルの頂点を
示したものである。
【0009】これを左カメラで見た画像が図11(A)
に示され、右カメラで見た画像が図11(B)で示され
る。そして図12では、ボクセルの実測値の三次元座標
(X、Y、Z)が(50、50、50)の点1は、左の
カメラで観測すると撮像面の座標xl、ylの(70、
181)に位置し、右カメラで観測すると撮像面の座
標、xr、yrの(89、154)に位置することが示
される。同様に、ボクセルの実測値の三次元座標(10
0、50、50)の点2は、左カメラで観測するとx
l、ylの(109、175)に位置し、右カメラで観
測するとxr、yrの(118、157)に位置するこ
とが示されている。そして、図13は測定範囲が3×4
×3=36ヶのボクセルに対し、対象物(X、Y、Z)
が、左カメラ、右カメラの投影面の点線の丸印に位置す
ることが示されている。
に示され、右カメラで見た画像が図11(B)で示され
る。そして図12では、ボクセルの実測値の三次元座標
(X、Y、Z)が(50、50、50)の点1は、左の
カメラで観測すると撮像面の座標xl、ylの(70、
181)に位置し、右カメラで観測すると撮像面の座
標、xr、yrの(89、154)に位置することが示
される。同様に、ボクセルの実測値の三次元座標(10
0、50、50)の点2は、左カメラで観測するとx
l、ylの(109、175)に位置し、右カメラで観
測するとxr、yrの(118、157)に位置するこ
とが示されている。そして、図13は測定範囲が3×4
×3=36ヶのボクセルに対し、対象物(X、Y、Z)
が、左カメラ、右カメラの投影面の点線の丸印に位置す
ることが示されている。
【0010】この図12は、実測値に対応して左カメ
ラ、右カメラの撮像面にボクセルの位置が存在すること
を示している。従って、逆に左カメラ、右カメラの撮像
面の座標位置から観測点がどのボクセルに近い位置にあ
るのか演算できる。
ラ、右カメラの撮像面にボクセルの位置が存在すること
を示している。従って、逆に左カメラ、右カメラの撮像
面の座標位置から観測点がどのボクセルに近い位置にあ
るのか演算できる。
【0011】前記特許出願の概要を、図14に示す処理
フローにより、例えば、図15における観測の対象点P
の位置を求める例について簡単に説明する。 三次元位置を求めたい対象点Pの投影面座標上での位
置とテーブル点の投影面上での位置関係から、三次元空
間において対象点Pに最も近いテーブル点を探索する。
この例では点9が最も近いテーブル点(最近隣点)とし
て探索される。
フローにより、例えば、図15における観測の対象点P
の位置を求める例について簡単に説明する。 三次元位置を求めたい対象点Pの投影面座標上での位
置とテーブル点の投影面上での位置関係から、三次元空
間において対象点Pに最も近いテーブル点を探索する。
この例では点9が最も近いテーブル点(最近隣点)とし
て探索される。
【0012】次に前記で求めた最近隣接点9を含む
すべてのボクセルB1 、B2 、B3に対して対象点が内
在するものを探索する。内在するボクセルは、対象点P
からそのボクセルの各頂点までの距離の和が最も短いも
のを選択する。図15の場合、対象点Pから頂点9、1
0、13、12、18、16、17、19までの距離の
和が、他のボクセルB2 、B3 における距離の和に比較
して最も小さいので、ボクセルB1 内に対象点Pが存在
することがわかる。
すべてのボクセルB1 、B2 、B3に対して対象点が内
在するものを探索する。内在するボクセルは、対象点P
からそのボクセルの各頂点までの距離の和が最も短いも
のを選択する。図15の場合、対象点Pから頂点9、1
0、13、12、18、16、17、19までの距離の
和が、他のボクセルB2 、B3 における距離の和に比較
して最も小さいので、ボクセルB1 内に対象点Pが存在
することがわかる。
【0013】それから前記により探索したボクセル
から、そのボクセルを構成する6つの面の中で、投影面
座標上で対象面を含む面を2つ算出する。 そして左カメラ及び右カメラ毎に対象点Pを通過する
直線を定義する。このために対象点Pを内在するボクセ
ルのXY平面(頂点16、17、10、9)の撮像面上
の投影を抽出し、また頂点12、13、19、18のX
Y平面の撮像面上の投影を抽出し、これらの投影点を結
ぶ線を算出する。このような処理を左カメラと右カメラ
の各々について行い、三次元空間上での2本の直線を定
義する。
から、そのボクセルを構成する6つの面の中で、投影面
座標上で対象面を含む面を2つ算出する。 そして左カメラ及び右カメラ毎に対象点Pを通過する
直線を定義する。このために対象点Pを内在するボクセ
ルのXY平面(頂点16、17、10、9)の撮像面上
の投影を抽出し、また頂点12、13、19、18のX
Y平面の撮像面上の投影を抽出し、これらの投影点を結
ぶ線を算出する。このような処理を左カメラと右カメラ
の各々について行い、三次元空間上での2本の直線を定
義する。
【0014】対象点Pはこれら2本の直線の交点に位
置するので、これら2本の直線の交点を求めることによ
り対象点Pの三次元座標を演算し、これを出力する。前
記動作を図示すると、図16に示すようになる。即ち対
象物のP(未知サンプル点)が内在するボクセルBを探
索し、これを構成する6つの面の中で、投影面座標上で
対象物Pを含む面を2つ算出する(図16の奥の面と手
前の面)。そしてこれら2つの面のそれぞれに対象物P
を投影し、その投影した点P1 、P2の三次元座標を求
める。このようにして得られたP1 、P2 を通る直線を
得る。なお図15においてP1 、P2 は右側カメラの画
像より得られたものであるが、左側カメラの画像により
同様にしてP1 ′、P2 ′を得てこれを通る直線を求
め、これら2本の直線の交点が未知サンプル点の三次元
座標である。
置するので、これら2本の直線の交点を求めることによ
り対象点Pの三次元座標を演算し、これを出力する。前
記動作を図示すると、図16に示すようになる。即ち対
象物のP(未知サンプル点)が内在するボクセルBを探
索し、これを構成する6つの面の中で、投影面座標上で
対象物Pを含む面を2つ算出する(図16の奥の面と手
前の面)。そしてこれら2つの面のそれぞれに対象物P
を投影し、その投影した点P1 、P2の三次元座標を求
める。このようにして得られたP1 、P2 を通る直線を
得る。なお図15においてP1 、P2 は右側カメラの画
像より得られたものであるが、左側カメラの画像により
同様にしてP1 ′、P2 ′を得てこれを通る直線を求
め、これら2本の直線の交点が未知サンプル点の三次元
座標である。
【0015】
【発明が解決しようとする課題】ところで、従来方式に
ついて、前記「従来の技術」の項の初めの部分において
記述した、写真測量技術を応用したパッシブな方法とス
リット光等を対象物に照射するアクティブな手法である
が、対象物の三次元位置を正確に算出するためには、対
象物を捉えるTVカメラのカメラパラメータ(三次元位
置、角度、焦点など)を精密に求める必要があり、その
ためレーザーを用いて焦点距離を厳密に算出したり、最
小2乗誤差を満足するように複雑な誤差の収束計算を行
っていた。
ついて、前記「従来の技術」の項の初めの部分において
記述した、写真測量技術を応用したパッシブな方法とス
リット光等を対象物に照射するアクティブな手法である
が、対象物の三次元位置を正確に算出するためには、対
象物を捉えるTVカメラのカメラパラメータ(三次元位
置、角度、焦点など)を精密に求める必要があり、その
ためレーザーを用いて焦点距離を厳密に算出したり、最
小2乗誤差を満足するように複雑な誤差の収束計算を行
っていた。
【0016】前者のレーザーは扱いが大変であり、後者
の収束計算は真値に近い初期値を与えないと解が得られ
ないという問題がある。更にこれらの手法は対象物の動
く範囲が広くなった場合には、広角レンズの使用による
レンズの収差という非線形の問題が加わる。
の収束計算は真値に近い初期値を与えないと解が得られ
ないという問題がある。更にこれらの手法は対象物の動
く範囲が広くなった場合には、広角レンズの使用による
レンズの収差という非線形の問題が加わる。
【0017】これらの問題に対する解決のため、本特許
出願人は、前記の如く、特願平3−242005号を特
許出願し、ゴルフスィングのように広い領域において広
角レンズを使用したときのレンズの収差の問題を解決
し、高精度で三次元計測ができるようになった。
出願人は、前記の如く、特願平3−242005号を特
許出願し、ゴルフスィングのように広い領域において広
角レンズを使用したときのレンズの収差の問題を解決
し、高精度で三次元計測ができるようになった。
【0018】しかしながらこの方式でハードウェア化を
行うときは、既知三次元データを格納するためのメモリ
容量が大きく、しかも幾何学による複雑なロジックで図
14の〜の各部分を実行しなければならないので、
小型で低廉な装置を実現することは難しい。従って本発
明の目的は、前記特許出願のハードウェア化の問題を解
決した物体の位置計測装置を提供することである。
行うときは、既知三次元データを格納するためのメモリ
容量が大きく、しかも幾何学による複雑なロジックで図
14の〜の各部分を実行しなければならないので、
小型で低廉な装置を実現することは難しい。従って本発
明の目的は、前記特許出願のハードウェア化の問題を解
決した物体の位置計測装置を提供することである。
【0019】
【課題を解決するための手段】前記目的を達成するた
め、本発明では、図1に示す如く、物体抽出部1、重心
算出部2、重心正規化部3、積和演算部4、判定部5、
重み・判定基準登録・学習部6を設ける。
め、本発明では、図1に示す如く、物体抽出部1、重心
算出部2、重心正規化部3、積和演算部4、判定部5、
重み・判定基準登録・学習部6を設ける。
【0020】この場合、物体抽出部1と重心算出部2は
左カメラ、右カメラ毎に演算し、各カメラ毎に得られた
重心にもとづき対象物体の三次元位置を求めることにな
る。この場合、重心正規化部3、積和演算部4、判定部
5、重み・判定基準登録・学習部6をニューラルネット
ワークで構成することによりハード量の削減をはかるこ
とができる。
左カメラ、右カメラ毎に演算し、各カメラ毎に得られた
重心にもとづき対象物体の三次元位置を求めることにな
る。この場合、重心正規化部3、積和演算部4、判定部
5、重み・判定基準登録・学習部6をニューラルネット
ワークで構成することによりハード量の削減をはかるこ
とができる。
【0021】
【作用】TVカメラから得られた画像より、物体抽出部
1により対象物体を抽出し、その対象物体の重心を重心
算出部2で算出する。またあらかじめ既知の正規化した
重心を、重み・判定基準登録・学習部6にもとづき学習
し、既知三次元データと一致するような、積和演算の重
み、判定基準をそれぞれ積和演算部4、判定部5で算出
しておく。この重み、判定基準は別のシステムであらか
じめ計算しておき、本装置に登録することもできる。
1により対象物体を抽出し、その対象物体の重心を重心
算出部2で算出する。またあらかじめ既知の正規化した
重心を、重み・判定基準登録・学習部6にもとづき学習
し、既知三次元データと一致するような、積和演算の重
み、判定基準をそれぞれ積和演算部4、判定部5で算出
しておく。この重み、判定基準は別のシステムであらか
じめ計算しておき、本装置に登録することもできる。
【0022】従って、左、右のカメラの各物体抽出部1
に対して画像が入力されたとき、各カメラ毎に物体抽出
部1で対象物が抽出され、重心算出部2により重心が算
出され、左カメラより得られた重心(xl、yl)及び
右カメラより得られた重心(xr、yr)がそれぞれ重
心正規化部3に入力されたとき、重心の正規化が行わ
れ、未知の正規化した重心に対して、上記重み・判定基
準を用いて積和演算、判定を繰り返して三次元位置が算
出される。
に対して画像が入力されたとき、各カメラ毎に物体抽出
部1で対象物が抽出され、重心算出部2により重心が算
出され、左カメラより得られた重心(xl、yl)及び
右カメラより得られた重心(xr、yr)がそれぞれ重
心正規化部3に入力されたとき、重心の正規化が行わ
れ、未知の正規化した重心に対して、上記重み・判定基
準を用いて積和演算、判定を繰り返して三次元位置が算
出される。
【0023】
【実施例】本発明の一実施例を図2〜図9にもとづき説
明する。図2は本発明の一実施例構成図、図3は色抽出
回路、雑音除去回路、色マーカ投影算出回路説明図、図
4は重心算出処理説明図、図5は区間最大投影値説明
図、図6は重心算出区間の決定状態説明図、図7はニュ
ーラルネットによる三次元位置計算説明図、図8はロジ
スティック関数説明図、図9はE(L)ルックアップテ
ーブル説明図である。
明する。図2は本発明の一実施例構成図、図3は色抽出
回路、雑音除去回路、色マーカ投影算出回路説明図、図
4は重心算出処理説明図、図5は区間最大投影値説明
図、図6は重心算出区間の決定状態説明図、図7はニュ
ーラルネットによる三次元位置計算説明図、図8はロジ
スティック関数説明図、図9はE(L)ルックアップテ
ーブル説明図である。
【0024】図2においては、例えばゴルフスイングを
画像入力する場合を示し、ゴルフクラブの位置や、体の
各位置を1/60秒で計測でき、これを用いてフォーム
の解析が実現できる。
画像入力する場合を示し、ゴルフクラブの位置や、体の
各位置を1/60秒で計測でき、これを用いてフォーム
の解析が実現できる。
【0025】図2において、まず本装置の概要を説明す
る。解析したい箇所に色マーカを装備し、この色マーカ
を2台のTVカメラで捉える。捉えた映像信号をA/D
変換して、RGBのディジタル画像データに変換する。
この画像データから色抽出し、雑音除去することによ
り、特定の色マーカだけ含む画像データを得る。
る。解析したい箇所に色マーカを装備し、この色マーカ
を2台のTVカメラで捉える。捉えた映像信号をA/D
変換して、RGBのディジタル画像データに変換する。
この画像データから色抽出し、雑音除去することによ
り、特定の色マーカだけ含む画像データを得る。
【0026】画像データは各色毎に投影値を算出し、そ
の投影値から重心算出を行う。2つのTVカメラから得
られるそれぞれの重心から、ニューラルネットワークに
よる三次元計算を行い、その結果をホスト計算機に通知
する。
の投影値から重心算出を行う。2つのTVカメラから得
られるそれぞれの重心から、ニューラルネットワークに
よる三次元計算を行い、その結果をホスト計算機に通知
する。
【0027】ホスト計算機では各色マーカの三次元位置
より速度、加速度などの運動量を計算し、あらかじめ格
納してあるゴルフの知識ベースと比較してフォームの善
し悪しをゴルファーに提示する。
より速度、加速度などの運動量を計算し、あらかじめ格
納してあるゴルフの知識ベースと比較してフォームの善
し悪しをゴルファーに提示する。
【0028】本装置は、各画像処理、重心算出、ニュー
ラルネットワークによる三次元計算で使用するパラメー
タをホスト計算機で設定できる。また本装置では、重心
算出とニューラルネットワークによる三次元計算は、D
SP(ディジタル・シグナル・プロセッサ)を使用でき
るが、使用するDSPの個数についてはDSP自体の能
力に依存することになる。
ラルネットワークによる三次元計算で使用するパラメー
タをホスト計算機で設定できる。また本装置では、重心
算出とニューラルネットワークによる三次元計算は、D
SP(ディジタル・シグナル・プロセッサ)を使用でき
るが、使用するDSPの個数についてはDSP自体の能
力に依存することになる。
【0029】図2はゴルフスイングを画像入力する例を
示し、ゴルファ8の、例えば肩部分に色マーカ9をつ
け、このマーカの状態を演算するものである。11はT
Vカメラで、例えば左カメラであり、12はA/D変換
部、13は色抽出部、14は雑音除去部、15は投影算
出部であり赤色部分の投影算出部15−1・・・黄色部
分の投影算出部15−nにより構成されるもの、16は
重心算出部、20は三次元計算部でありニューラルネッ
トワークにより構成されるもの、21はTVカメラで、
例えば右カメラ、22はA/D変換部、23は色抽出
部、24は雑音除去部、25は投影算出部であり赤色部
分の投影算出部25−1・・・黄色部分の投影算出部2
5−nにより構成されるものである。
示し、ゴルファ8の、例えば肩部分に色マーカ9をつ
け、このマーカの状態を演算するものである。11はT
Vカメラで、例えば左カメラであり、12はA/D変換
部、13は色抽出部、14は雑音除去部、15は投影算
出部であり赤色部分の投影算出部15−1・・・黄色部
分の投影算出部15−nにより構成されるもの、16は
重心算出部、20は三次元計算部でありニューラルネッ
トワークにより構成されるもの、21はTVカメラで、
例えば右カメラ、22はA/D変換部、23は色抽出
部、24は雑音除去部、25は投影算出部であり赤色部
分の投影算出部25−1・・・黄色部分の投影算出部2
5−nにより構成されるものである。
【0030】図2の動作を以下に具体的に説明する。ま
ず色マーカ9を位置計測したい部分に付着させる。この
例では体の頭、肩、腰、手、膝等に付ける。A/D変換
部12は、カラーのTVカメラ11から入力した画像信
号を、R、G、Bのディジタル信号に変換する。
ず色マーカ9を位置計測したい部分に付着させる。この
例では体の頭、肩、腰、手、膝等に付ける。A/D変換
部12は、カラーのTVカメラ11から入力した画像信
号を、R、G、Bのディジタル信号に変換する。
【0031】色抽出部13は、図3(A)に示すよう
に、ルックアップテーブルLUTを使用してデータ変換
を行い、複数の特定色の画像データのみ画素値をその色
に相当する特定値にして出力し、他の色に対しては画素
値を「0」にして出力するものであり、例えば特開昭6
3−314988号公報「ビデオレート色抽出装置」に
もとづき色抽出部13を構成する。なお図3(A)の場
合は1つの特定色のみの抽出の例であり、その特定色に
対して「1」が出力されるが、3つの色を抽出するとき
は2ビットの特定値で出力すればよい。
に、ルックアップテーブルLUTを使用してデータ変換
を行い、複数の特定色の画像データのみ画素値をその色
に相当する特定値にして出力し、他の色に対しては画素
値を「0」にして出力するものであり、例えば特開昭6
3−314988号公報「ビデオレート色抽出装置」に
もとづき色抽出部13を構成する。なお図3(A)の場
合は1つの特定色のみの抽出の例であり、その特定色に
対して「1」が出力されるが、3つの色を抽出するとき
は2ビットの特定値で出力すればよい。
【0032】雑音除去部14は、例えば3×3の論理フ
ィルタを用いて孤立点除去を行い、孤立点として存在す
る雑音を除去するものである。3×3の入力パターンに
対し、図3(B)に示す如きテーブルの論理フィルタを
用い、4連結などのようなドットが連結する連結パター
ンを抽出する。なお図3(B)において、*はドント・
ケアを示す。
ィルタを用いて孤立点除去を行い、孤立点として存在す
る雑音を除去するものである。3×3の入力パターンに
対し、図3(B)に示す如きテーブルの論理フィルタを
用い、4連結などのようなドットが連結する連結パター
ンを抽出する。なお図3(B)において、*はドント・
ケアを示す。
【0033】投影算出部15は、図3(C)に示すよう
に、雑音が除去された2値パターンに対して各行ごとの
水平投影、各列ごとの垂直投影を求める。投影算出部1
5は、識別する色の数だけ用意する。投影値算出につい
ては、例えば特開昭63−140381号公報「ビデオ
レート投影算出回路」を用いる。
に、雑音が除去された2値パターンに対して各行ごとの
水平投影、各列ごとの垂直投影を求める。投影算出部1
5は、識別する色の数だけ用意する。投影値算出につい
ては、例えば特開昭63−140381号公報「ビデオ
レート投影算出回路」を用いる。
【0034】投影値算出において、画像サイズを列方向
K、行方向m、i行、j列の画像データをM(i、j)
とすると、i行目の水平投影Ph〔i〕、j列目の垂直
投影Pv〔j〕及び投影の総和Sumが次のように算出
される。
K、行方向m、i行、j列の画像データをM(i、j)
とすると、i行目の水平投影Ph〔i〕、j列目の垂直
投影Pv〔j〕及び投影の総和Sumが次のように算出
される。
【0035】
【数1】
【0036】重心算出部16は、例えばDSPを使用し
て実現する。図4に、重心算出部16として使用したD
SPの外部RAMとプログラムの処理フローにより重心
算出方式を説明する。重心算出方式については、本願出
願人が先に出願した特願平3−136362号「微小物
体の位置計測方式」を用いる。
て実現する。図4に、重心算出部16として使用したD
SPの外部RAMとプログラムの処理フローにより重心
算出方式を説明する。重心算出方式については、本願出
願人が先に出願した特願平3−136362号「微小物
体の位置計測方式」を用いる。
【0037】図4に示すDSPの外部RAMには、前記
図3(C)の処理により得られた水平投影値、垂直投影
値の算出結果を格納する。またホスト計算機から、投影
有効区間として物体の移動領域の最大値と最小値を、こ
の外部RAMに格納しておく。更に物体の大きさの2倍
程度の値を区間幅として、この外部RAMの任意区間幅
の領域に格納しておく。
図3(C)の処理により得られた水平投影値、垂直投影
値の算出結果を格納する。またホスト計算機から、投影
有効区間として物体の移動領域の最大値と最小値を、こ
の外部RAMに格納しておく。更に物体の大きさの2倍
程度の値を区間幅として、この外部RAMの任意区間幅
の領域に格納しておく。
【0038】いま、画像データが図5に示す如き場合、
ホスト計算機からの設定値として投影有効区間として開
始点が10行、終了点が97行が格納され、任意区間幅
として4が記入される。そして画像データとして図5の
各行の投影値で示されるデータが格納されている。
ホスト計算機からの設定値として投影有効区間として開
始点が10行、終了点が97行が格納され、任意区間幅
として4が記入される。そして画像データとして図5の
各行の投影値で示されるデータが格納されている。
【0039】従って、重心算出処理に際し、初めに10
行目〜13行目までの任意区間の投影が算出される。こ
のとき10行目が5、11行目が0、12行目が8、1
3行目が10のため、この区間投影値としてこれらの和
の23が算出される。
行目〜13行目までの任意区間の投影が算出される。こ
のとき10行目が5、11行目が0、12行目が8、1
3行目が10のため、この区間投影値としてこれらの和
の23が算出される。
【0040】次に14行目〜17行目までの任意区間の
投影が算出される。この場合は312となる。そして前
回の10行目〜13行目までの区間投影値23と比較さ
れ、後者の値が大きいので、これが区間最大投影値とな
り、その投影値の累積値(投影値)312、開始点14
行目、終了点17行目が、RAMの区間最大投影区分に
記入される。以下同様にして各任意区間の投影値がこの
記入値と比較されるが、結局これが区間最大値としてそ
のまま記入される。
投影が算出される。この場合は312となる。そして前
回の10行目〜13行目までの区間投影値23と比較さ
れ、後者の値が大きいので、これが区間最大投影値とな
り、その投影値の累積値(投影値)312、開始点14
行目、終了点17行目が、RAMの区間最大投影区分に
記入される。以下同様にして各任意区間の投影値がこの
記入値と比較されるが、結局これが区間最大値としてそ
のまま記入される。
【0041】ところで、図4のプログラム処理フローの
重心算出区間の決定は、図6(A)に示すように、対象
物Aを区分するように、任意区間が存在するとき、その
重心が正確に得られない。図6(A)の状態では、任意
区間が区間最大投影値を有するものとなり、任意区間
のみで重心を算出しても対象物Aの正しい重心が得ら
れないことは明らかである。従って任意区間を修正する
ことが必要となる。このため、RAMにあらかじめ任意
区間修正幅を設定しておき、これを加算して区間幅を拡
張する。この任意区間修正幅の大きさとしては、例えば
任意区間の大きさとする。これにより図6(A)の場合
には、同(B)のように任意区間にこの任意区間幅の
1/2ずつ修正幅を付加した重心算出区間の開始点(s
tv)〜終了点(edv)を決定する。そしてこの重心
算出区間に対して、投影値とライン数の積和演算を行
い、重心を算出する。
重心算出区間の決定は、図6(A)に示すように、対象
物Aを区分するように、任意区間が存在するとき、その
重心が正確に得られない。図6(A)の状態では、任意
区間が区間最大投影値を有するものとなり、任意区間
のみで重心を算出しても対象物Aの正しい重心が得ら
れないことは明らかである。従って任意区間を修正する
ことが必要となる。このため、RAMにあらかじめ任意
区間修正幅を設定しておき、これを加算して区間幅を拡
張する。この任意区間修正幅の大きさとしては、例えば
任意区間の大きさとする。これにより図6(A)の場合
には、同(B)のように任意区間にこの任意区間幅の
1/2ずつ修正幅を付加した重心算出区間の開始点(s
tv)〜終了点(edv)を決定する。そしてこの重心
算出区間に対して、投影値とライン数の積和演算を行
い、重心を算出する。
【0042】即ち、水平投影において重心算出区間の開
始点をsth、終了点をedhとし、垂直投影において
重心算出区間の開始点をstv、終了点をedvとする
と、また各区間の投影値の累積値をそれぞれSUMv、
SUMhとすると、重心は次式で算出できる。
始点をsth、終了点をedhとし、垂直投影において
重心算出区間の開始点をstv、終了点をedvとする
と、また各区間の投影値の累積値をそれぞれSUMv、
SUMhとすると、重心は次式で算出できる。
【0043】
【数2】
【0044】なお前記説明は、図2における左カメラ側
であるTVカメラ11〜重心算出部16に関する説明で
ある。同様な処理が右カメラ側であるTVカメラ21〜
重心算出部26においても行われる。
であるTVカメラ11〜重心算出部16に関する説明で
ある。同様な処理が右カメラ側であるTVカメラ21〜
重心算出部26においても行われる。
【0045】いま、前記(2)式で得られる各TVカメ
ラ11、21からの対象物の重心をX1、Y1、X2、
Y2とする。これをニューラルネットワークにより構成
される三次元計算部20に入力し、これらに応じた三次
元座標(X、Y、Z)を算出する。
ラ11、21からの対象物の重心をX1、Y1、X2、
Y2とする。これをニューラルネットワークにより構成
される三次元計算部20に入力し、これらに応じた三次
元座標(X、Y、Z)を算出する。
【0046】三次元計算部20は、例えば図7に示す如
く、入力層iは4個のニューロユニットで構成され、中
間層jは5個のニューロユニットで構成され、出力層K
は3個のニューロユニットで構成されている。
く、入力層iは4個のニューロユニットで構成され、中
間層jは5個のニューロユニットで構成され、出力層K
は3個のニューロユニットで構成されている。
【0047】そして具体的には、次式で示す計算を行う
ことにより出力のX、Y、Zを算出することができる。
この例では出力層kは3個であるので、Fk(n)式に
おいてn=1がXを、n=2がYを、n=3がZをそれ
ぞれ表している。
ことにより出力のX、Y、Zを算出することができる。
この例では出力層kは3個であるので、Fk(n)式に
おいてn=1がXを、n=2がYを、n=3がZをそれ
ぞれ表している。
【0048】
【数3】
【0049】ここでZ(L)はロジスティック関数であ
り、分母のB(L)は、DSPで実現するためにEXP
関数を積和演算の形に直すためにテーラー展開した近似
式である。理想的には、分母のB(L)は無限級数とな
るが、誤差に応じて打ち切る必要があり、ここでは4次
までとした。
り、分母のB(L)は、DSPで実現するためにEXP
関数を積和演算の形に直すためにテーラー展開した近似
式である。理想的には、分母のB(L)は無限級数とな
るが、誤差に応じて打ち切る必要があり、ここでは4次
までとした。
【0050】こうして中間層jのn番目の出力は、入力
層iのFi(1)〜Fi(4)と重み係数W(i)
(j)の積和演算の結果Ij(n)をZ(L)関数で変
換した値となる。同様に出力層kのn番目の出力は、中
間層jのFj(1)〜Fj(5)と重み係数G(j)
(k)の積和演算の結果Ik(n)をZ(L)関数で変
換した値となる。ここで、隠れ層である中間層jの数を
5としたが、本発明はこれに限定されるものではない。
また隠れ層も1つに限定したわけではない。
層iのFi(1)〜Fi(4)と重み係数W(i)
(j)の積和演算の結果Ij(n)をZ(L)関数で変
換した値となる。同様に出力層kのn番目の出力は、中
間層jのFj(1)〜Fj(5)と重み係数G(j)
(k)の積和演算の結果Ik(n)をZ(L)関数で変
換した値となる。ここで、隠れ層である中間層jの数を
5としたが、本発明はこれに限定されるものではない。
また隠れ層も1つに限定したわけではない。
【0051】ところでZ(L)は、図8に示すロジステ
ィック関数であるが、各ノードでZ(L)の形状を変え
ることもできるようにするため、前記(3)式のZ
(L)は、次のように各ノードでの判定基準αj
(n)、αk(n)を用いて、次式の如く表すことがで
きる。
ィック関数であるが、各ノードでZ(L)の形状を変え
ることもできるようにするため、前記(3)式のZ
(L)は、次のように各ノードでの判定基準αj
(n)、αk(n)を用いて、次式の如く表すことがで
きる。
【0052】
【数4】
【0053】更にE(L)の形状の自由度をあげる点
と、E(L)の計算速度を上げるためにE(L)をルッ
クアップテーブルを用いて計算することができる。図9
にこのルックアップテーブルの構成例を示す。図9に示
すように、アドレスが簡単な積和演算で求まり、このア
ドレスを基にして、E(L)の値をメモリ(RAM又は
ROM)から高速に算出することができる。
と、E(L)の計算速度を上げるためにE(L)をルッ
クアップテーブルを用いて計算することができる。図9
にこのルックアップテーブルの構成例を示す。図9に示
すように、アドレスが簡単な積和演算で求まり、このア
ドレスを基にして、E(L)の値をメモリ(RAM又は
ROM)から高速に算出することができる。
【0054】重み係数WmnとGmnは、外部からDS
Pのメモリ(RAM又はROM)に与えておくのが装置
の小型化あるいはDSPの負荷を軽減する意味で望まし
いが、装置内部で重み係数Wmn、Gmnを決定しても
よい。この場合は下記の計算式で実現する。
Pのメモリ(RAM又はROM)に与えておくのが装置
の小型化あるいはDSPの負荷を軽減する意味で望まし
いが、装置内部で重み係数Wmn、Gmnを決定しても
よい。この場合は下記の計算式で実現する。
【0055】
【数5】
【0056】(5)式は下記の評価関数を満たすまで繰
り返し算出する。
り返し算出する。
【0057】
【数6】
【0058】なお、画像から物体をビデオレートで抽出
するプロセッサ、物体の重心をビデオレートで算出する
プロセッサ、重心の正規化と正規化した重心より積和演
算により三次元位置を算出するプロセッサをパイプライ
ン接続で構成することにより高速処理が可能となる。
するプロセッサ、物体の重心をビデオレートで算出する
プロセッサ、重心の正規化と正規化した重心より積和演
算により三次元位置を算出するプロセッサをパイプライ
ン接続で構成することにより高速処理が可能となる。
【0059】
【発明の効果】従来の三次元計測方式では、物体の既知
の重心と三次元座標の対応関係を全て装置にインストー
ルしなければならず、対象領域が広くなればなるほど膨
大なデータ量となり装置の小型化は困難であったが、本
発明では物体の既知の重心と三次元座標の対応関係を学
習して、重みと判定基準にデータ圧縮するため、装置の
小型化が可能になる。
の重心と三次元座標の対応関係を全て装置にインストー
ルしなければならず、対象領域が広くなればなるほど膨
大なデータ量となり装置の小型化は困難であったが、本
発明では物体の既知の重心と三次元座標の対応関係を学
習して、重みと判定基準にデータ圧縮するため、装置の
小型化が可能になる。
【0060】また、従来の三次元計測方式では、複雑な
幾何学によるロジックでレンズの収差歪みなどの非線形
な補間問題を解決しているので、それをハードウェア・
インプリメントした場合に複雑なロジックが装置の小型
化を妨げるものとなる。これに対して本発明では複雑な
幾何学によるロジックを簡単な線形演算に置換したの
で、DSP等を用いて簡単にハードウェア化ができる。
幾何学によるロジックでレンズの収差歪みなどの非線形
な補間問題を解決しているので、それをハードウェア・
インプリメントした場合に複雑なロジックが装置の小型
化を妨げるものとなる。これに対して本発明では複雑な
幾何学によるロジックを簡単な線形演算に置換したの
で、DSP等を用いて簡単にハードウェア化ができる。
【0061】更に、従来の三次元計測方式では、計測サ
ンプリングレート60ポイント/秒は実現できるが、ト
ータルの三次元計測時間はハードウェア化が困難であっ
たため、ビデオレートで実現できなかった。本発明で
は、重心算出までの画像処理と、重心からの三次元計算
をパイプラインで接続でき、計測サンプリングレート6
0ポイント/秒だけでなく、処理時間もビデオレートで
高速に処理することができる。
ンプリングレート60ポイント/秒は実現できるが、ト
ータルの三次元計測時間はハードウェア化が困難であっ
たため、ビデオレートで実現できなかった。本発明で
は、重心算出までの画像処理と、重心からの三次元計算
をパイプラインで接続でき、計測サンプリングレート6
0ポイント/秒だけでなく、処理時間もビデオレートで
高速に処理することができる。
【0062】本発明では、判定関数であるEXP関数を
テーラー展開により積和演算に置換するだけでなく、ル
ックアップテーブル化することにより、判定関数の自由
度及び計算速度を著しく高速にすることができる。
テーラー展開により積和演算に置換するだけでなく、ル
ックアップテーブル化することにより、判定関数の自由
度及び計算速度を著しく高速にすることができる。
【図1】本発明の原理構成図である。
【図2】本発明の一実施例構成図である。
【図3】色抽出部、雑音除去部、色マーカの投影算出部
の説明図である。
の説明図である。
【図4】重心算出処理説明図である。
【図5】区間最大投影値説明図である。
【図6】重心算出区間の決定状態説明図である。
【図7】ニューラルネットによる三次元位置計算説明図
である。
である。
【図8】ロジスティック関数説明図である。
【図9】E(L)ルックアップテーブル説明図である。
【図10】カメラによる観測状態説明図である。
【図11】カメラから見た画像説明図である。
【図12】左右のカメラの画像位置と実測値説明図であ
る。
る。
【図13】投影面説明図である。
【図14】従来例動作説明フローチャートである。
【図15】ボクセル探索説明図である。
【図16】従来例の動作を図示したフローである。
1 物体抽出部 2 重心算出部 3 重心正規化部 4 積和演算部 5 判定部 6 重み・判定基準登録・学習部
Claims (4)
- 【請求項1】 複数のカメラで物体の画像を入力し、こ
れにもとづき物体の三次元位置を計測する物体の位置計
測装置において、 画像から物体を抽出する物体抽出手段1と、 物体の重心を算出する重心算出手段2と、 重心を正規化する重心正規化手段3と、 正規化した重心から積和演算により三次元位置を算出す
る積和演算手段4と、 積和演算で使用する重みを登録したり、積和演算の判定
基準を登録する重み判定基準登録手段6を具備すること
を特徴とする物体の位置計測装置。 - 【請求項2】 請求項1において、積和演算で使用する
重みを学習する学習手段(20)を備えたことを特徴と
する物体の位置計測装置。 - 【請求項3】 請求項1において、積和演算の判定をル
ックアップテーブルを用いて行う手段を備えたことを特
徴とする物体の位置計測装置。 - 【請求項4】 請求項1において、画像から物体をビデ
オレートで抽出するプロセッサ、物体の重心をビデオレ
ートで算出するプロセッサ、重心の正規化と正規化した
重心より積和演算により三次元位置を算出するプロセッ
サをパイプライン接続で実現したことを特徴とする物体
の位置計測装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4299677A JPH06147895A (ja) | 1992-11-10 | 1992-11-10 | 物体の位置計測装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4299677A JPH06147895A (ja) | 1992-11-10 | 1992-11-10 | 物体の位置計測装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06147895A true JPH06147895A (ja) | 1994-05-27 |
Family
ID=17875639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4299677A Withdrawn JPH06147895A (ja) | 1992-11-10 | 1992-11-10 | 物体の位置計測装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06147895A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07318331A (ja) * | 1994-05-25 | 1995-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 3次元物体の認識方法 |
JP2018026131A (ja) * | 2016-08-09 | 2018-02-15 | ダンロップスポーツ株式会社 | 動作解析装置 |
JP2018156451A (ja) * | 2017-03-17 | 2018-10-04 | 株式会社東芝 | ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム |
-
1992
- 1992-11-10 JP JP4299677A patent/JPH06147895A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07318331A (ja) * | 1994-05-25 | 1995-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 3次元物体の認識方法 |
JP2018026131A (ja) * | 2016-08-09 | 2018-02-15 | ダンロップスポーツ株式会社 | 動作解析装置 |
JP2018156451A (ja) * | 2017-03-17 | 2018-10-04 | 株式会社東芝 | ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム |
US10803388B2 (en) | 2017-03-17 | 2020-10-13 | Canon Medical Systems Corporation | Network training device, network training system, network training method, and computer program product |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9841271B2 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
JP5812599B2 (ja) | 情報処理方法及びその装置 | |
CN102657532B (zh) | 基于人体姿态识别的身高测量方法及装置 | |
JP3880702B2 (ja) | 画像のオプティカルフロー検出装置及び移動体の自己位置認識システム | |
US20120294534A1 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
CN108628306B (zh) | 机器人行走障碍检测方法、装置、计算机设备和存储介质 | |
CN107025663A (zh) | 视觉系统中用于3d点云匹配的杂波评分系统及方法 | |
CN104240297A (zh) | 一种救援机器人三维环境地图实时构建方法 | |
CN113393439A (zh) | 一种基于深度学习的锻件缺陷检测方法 | |
JP2012123781A (ja) | 情報処理装置、情報処理システム及び情報処理方法 | |
CN107392965A (zh) | 一种基于深度学习和双目立体视觉相结合的测距方法 | |
CN113686314B (zh) | 船载摄像头的单目水面目标分割及单目测距方法 | |
JP4284664B2 (ja) | 三次元形状推定システム及び画像生成システム | |
JP2018128897A (ja) | 対象物の姿勢等を検出する検出方法、検出プログラム | |
JP2000251078A (ja) | 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置 | |
JP2018119833A (ja) | 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体 | |
CN111652047A (zh) | 基于彩色图和深度图的人体姿势识别方法及存储介质 | |
CN111524174A (zh) | 一种动平台动目标双目视觉三维构建方法 | |
CN108230402A (zh) | 一种基于三棱锥模型的立体标定方法 | |
CN113932712A (zh) | 一种基于深度相机和关键点的瓜果类蔬菜尺寸测量方法 | |
CN116664394A (zh) | 一种三维人眼图像生成方法及装置、电子设备、存储介质 | |
CN113012238A (zh) | 一种多深度相机快速标定与数据融合的方法 | |
KR101673144B1 (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
JP6810442B2 (ja) | カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20000201 |