JP6602743B2 - 情報処理装置および情報処理方法 - Google Patents
情報処理装置および情報処理方法 Download PDFInfo
- Publication number
- JP6602743B2 JP6602743B2 JP2016238748A JP2016238748A JP6602743B2 JP 6602743 B2 JP6602743 B2 JP 6602743B2 JP 2016238748 A JP2016238748 A JP 2016238748A JP 2016238748 A JP2016238748 A JP 2016238748A JP 6602743 B2 JP6602743 B2 JP 6602743B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information processing
- pixel
- search
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 67
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000008859 change Effects 0.000 claims description 32
- 238000003384 imaging method Methods 0.000 claims description 31
- 238000000034 method Methods 0.000 claims description 27
- 230000005484 gravity Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 11
- 238000013500 data storage Methods 0.000 description 7
- 239000003550 marker Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000007429 general method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
本発明は、撮影画像を用いて対象物の位置を特定する情報処理装置、およびその情報処理方法に関する。
近年、パーソナルコンピュータやゲーム機などにカメラを搭載し、ユーザの姿を撮影して様々な形で利用することが一般的に行われるようになってきた。例えばテレビ電話、ビデオチャットなど、ユーザの画像を、ネットワークを介してそのまま相手に伝送するものや、画像解析によってユーザの動きを認識し、ゲームや情報処理の入力情報とするものなどが実用化されている(例えば特許文献1参照)。特に、奥行き方向を含む3次元空間における対象物の動きを精度よく検出することにより、臨場感のあるゲームや画像表現が可能となっている。
多様な物が存在する空間を撮影し、その撮影画像を入力データとして情報処理を行う場合、入力装置のハードウェアキーやGUI(Graphical User Interface)を介した操作と比較し、画像解析の精度が情報処理の精度に大きく影響を与える。より高精度かつ複雑な情報処理を実現するためには、サブピクセル単位での詳細な画像解析が求められる。
本発明はこのような課題に鑑みてなされたものであり、その目的は、撮影画像を用いた情報処理において、高精度に対象物の位置を検出できる技術を提供することにある。
上記課題を解決するために、本発明のある態様は情報処理装置に関する。この情報処理装置は、対象物を撮影した撮影画像のデータを取得する撮影画像取得部と、撮影画像における対象物の像の領域内部からの輝度の、位置に対する変化が所定の条件を満たす座標点を探索することにより、当該像の輪郭線を求める輪郭探索部と、輪郭線に基づき対象物の実空間における位置情報を生成し出力する位置情報生成部と、を備え、輪郭探索部は、像の領域内部の画素を始点とし、画素配列における対角方向に前記座標点を探索することを特徴とする。
本発明の別の態様は情報処理方法に関する。この情報処理方法は、対象物を撮影した撮影画像のデータを取得しメモリに格納するステップと、メモリから読み出した撮影画像における対象物の像の領域内部からの輝度の、位置に対する変化が所定の条件を満たす座標点を探索することにより、当該像の輪郭線を求めるステップと、輪郭線に基づき対象物の実空間における位置情報を生成し出力するステップと、を含み、輪郭線を求めるステップは、像の領域内部の画素を始点とし、画素配列における対角方向に前記座標点を探索することを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によると、撮影画像を利用して対象物の位置情報を高精度に取得できる。
図1は本実施の形態における情報処理システムの構成例を示す。情報処理システム1は、ユーザ4が保持する発光デバイス18、発光デバイス18を含む空間を撮影する撮像装置12、発光デバイス18の位置を特定しそれに基づき情報処理を行う情報処理装置10、情報処理の結果として生成されたデータを出力する表示装置16を含む。
情報処理装置10と、撮像装置12および表示装置16とは、有線ケーブルで接続されても、Bluetooth(登録商標)など既知の無線通信技術により接続されてもよい。またこれらの装置の外観形状は図示するものに限らない。さらにこれらのうち2つ以上の装置を一体的に備えた装置としてもよい。例えば情報処理装置10、撮像装置12、表示装置16を、それらを備えた携帯端末などで実現してもよい。また、撮像装置12は必ずしも表示装置16の上に搭載されていなくてもよい。ユーザ4は情報処理装置10で処理される内容によって複数でもよく、発光デバイス18もまた複数でよい。
撮像装置12は、発光デバイス18を含む空間を所定のフレームレートで撮影するカメラと、その出力信号にデモザイク処理など一般的な処理を施すことにより撮影画像の出力データを生成し、情報処理装置10に送出する機構とを有する。カメラはCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなど、一般的な可視光センサを備える。
図示するように、そのようなカメラを既知の間隔で左右に配置したステレオカメラとすることにより、発光デバイス18などの対象物の、撮像面からの距離を含む3次元空間での位置を特定することができる。ただし撮像装置12は単眼のカメラとしてもよい。また、撮像装置12は可視光センサが取得したベイヤ配列などで構成されるいわゆるRAW画像をそのまま送出し、情報処理装置10においてデモザイク処理等、必要な処理を施すようにしてもよい。
情報処理装置10は、撮像装置12から送信されたデータを用いて発光デバイス18の実空間での位置を特定する。そして当該位置情報に基づき必要な情報処理を行い、その結果を表す画像や音声などの出力データを生成する。情報処理装置10が発光デバイス18の位置情報を利用して行う処理の内容は特に限定されず、ユーザが求める機能やアプリケーションの内容などによって適宜決定してよい。例えば情報処理装置10は、発光デバイス18の動きからユーザ4の動きを取得し、同様の動きをするキャラクタが登場するゲームを進捗させたり、発光デバイス18の動きをコマンド入力に変換して、それと対応する機能を実現させたりする。
表示装置16は、表示画像を出力するディスプレイおよび音声を出力するスピーカーを有するテレビでよく、例えば液晶テレビ、有機ELテレビ、プラズマテレビ、PCディスプレイ等である。あるいはタブレット端末や携帯端末のディスプレイおよびスピーカーであってもよい。なお表示装置16は、図示するような平板型のディスプレイでもよいし、ユーザが頭に装着することによってその眼前に画像を表示させるヘッドマウントディスプレイであってもよい。あるいはその双方でもよい。
情報処理システム1にはさらに、ユーザが操作することにより処理の開始、終了、機能の選択などの要求や各種コマンド入力を受け付け、電気信号として情報処理装置10に供給する入力装置が含まれていてもよい。当該入力装置は、例えばハードウェアキーを備えるコントローラ、マウス、ジョイスティックなど固有の装置でもよいし、表示装置16のディスプレイを覆うタッチパッドなどでもよい。
図2は発光デバイス18の外観形状を例示している。発光デバイス18は、発光部6およびハンドル8を含む。発光部6は、光透過性を有する樹脂などのカバー材で形成され発光ダイオードや電球など一般的な光源を内蔵した球体であり、点灯状態にあるとき球面全体が発光する。複数のユーザが個々に発光デバイス18を用いる場合は、発光色を異ならせることによりそれらを区別して認識できるようにする。
ハンドル8はユーザが手にする部分であり、図示はしないが、必要に応じてオン/オフボタンなどの入力ボタンを備えてもよい。また、有線あるいは無線で情報処理装置10と通信を確立し、必要な情報を送受する通信手段を備えてもよい。例えば複数の発光デバイスに対する発光色の割り当てを情報処理装置10が決定し、各発光デバイス18に通知したり、点灯や点滅などの発光態様を情報処理装置10が制御したりしてもよい。
さらにハンドル8の内部に加速度センサやジャイロセンサなどのモーションセンサを設け、その計測値を発光デバイス18から情報処理装置10に所定のレートで送信するようにしてもよい。これにより情報処理装置10は、発光デバイス18の姿勢を逐次特定することができる。なお発光デバイス18の外観形状は図示するものに限らない。例えばユーザの体に装着可能な機構を有していてもよいし、上述のヘッドマウンドディスプレイや入力装置と一体的に実現してもよい。例えばヘッドマウントディスプレイや入力装置の表面に所定形状の発光領域を設けてもよい。このとき発光領域は1つであっても複数であってもよい。
本実施の形態では、様々な物が存在する空間を撮影した画像から、発光部6の像を高精度に抽出し、その位置やサイズに基づき発光デバイス18の位置を特定する。図2に示したような発光デバイス18の場合、発光部6の像の領域がおよそ円形に抽出されるが、発光色が既知であれば光源が入力装置やヘッドマウントディスプレイであってもよく、その形状は限定されない。また発光デバイス18の発光は、撮像装置12の視野にある他の物との区別を容易にするが、本実施の形態をそれに限る主旨ではない。すなわち位置を検出する対象は色や形状が既知であればよく、発光体に限定されない。以後、撮影画像における像に基づき実空間での位置を取得する発光デバイス18のような対象を「対象物」と総称する。
図3は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、表示装置16へデータを出力する出力部36、撮像装置12や入力装置からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図4は、本実施形態における情報処理装置10の機能ブロックの構成を示す。情報処理装置10は、撮像装置12から撮影画像のデータを取得する撮影画像取得部60、撮影画像や位置情報のデータを格納するデータ記憶部62、撮影画像から対象物の像を検出することによりその実空間での位置情報を取得する位置情報取得部64、位置情報に基づき所定の情報処理を実施する情報処理部66、および、情報処理の結果として出力すべきデータを生成する出力データ生成部68を含む。
同図においてさまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、図3で示したCPU22、GPU24、メインメモリ26等の各主回路で構成することができ、ソフトウェア的には、記録媒体駆動部40により駆動される記録媒体や記憶部34からメインメモリ26にロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
撮影画像取得部60は、撮像装置12が撮影した動画像のフレームデータを順次取得し、データ記憶部62に格納する。フレーム画像にデモザイク処理やシェーディング補正がなされていない場合、撮影画像取得部60はそれらの処理や補正を実施したうえでデータ記憶部62に格納する。位置情報取得部64は、データ記憶部62から読み出した撮影画像から対象物の像を抽出し、それに基づき対象物の実空間での位置情報を取得する。位置情報取得部64は対象物の像のおよその位置を検出する対象物検出部70、対象物の輪郭を探索する輪郭探索部72、および対象物の3次元空間での位置情報を生成する位置情報生成部74を含む。
対象物検出部70は、発光色や形状に基づき、撮影画像における対象物の像を検出する。例えば発光マーカーの像としてとり得る形状および色のテンプレート画像を準備しておき、それと類似度の高い画像上の領域を検出する。対象物検出部70による検出処理は対象物の像のおよその位置を検出できればよく、その手段は特に限定されない。輪郭探索部72は、対象物検出部70の検出結果に基づき、対象物の像の輪郭を探索し、その位置を厳密に求める。本実施の形態では輪郭の位置をサブピクセルレベルで精度よく求めることにより、対象物の実空間での位置取得、ひいては位置情報を用いた情報処理の精度を向上させる。具体的な手法は後に述べる。
位置情報生成部74は、輪郭探索部72による輪郭探索の結果に基づき対象物の像の重心の位置座標やサイズを取得し、それを利用して対象物の実空間での位置を特定する。撮像装置12をステレオカメラとした場合、位置情報生成部74は左右の視点から撮影されたステレオ画像のそれぞれにおいて、同じ対象物の像の重心の位置座標を求める。それらの水平方向の差分を視差とすれば、一般的な三角測量の原理で撮像面から対象物までの距離を取得できる。
図2で示した発光部6のように、角度によらず見かけ上のサイズが変化しないマーカーや、所定の間隔でデバイス表面に配置させた複数のマーカーを対象物とした場合、単眼のカメラであっても、像のサイズや間隔から距離を取得できる。位置情報生成部74は、そのようにして特定した撮像面からの奥行き方向の距離を、フレーム画像における対象物の像の領域の画素値として表した、いわゆるデプスマップを作成するなどして位置情報をデータ化し、データ記憶部62に格納する。なお複数の対象物が存在する場合は、対象物ごとに重心位置などを求め位置情報を生成する。
情報処理部66は、データ記憶部62から対象物の位置情報を読み出し、それに応じた情報処理を実施する。上述のとおりここで実施する情報処理の内容は特に限定されない。出力データ生成部68は、情報処理部66が実施した情報処理の結果として表示すべき画像や出力すべき音声のデータを生成し順次、表示装置16へ出力する。
図5は撮像装置12としてステレオカメラを導入した場合に、左右の視点から撮影したステレオ画像における視差と対象物の距離との関係を説明するための図である。同図において第1カメラ13a、第2カメラ13bは一対でステレオカメラを構成する。第1カメラ13a、第2カメラ13bは距離Lを隔てた平行な光軸を有するように設置されるか、そのような画角となるように撮影画像が補正される。ここで対象物は奥行き方向に距離Z離れた右端の矢印に位置するとする。
各カメラが撮影した画像の1画素が表す実空間での幅Δxは、距離Zに比例して次のように表される。
Δx=Z×w/W
ここでWはカメラの横方向の画素数、wは距離Zが1のときの実空間の横方向の視野範囲であり視角によって定まる。
Δx=Z×w/W
ここでWはカメラの横方向の画素数、wは距離Zが1のときの実空間の横方向の視野範囲であり視角によって定まる。
距離Lだけ離れたカメラで撮影された同一の対象物は、その画像上でおよそ下記のような画素数上の視差Dを有する。
D=L/Δx=L×(W/w)×(1/Z)=C/Z
ここでCはカメラおよびそのセッティングにより定まる値であり、運用時は定数とみなせる。
D=L/Δx=L×(W/w)×(1/Z)=C/Z
ここでCはカメラおよびそのセッティングにより定まる値であり、運用時は定数とみなせる。
図6は撮像装置12からの距離Zに対する視差Dの変化を表している。上式に示すように視差Dは距離Zに反比例した曲線56となる。この関係を利用することにより、ステレオ画像における対象物の像の視差Dから、対象物の奥行き方向の距離Zが求められる。撮影画像は輝度を画素単位で表したデータであることを踏まえ、対象物の像の位置、ひいては視差Dも画素単位で取得する場合、対象物の距離は、次に表されるΔzの単位で求められる。
Δz=Δx×Z/L=Z2×(w/W)×(1/L)
Δz=Δx×Z/L=Z2×(w/W)×(1/L)
すなわち対象物の位置の取得単位を固定とした場合、対象物の距離Zの分解能は、距離Zの2乗に比例して低下する。図6のグラフにおける縦の点線の間隔はΔzを表している。例えば対象物が矢印58の位置にあっても、像の位置特定が画素単位であれば、その距離Zは最大でΔz程度の誤差を含むz1またはz2として算出されてしまう。つまり対象物が撮像装置12から離れるほど、撮影画像上での像の位置の取得誤差による距離算出精度への影響が深刻になる。
撮像装置12として単眼カメラを用い、対象物の像のサイズに基づき距離を導出する場合であっても、対象物が撮像装置12から離れるほど、サイズの僅かなずれが、算出される距離に大きな誤差をもたらすのは同様である。距離に大きな誤差が含まれると、画像平面からの逆射影によって得られる、対象物の3次元空間での位置座標にも大きな誤差を生じさせ、後の情報処理の精度に看過できない影響を与えることが考えられる。そこで本実施の形態の輪郭探索部72は、サブピクセルレベルで像の輪郭線を正確に求めることにより、対象物の実空間での位置情報の取得精度を向上させる。
図7は本実施の形態において輪郭探索部72が対象物の像の輪郭を特定する手法を説明するための図である。対象物検出部70はテンプレートマッチングや前景抽出など一般的な手法により、撮影画像80における対象物の像82の領域を抽出する。この抽出処理は、効率性を優先し画素単位またはそれより大きい単位でよい。輪郭探索部72はその結果に基づき探索経路の始点および方向を決定して、像の輪郭位置を探索する。定性的には対象物の像の内側から外側へ探索していき、輝度が急激に変化する位置に輪郭があると判定する。
例えば始点84から矢印86の方向に画素値をサンプリングしていくと、輪郭線上の座標点88が得られる。このような探索を複数方向に行うことで、輪郭線上の座標点が複数個得られる。なお図ではそのようにして得られた座標点を白抜きの丸印で示しているが、それらは画像平面上の位置座標を表象しているに過ぎず、撮影画像として表れるものではない。輪郭探索部72は、そのようにして得られた複数の座標点を最小二乗法など一般的な手法により近似して、対象物の像の輪郭線を画像平面上での数式として取得する。
対象物が球体の発光マーカーである場合、その像は円形となるため、円近似の計算を用いることで像の輪郭線94が円形として得られる。なお近似に際して楕円歪みなど位置座標の分布に全体的な歪みが検出される場合、一般的な補正フィルタなどにより座標点を補正しておく。また近似式からの誤差が大きい座標点があればそれを排除しながら最終的な近似式に収束させる。図示する例では、発光デバイスのハンドルによって一部が隠蔽されたことにより本来の発光マーカーの輪郭と異なる位置に検出された座標点92を除去している。
除去すべき座標点はこのように他の物によって隠蔽されて生じる場合のほか、座標点の検出誤差によっても生じる可能性がある。このようにして得られた輪郭線94の円の中心座標C(xc,yc)が対象物たる発光マーカーの像の重心であり、半径Rが当該像のサイズを表す。位置情報生成部74はそれらのデータを用いて対象物の実空間での位置を上述のように求める。なお座標点集合から線への近似や、輪郭線に基づく重心やサイズの取得には様々な手法が考えられ、よって形状も限定されないことは当業者には理解されるところである。
すなわち対象物が球体以外のいかなる形状であっても、像の形状が限定的であれば、その情報をあらかじめ設定しておくことにより、そのうち誤差の最も小さい近似線が得られる形状を最終的に決定できる。形状を決定できれば、重心やサイズの算出手法も一意に決定できる。また撮影された動画像の前のフレームまでに得られている像の形状に基づき以後の像の形状を推測し、当該形状で近似してもよい。
輪郭探索部72が検出する輪郭線上の座標点すなわち位置座標や、それに基づく重心の位置座標は、画素より高い解像度で取得する。図8は、探索方向の輝度の変化に基づき輪郭線の位置を画素より高い解像度で検出する手法の例を説明するための図である。同図の右方向を探索方向としたとき、その経路に存在する画素を抽出して並べたものが画素列96である。画素列96の各画素はそれぞれ輝度値を有し、それを探索経路上の位置に対する変化として表すと、例えばグラフ98のようになる。
輝度値は本来、画素単位で得られるため、探索方向の画素の幅をΔxとすると、グラフ98は、黒丸で示すx−2Δx、x−Δx、x、x+Δx、x+2Δx、x+3Δx、・・・の位置に対して得られた離散的な輝度値をつなげたものである。このような輝度の変化を規格化するなどし、あらかじめ準備しておいた輝度変化の想定曲線を、図示する想定曲線100a、100b、100cのように平行移動させながら比較して、最も類似度が大きい状態を両者の差分の総和などから特定する。そしてそのときの想定曲線100bの中点Mなどの基準位置を、対象物の輪郭線の位置とする。同図ではこの位置を白抜き矢印で示している。
想定曲線を画素の幅Δxより細かい単位で移動させ、このような一種のマッチング処理を実施することにより、輪郭線の位置も画素の幅より小さい単位で特定できる。一方、このようにしてサブピクセル単位で輪郭線上の座標点を検出しても、それが大きな誤差を含めば、対象物が遠くにあるほど実空間での位置情報に大きな誤差を生じさせることは上述と同様である。例えば撮像装置12から2m離れた対象物では、重心の検出位置が0.5画素ずれたのみで、ステレオマッチングによって算出される距離が3cm程度ずれてしまう。これにより、動いていない対象物を動いているように誤認識してしまうこともあり得る。
これを踏まえ、サブピクセルレベルでの位置検出を精度よく行うためには、輪郭線の探索経路に関し次のような課題があることに本発明者は想到した。
(1)探索方向によって座標点検出の分解能や精度が異なる
(2)探索経路にある画素で本来観測された色によって輝度データの信頼性が異なる
(1)探索方向によって座標点検出の分解能や精度が異なる
(2)探索経路にある画素で本来観測された色によって輝度データの信頼性が異なる
まず上記(1)について説明する。図9は探索方向の設定例を示している。同図において格子で区切られた各矩形は1画素を表し、破線の矢印が探索経路および方向を表している。この例では、対象物検出部70がおよそ特定した対象物の像の中心近傍と推定される画素群102のいずれかから放射状に、24本の探索を行う。すなわち矢印群104a、104bに示すように、画素群102から右方向および左方向に3本ずつ、計6本の探索を行う。また矢印群106a、106bに示すように、画素群102から上方向および下方向に3本ずつ、計6本の探索を行う。
さらに矢印群108a、108b、108c、108dに示すように、画素群102から右上方向、右下方向、左下方向、左上方向に3本ずつ、計12本の探索を行う。このような設定において上記(1)のように、座標点検出の分解能や精度に方向依存性が生じる。すなわち図8に示すように輝度変化の想定曲線を探索方向に移動させて、画像平面の縦横2成分からなる座標点を検出した場合、矢印群104a、104bに示す横方向の探索では、横方向の成分はサブピクセル単位で定まる一方、縦方向の成分は画素単位となってしまう。
矢印群106a、106bに示す縦方向の探索では、縦方向の成分はサブピクセル単位で定まる一方、横方向の成分は画素単位となってしまう。つまり横方向の探索および縦方向の探索では、縦方向または横方向の位置座標に最大1画素分の誤差が生じる。一方、矢印群108a、108b、108c、108dで示す対角方向の探索では、縦横両成分がサブピクセル単位となる。しかしながら探索方向における画素の間隔、すなわち図8におけるΔxが、縦方向や横方向の探索と比べ1.4倍程度となるため、両方向の位置座標に最大1.4/2=0.7画素分程度の誤差が生じる。
次に上記(2)について説明する。上述のとおり解析対象となる撮影画像は、各画素が1色の輝度データを保持するRAW画像を、デモザイク処理により補間したものである。したがってそのようにして生成された撮影画像の各画素は、補間処理による誤差を内包し、どのように誤差が含まれるかは、対応する素子が観測対象とした色に依存して画素ごとに異なる。図10は、撮影画像において各画素に対応する素子が観測対象とした色と、対象物の輪郭との関係を模式的に示している。撮影画像112のうち格子で区切られた各矩形が1画素を表し、対応する素子が観測対象とした赤、緑、青の色をそれぞれ「R」、「G」、「B」と表記している。以後の説明でも同様の表記とする。
図示するような色の配列はベイヤ配列と呼ばれる一般的なものである。ただし本実施の形態をこの配列に限定する主旨ではない。対象物の像の輪郭線114上の座標点を上述のように探索する際、その探索経路に存在する画素の観測対象が元々何色であったか、座標点をどの色の輝度変化で判定するか、対象物は何色か、といった要素の組み合わせによって、検出される座標点の信頼性が変化する。例えば矢印Aの探索経路にある画素は観測される色が「R」、「B」、「R」、「B」、・・・のパターンであるのに対し、矢印Bの探索経路では観測される色が全て「G」である。
ここで例えば、Gの輝度の変化で輪郭線114上の座標点を検出する場合、矢印Aの探索経路におけるGの情報は補間による誤差を含むため、矢印Bの探索経路による結果の方が、信頼性が高くなる。矢印Bを探索経路としても、RやBの輝度の変化で座標点を検出する場合、経路上でのそれらの色の情報は誤差を含むため、Gの輝度の変化で座標点を検出するより信頼性が低くなる。
図11は、図9と同様の探索経路を、経路に位置する画素が観測対象としている色のパターンで類別した際の、探索経路の数を示している。下段の図に示すようにBの画素を中心として探索経路を設定した場合、経路の画素が観測対象とする色がBとGの繰り返しとなる「BG配列」の探索が横方向で2つ、縦方向で2つとなる。RとGの繰り返しとなる「RG配列」の探索は横方向で4つ、縦方向で4つとなる。BとRの繰り返しとなる「BR配列」の探索は対角方向で4つ、全てGとなる「GG配列」の探索は対角方向で8つとなる。
同様に、探索経路の中心がRの場合、Gの場合でも、「BG配列」および「RG配列」は縦方向および横方向の探索で表れ、「BR配列」および「GG配列」は対角方向の探索で表れる。このように、色の配列が出現する割合は探索方向によって偏りがある。また探索中心の画素が観測対象とする色によって、色の配列と探索方向の組み合わせの出現割合が変化する。なお探索中心がGの場合、Bの左右にあるか上下にあるかによって当該割合が異なり、同図では下段に示すように前者を「G1」、後者を「G2」と表記している。
このように図示するような経路設定では、用いるデータ自体の信頼性も探索経路ごとに異なってくる。最小二乗法のように多数のデータを統計的に扱う計算法は基本的に、当該元のデータが特性的に均質であることを前提としている。したがってこのように探索経路起因で、検出された座標点の誤差特性が異なると、輪郭線の近似の精度、ひいては重心位置やサイズの取得精度が十分に得られない可能性がある。また探索中心は、対象物検出部70による検出結果に基づきフレームごとに決定されるため、図11に示すような探索中心依存の割合の変化により、重心位置やサイズの算出結果もフレームごとに変動することが考えられる。このような知見を踏まえ、本実施の形態では探索経路間やフレーム間で、座標点の誤差特性が変化しないように探索経路を設定する。
図12は、本実施の形態における対象物の輪郭線の探索経路を模式的に示している。図に破線の矢印で示すように、本実施の形態ではGを観測対象とする画素を始点とし、画素配列の対角方向に限定して探索を行う。すなわち始点の画素から、右上、右下、左下、左上にある、同じくGを観測対象とする画素を辿るように探索を行う。図9で示したのと同様に24の経路で探索する場合、図12に丸印で示したように、6つの始点を設定できる。
このとき図示するように画像平面の縦方向、あるいは横方向で同じ列にある、観測対象がGの画素を始点として選択することにより、探索経路の重複や偏りを避けることができる。始点の位置は対象物検出部70がおよそ検出した対象物の像の領域内であればよく、好適には当該領域の重心近傍に始点の列の中心を設定する。また図示する例では縦方向で直近のGの画素、すなわち1つおきの画素を始点としているが、始点の間隔はこれに限らず、対象物の像の大きさなどに応じて調整してもよい。探索数も、求められる精度や装置の処理性能などに応じて調整してよい。
このような探索経路を設定することにより、上記(1)、(2)の課題を解決できる。すなわち全ての探索経路が画素配列の対角方向であるため、検出された座標点の縦成分、横成分は双方、サブピクセルの単位で得られ、誤差特性も全ての探索経路で同等である。また探索経路にある画素は全て観測対象がGに統一されているため、誤差を含む色や度合いが均一である。結果として検出される座標点は常に均質であり、最小二乗法によって近似される輪郭線や、それに基づく重心の位置座標などが精度よくかつ安定的に得られる。
球体の対象物を想定すると、図12で示した24経路の探索により、その像の重心が0.016画素程度の誤差で特定できる。同じ探索数でも、図9に示すように縦方向、横方向、対角方向の3方向で探索し、RGBそれぞれの輝度の変化に基づき座標点を求めた場合と比較すると、対象物の位置の取得精度が3倍以上に改善される。
なお図12で示した探索経路によれば、上記(1)、(2)を同時かつ最適に解決できるが、探索経路を対角方向に限定することで(1)のみを解決することも可能である。また探索の始点をRに限定したりBに限定したりしても、ベイヤ配列を対角方向に探索すれば、経路にある画素が観測対象とする色の配列は統一されるため、検出される座標点の誤差特性はおよそ均一となる。結果として始点の画素を限定しない場合と比較し輪郭線の近似精度が向上する。
次にこれまで述べた構成によって実施できる情報処理装置の動作について説明する。図13は情報処理装置10のうち位置情報取得部64が対象物の位置情報を取得する際の処理手順を示すフローチャートである。まず対象物検出部70は、撮影画像からテンプレートマッチングなどにより対象物の像の領域を検出する(S10)。ここで用いる撮影画像はデモザイク後のRGB画像などである。
次に輪郭探索部72は、当該領域内で、素子の観測対象がGである画素を探索の始点として決定する(S12)。図12の例では、縦方向で1つおきに6つの画素が始点とされている。ただし画素の間隔や始点の数は適宜調整してよい。なお撮影画像における各画素と、対応する素子が観測する色とを対応づけた情報はあらかじめ取得しておき、輪郭探索部72内部で保持しておく。この情報は例えば図10の撮影画像112に示すベイヤ配列などの配列情報である。
なお観測対象の色と画素の対応関係が得られていない場合、検出結果の誤差の小ささを利用してキャリブレーションにより取得することもできる。例えば撮像装置12から所定の距離に対象物を設置して撮影を実施し、探索の始点を上下左右に1画素ずつ移動させて、対角方向に探索することによりそれぞれ輪郭線を導出する。そして各探索条件で対象物の位置を算出し、誤差が最も小さくなるときの始点の位置に、観測対象がGの画素があると判断する。そのような画素が最低1つ判明すれば、ベイヤ配列などの繰り返しパターンに基づき、撮影画像全体で観測対象の色と画素の対応づけが可能である。
次に輪郭探索部72は、始点として決定した画素から4つの対角方向に探索を行い、輪郭線上の座標点を検出する(S14〜S18)。具体的には探索経路にある画素の輝度値をサンプリングしてラインバッファに格納する(S14)。図12の例では6つの始点からそれぞれ4方向にサンプリングすることで、合計24列のサンプリングがなされる。そしてまず、各サンプリング列の輝度Yの変化に基づき、輪郭線上の座標点候補を検出する(S16)。具体的には図8で示したように、想定曲線の位置をずらしながら輝度Yの変化グラフとの類似度が最も高くなる位置を見つけ、そのときの基準位置を座標点候補とする。
ここで輝度Yは、各画素値をYUVの色空間で表したときの輝度の成分であり、RGBのデータから一般的な変換式により取得できる。この変換はS14でRGB値をサンプリングした後に行ってもよいし、撮影画像のデータを取得した時点やデモザイクを行った時点で撮影画像全体に対し行っておき、変換後の輝度画像をサンプリングの対象としてもよい。輝度Yを座標点検出時の評価の対象とするのは、探索経路において誤差が最も小さいGの寄与率が最も高いことと、補間によって周囲の画素のRやBの情報も含まれていることによる。これにより、単色を対象とするより多くの情報を考慮できるとともに、均一かつ高い精度での評価を実現できる。
次に輪郭探索部72は、対象物の色成分の輝度変化によってS16で検出した座標点候補をフィルタリングし、信頼性の低い座標点を除く(S18)。例えば赤で発光するマーカーを対象物とする場合、Rの輝度で評価する。マゼンダで発光するマーカーを対象物とする場合、マゼンダの成分の輝度で評価する。輝度Yの変化のみを評価対象とすると、周囲の環境に影響されて座標点を誤検出することがあり得る。例えば撮像装置12から見て対象物の輪郭近傍に窓や照明などの光源がある場合、人の目では区別が容易であっても輝度Yの変化のみからは対象物の光と別の光との境界が不明確になる可能性がある。
その結果、輪郭とは異なる位置で座標点を検出してしまう可能性があるため、対象物の本来の色の変化に基づき誤って検出した座標点を排除する。例えば探索方向で座標点候補の前後に位置する所定数の画素列において、対象物の色成分の輝度変化が所定範囲以下であったら、当該座標点候補は対象物の像の内側にあり輪郭ではないと判定し除外する。あるいは探索方向で座標点候補の前に位置する所定数の画素列と探索始点の画素で、対象物の色成分の輝度に所定のしきい値以上の差があったら、当該座標点は対象物の像の外側であり輪郭ではないと判定し除外する。
輝度Yによる座標点候補の検出処理と対象物の色の輝度による除外処理は、図示するように別のステップとしてもよいし同時に行ってもよい。例えば、探索経路における輝度Yのサンプリング列と対象物の色の輝度のサンプリング列とを、同じ位置で演算してなるデータ列に対し、想定曲線をマッチングすることにより信頼度の高い座標点を特定してもよい。このようにして座標点群を確定させたら、輪郭探索部72は最小二乗法等によりその分布を想定形状の線に近似することにより、対象物の像の輪郭を特定する(S20)。
このとき図7を参照して説明したように、画像上の歪みに基づき座標点の分布を補正したり、近似線からの差が大きい座標点をさらに除外したりしてもよい。位置情報生成部74は、特定された輪郭線に基づき対象物の像の重心やサイズを取得する(S22)。図7で示したように対象物が球体の場合、像の輪郭線は円形状となるため、その中心や半径を取得する。そして位置情報生成部74は、重心やサイズに基づき対象物の実空間での位置情報を取得する(S24)。撮像装置12をステレオカメラとした場合、左右の視点から撮影された画像のそれぞれに対しS10〜S22の処理を行うことで、重心位置の視差から対象物の距離を取得できる。
撮像装置12を単眼カメラとした場合、対象物の実際のサイズと像のサイズを比較することにより対象物の距離を取得できる。発光色を異ならせるなどして複数の対象物が撮像装置12の視野内にある場合、S10〜S24の処理を対象物ごとに実施する。また撮像装置12が所定のレートで撮影した動画像の各フレームに対しS10〜S24の処理を繰り返すことにより、対象物の位置の時間変化が得られる。情報処理部66は、そのようにして得られた対象物の位置情報に基づきユーザの位置や動きを特定するなどして、適宜情報処理を行うことができる。
以上述べた本実施の形態によれば、撮影画像を利用した対象物の位置検出において、対象物の像の輪郭を、内側から輝度を探索することにより検出する。このとき、元の素子による輝度の観測対象がG(緑)である画素を始点とし、画素配列において対角関係にある4方向に探索する。これにより、1度の探索で検出される輪郭線上の座標点は縦成分、横成分を同じ分解能とすることができる。また全ての探索経路で輝度が得られている間隔が同じとなるうえ、当該輝度に含まれる誤差が同等となるため、検出される座標点の精度も同等となる。その結果、最小二乗法など統計的な近似手法で、対象物の輪郭線を容易かつ正確に求めることができる。
またYUV色空間における輝度Yの変化に基づき座標点を検出することにより、輝度の誤差が小さいGの輝度に重心を置きつつ、R(赤)やB(青)の輝度も加味した評価が可能になる。さらに対象物の色の輝度の変化を用いてフィルタリングし、近似に用いる座標点の確度を高めることにより、周囲の明るさの変化に対する頑健性を保障する。これらの処理により、RGBそれぞれに対し離散的に輝度を検出する一般的な可視光のカメラを利用して、サブピクセルレベルで高精度に対象物の像の輪郭線を取得できる。このようにして得られた輪郭線や、それから特定される対象物の像の重心やサイズを利用して、対象物の実空間での位置を効率的かつ高精度に求められる。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
6 発光部、 1 情報処理システム、 10 情報処理装置、 12 撮像装置、 16 表示装置、 18 発光デバイス、 22 CPU、 24 GPU、 26 メインメモリ、 60 撮影画像取得部、 62 データ記憶部、 64 位置情報取得部、 66 情報処理部、 68 出力データ生成部、 70 対象物検出部、 72 輪郭探索部、 74 位置情報生成部。
Claims (11)
- 対象物を撮影した撮影画像のデータを取得する撮影画像取得部と、
前記撮影画像における前記対象物の像の領域内部からの輝度の、位置に対する変化が所定の条件を満たす座標点を探索することにより、当該像の輪郭線を求める輪郭探索部と、
前記輪郭線に基づき前記対象物の実空間における位置情報を生成し出力する位置情報生成部と、
を備え、
前記輪郭探索部は、前記像の領域内部の画素を始点とし、画素配列における対角方向に前記座標点を探索することを特徴とする情報処理装置。 - 前記撮影画像取得部は、ベイヤ配列で取得された輝度データを画像平面上で色ごとに補間してなるカラー画像のデータを取得し、
前記輪郭探索部は、元のベイヤ配列において同色である複数の画素を探索の始点とすることを特徴とする請求項1に記載の情報処理装置。 - 前記輪郭探索部は、元のベイヤ配列において緑色の画素を探索の始点とすることを特徴とする請求項2に記載の情報処理装置。
- 前記輪郭探索部は複数方向に探索を行い、検出した前記座標点の分布を最小二乗法により前記対象物の像として想定される形状に近似することにより、前記輪郭線を求めることを特徴とする請求項1から3のいずれかに記載の情報処理装置。
- 前記輪郭探索部は少なくとも、探索経路にある画素の色をYUV空間で表したときの輝度Yの、位置に対する変化に基づき、前記座標点を検出することを特徴とする請求項1から4のいずれかに記載の情報処理装置。
- 前記輪郭探索部はさらに、探索経路にある画素の色のうち前記対象物の色成分の輝度の、位置に対する変化に基づき、前記座標点をフィルタリングすることを特徴とする請求項5に記載の情報処理装置。
- 前記撮影画像取得部は、前記対象物を左右の視点から撮影したステレオ画像のデータを取得し、
前記位置情報生成部は、前記輪郭線に基づき前記対象物の像の重心を前記ステレオ画像のそれぞれについて算出し、その視差に基づき前記位置情報を生成することを特徴とする請求項1から6のいずれかに記載の情報処理装置。 - 前記位置情報生成部は、前記輪郭線に基づき前記対象物の像のサイズを算出し、当該対象物の実物のサイズと比較することにより、前記位置情報を生成することを特徴とする請求項1から6のいずれかに記載の情報処理装置。
- 前記輪郭探索部は、撮像装置から既知の距離にある対象物を撮影した撮影画像において、始点とする画素をずらして探索することにより始点ごとに前記輪郭線を求め、その結果得られた前記位置情報の誤差に基づき、探索の始点とすべき画素を特定することを特徴とする請求項2または3に記載の情報処理装置。
- 対象物を撮影した撮影画像のデータを取得しメモリに格納するステップと、
前記メモリから読み出した前記撮影画像における前記対象物の像の領域内部からの輝度の、位置に対する変化が所定の条件を満たす座標点を探索することにより、当該像の輪郭線を求めるステップと、
前記輪郭線に基づき前記対象物の実空間における位置情報を生成し出力するステップと、
を含み、
前記輪郭線を求めるステップは、前記像の領域内部の画素を始点とし、画素配列における対角方向に前記座標点を探索することを特徴とする、情報処理装置による情報処理方法。 - 対象物を撮影した撮影画像のデータを取得する機能と、
前記撮影画像における前記対象物の像の領域内部からの輝度の、位置に対する変化が所定の条件を満たす座標点を探索することにより、当該像の輪郭線を求める機能と、
前記輪郭線に基づき前記対象物の実空間における位置情報を生成し出力する機能と、
をコンピュータに実現させ、
前記輪郭線を求める機能は、前記像の領域内部の画素を始点とし、画素配列における対角方向に前記座標点を探索することを特徴とするコンピュータプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238748A JP6602743B2 (ja) | 2016-12-08 | 2016-12-08 | 情報処理装置および情報処理方法 |
KR1020197016547A KR102196845B1 (ko) | 2016-12-08 | 2017-12-01 | 정보 처리 장치 및 정보 처리 방법 |
PCT/JP2017/043334 WO2018105530A1 (ja) | 2016-12-08 | 2017-12-01 | 情報処理装置および情報処理方法 |
CN201780074482.7A CN110036258B (zh) | 2016-12-08 | 2017-12-01 | 信息处理装置和信息处理方法 |
US16/344,155 US11282224B2 (en) | 2016-12-08 | 2017-12-01 | Information processing apparatus and information processing method |
EP17879251.1A EP3553465B1 (en) | 2016-12-08 | 2017-12-01 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238748A JP6602743B2 (ja) | 2016-12-08 | 2016-12-08 | 情報処理装置および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018096716A JP2018096716A (ja) | 2018-06-21 |
JP6602743B2 true JP6602743B2 (ja) | 2019-11-06 |
Family
ID=62491006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016238748A Active JP6602743B2 (ja) | 2016-12-08 | 2016-12-08 | 情報処理装置および情報処理方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11282224B2 (ja) |
EP (1) | EP3553465B1 (ja) |
JP (1) | JP6602743B2 (ja) |
KR (1) | KR102196845B1 (ja) |
CN (1) | CN110036258B (ja) |
WO (1) | WO2018105530A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7111172B2 (ja) | 2018-11-01 | 2022-08-02 | 日本電気株式会社 | 位置検出装置、位置検出システム、遠隔制御装置、遠隔制御システム、位置検出方法、及びプログラム |
JP6694039B1 (ja) * | 2018-11-22 | 2020-05-13 | 株式会社アイエンター | 魚体サイズ算出装置 |
JP7280119B2 (ja) * | 2019-06-03 | 2023-05-23 | 古河電気工業株式会社 | 支援情報作成装置、支援情報作成システム、支援情報作成方法、及び支援情報作成プログラム |
CN110378339B (zh) * | 2019-07-22 | 2021-08-17 | 海信视像科技股份有限公司 | 发光体的位置确定方法及装置 |
CN110782492B (zh) * | 2019-10-08 | 2023-03-28 | 三星(中国)半导体有限公司 | 位姿跟踪方法及装置 |
US11610330B2 (en) | 2019-10-08 | 2023-03-21 | Samsung Electronics Co., Ltd. | Method and apparatus with pose tracking |
CN111981989A (zh) * | 2020-01-08 | 2020-11-24 | 杨春燕 | 电力线路现场宽度检测平台 |
CN111242087B (zh) * | 2020-01-21 | 2024-06-07 | 华为技术有限公司 | 物体识别方法及装置 |
CN111325220B (zh) * | 2020-02-17 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 图像生成方法、装置、设备及存储介质 |
EP3872693A1 (en) * | 2020-02-28 | 2021-09-01 | Aptiv Technologies Limited | Methods and systems for object detection |
JP7392572B2 (ja) * | 2020-05-21 | 2023-12-06 | 富士通株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
CN112215893B (zh) * | 2020-10-28 | 2022-10-28 | 安徽农业大学 | 目标二维中心坐标点确定方法、装置、设备及测距系统 |
CN112668460A (zh) * | 2020-12-25 | 2021-04-16 | 北京百度网讯科技有限公司 | 目标检测方法、电子设备、路侧设备和云控平台 |
CN113129280B (zh) * | 2021-04-09 | 2022-08-09 | 中国人民解放军63660部队 | 一种基于建筑物轮廓特征的目标落点测量方法 |
WO2022252007A1 (en) * | 2021-05-31 | 2022-12-08 | Boe Technology Group Co., Ltd. | Distance measurement method, distance measurement apparatus, and computer-program product |
CN115797876B (zh) * | 2023-02-08 | 2023-04-07 | 华至云链科技(苏州)有限公司 | 设备监控处理方法及系统 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07121710A (ja) | 1993-10-27 | 1995-05-12 | Hitachi Ltd | 画像セグメンテーション方法及び装置 |
JP3235364B2 (ja) | 1994-10-04 | 2001-12-04 | 株式会社明電舎 | 部品の姿勢検出装置 |
JPH08178637A (ja) * | 1994-12-27 | 1996-07-12 | Mitsubishi Electric Corp | 画像処理装置及び画像処理方法 |
JP3903360B2 (ja) | 1999-06-28 | 2007-04-11 | パイオニア株式会社 | エッジ検出方法及びエッジ検出装置並びに画像符号化装置 |
ES2391556T3 (es) * | 2002-05-03 | 2012-11-27 | Donnelly Corporation | Sistema de detección de objetos para vehículo |
JP4269808B2 (ja) | 2003-07-03 | 2009-05-27 | 株式会社ニコン | 色不良領域補正方法、色不良領域補正処理プログラム、色領域特定方法、色領域特定処理プログラムおよび画像処理装置 |
JP2009514106A (ja) * | 2005-10-26 | 2009-04-02 | 株式会社ソニー・コンピュータエンタテインメント | コンピュータプログラムとインタフェースするためのシステムおよび方法 |
KR20080032746A (ko) * | 2006-10-10 | 2008-04-16 | 엠텍비젼 주식회사 | 움직임 인식 방법 및 그 장치 |
US7929807B2 (en) * | 2007-02-27 | 2011-04-19 | Phase One A/S | Colour binning of a digital image to reduce the image resolution |
US7995840B2 (en) | 2008-03-28 | 2011-08-09 | Seiko Epson Corporation | Image processing apparatus, image processing method, and program for attaining image processing |
JP4852591B2 (ja) * | 2008-11-27 | 2012-01-11 | 富士フイルム株式会社 | 立体画像処理装置、方法及び記録媒体並びに立体撮像装置 |
TWI422020B (zh) | 2008-12-08 | 2014-01-01 | Sony Corp | 固態成像裝置 |
JP5158006B2 (ja) | 2009-04-23 | 2013-03-06 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
JP5646263B2 (ja) * | 2010-09-27 | 2014-12-24 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法 |
CN103035014A (zh) * | 2011-09-29 | 2013-04-10 | 索尼公司 | 图像处理设备和方法,以及成像设备和方法 |
JP5953842B2 (ja) * | 2012-03-14 | 2016-07-20 | オムロン株式会社 | 画像検査方法および検査領域設定方法 |
CN103839250B (zh) * | 2012-11-23 | 2017-03-01 | 诺基亚技术有限公司 | 用于面部图像处理的方法和设备 |
JP5413501B1 (ja) * | 2012-12-07 | 2014-02-12 | 富士ゼロックス株式会社 | 画像処理装置、画像処理システム及びプログラム |
CN105518702B (zh) * | 2014-11-12 | 2018-06-26 | 深圳市大疆创新科技有限公司 | 一种对目标物体的检测方法、检测装置以及机器人 |
KR101660447B1 (ko) * | 2015-03-26 | 2016-09-28 | 인천대학교 산학협력단 | 베이어 패턴 컬러 필터 어레이 디모자이킹을 위한 다 방향 가중 보간 방법 |
CN106067026B (zh) | 2016-05-30 | 2020-01-31 | 天水师范学院 | 一种中药材显微图像的特征提取与识别检索方法 |
CN106203398B (zh) | 2016-07-26 | 2019-08-13 | 东软集团股份有限公司 | 一种检测车道边界的方法、装置和设备 |
KR101907451B1 (ko) * | 2017-05-19 | 2018-10-12 | 인천대학교 산학협력단 | 베이어 패턴 필터 기반 고해상도 컬러 영상 복원 및 화질 향상 장치 및 방법 |
-
2016
- 2016-12-08 JP JP2016238748A patent/JP6602743B2/ja active Active
-
2017
- 2017-12-01 EP EP17879251.1A patent/EP3553465B1/en active Active
- 2017-12-01 WO PCT/JP2017/043334 patent/WO2018105530A1/ja unknown
- 2017-12-01 US US16/344,155 patent/US11282224B2/en active Active
- 2017-12-01 CN CN201780074482.7A patent/CN110036258B/zh active Active
- 2017-12-01 KR KR1020197016547A patent/KR102196845B1/ko active Active
Also Published As
Publication number | Publication date |
---|---|
EP3553465A1 (en) | 2019-10-16 |
WO2018105530A1 (ja) | 2018-06-14 |
CN110036258B (zh) | 2021-11-23 |
US20200265601A1 (en) | 2020-08-20 |
EP3553465A4 (en) | 2020-07-29 |
JP2018096716A (ja) | 2018-06-21 |
KR102196845B1 (ko) | 2020-12-30 |
EP3553465B1 (en) | 2022-06-22 |
CN110036258A (zh) | 2019-07-19 |
KR20190082880A (ko) | 2019-07-10 |
US11282224B2 (en) | 2022-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6602743B2 (ja) | 情報処理装置および情報処理方法 | |
EP2512141B1 (en) | System and method of user interaction in augmented reality | |
US10293252B2 (en) | Image processing device, system and method based on position detection | |
US9055267B2 (en) | System and method of input processing for augmented reality | |
US8066195B2 (en) | Object, image data, image data transmission method, card, game mat, card game system, image analysis apparatus, and image analysis method | |
CN104615234B (zh) | 信息处理设备以及信息处理方法 | |
JP7387434B2 (ja) | 画像生成方法および画像生成装置 | |
US10638120B2 (en) | Information processing device and information processing method for stereoscopic image calibration | |
US9268408B2 (en) | Operating area determination method and system | |
JP6629055B2 (ja) | 情報処理装置および情報処理方法 | |
US20120219178A1 (en) | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method | |
JP6799017B2 (ja) | 端末装置、システム、プログラム及び方法 | |
CN106471523A (zh) | 使用红外成像的颜色标识 | |
JP7505547B2 (ja) | 画像処理装置、キャリブレーションボード、および、3dモデルデータ生成方法 | |
JP6650739B2 (ja) | 発光デバイス調整装置および駆動電流調整方法 | |
US20180109723A1 (en) | Information processing device, information processing method, and program | |
TWI457857B (zh) | 影像處理裝置,影像處理方法,及其電腦程式產品 | |
JP6447521B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20230306676A1 (en) | Image generation device and image generation method | |
JP2004030408A (ja) | 三次元画像表示装置及び表示方法 | |
WO2023281593A1 (ja) | 情報処理装置、制御方法及び記憶媒体 | |
CN118363451A (zh) | 位姿确定方法、装置、设备及存储介质 | |
JP2021124980A (ja) | 情報処理装置、情報処理方法、及び、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6602743 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |