JPH10508107A - 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 - Google Patents
能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法Info
- Publication number
- JPH10508107A JPH10508107A JP9500391A JP50039197A JPH10508107A JP H10508107 A JPH10508107 A JP H10508107A JP 9500391 A JP9500391 A JP 9500391A JP 50039197 A JP50039197 A JP 50039197A JP H10508107 A JPH10508107 A JP H10508107A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- pixel
- sensor
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/32—Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/52—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/66—Trinkets, e.g. shirt buttons or jewellery items
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/236—Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optics & Photonics (AREA)
- Artificial Intelligence (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
物体(22)の深さをマッピングする方法及び装置は、投射された光パターンを用いて観察用光軸(24)に沿って物体(22)に選択した格子縞を形成する。撮像光学系(32,34)は投射された光パターンを用いて物体(22)の第1及び第2の画像を撮像し、画像中の投射パターンのデフォーカスを比較して物体(22)の素子部分の相対深さを決定する。
Description
【発明の詳細な説明】
能動型照明及びデフォーカスに起因する画像中の相対的なぼけを
用いる物体の3次元形状を決定する装置及び方法発明の背景
1.発明の分野
本発明は2次元画像から3次元構造体すなわち物体をマッピングする技術、特
に能動型照明を用いて深さ情報を再生する技術に関するものである。
2.関連技術の説明
コンピータの分野で最も関連する課題は、2次元画像から3次元画像を再生す
ることである。この課題について多くの解決策が提案されており、これらの提案
は受動型と能動型のカテゴリーに分類される。シェーディング及びテキスチャか
ら形状を決定する能動型の技術は単一画像から構造を抽出しようとする。この技
術は依然として研究中であり、他の技術を補足することが期待されているが、際
立つ程の技術として作用することはできない。動きから立体構造を抽出するよう
な他の能動型の方法は単一画像固有の形状のあいまいさを解消するため多重観察
を利用している。これらの方法における主要な課題は、相関性及び特徴追跡であ
る。さらに、能動型のアルゴリズムは、物体認識の姿勢評価のような高レベルの
認識作業に必要な精度及び強度を表示する必要がある。
従来、物体の高品質3次元マッピングは時間経過すなわち光細条化に基づく能
動型センサを利用することからだけ得られている。実際の見地より、光細条化の
方法は好ましい試みである。被写体を能動的な放射で撮像する構造決定方法は種
々の課題に対して強力で安価な解決策となる。しかしながら、固有の欠点、すな
わち速度に関する欠点がある。十分な空間解像度を有する深さマッピングを達成
するためには、多数(N本)の細条が用いられる。全ての細条を同時に投射すれ
ば、特定の細条を所定の画像点と関連付け、三角法により深さを計算するのに必
要な処理することが不可能になる。古典的な試みは、各細条について多重画像を
得ることである。多重画像を必要とすると、マッピングに必要な時間が増加して
しまう。
フォーカス分析は、被写体の2個又はそれ以上の画像を同一の撮像点から異な
る光学的条件設定で撮像し、相関性又は特徴追跡に必要なものを取り出している
ので、動きから立体構造を決定する方法よりも多数の利点を有している。しかし
ながら、2個の画像間の差異をとらえることは極めて難解であり、また、デフォ
ーカスから深さを決定する従来の方法は、フォーカス分析中に含まれる光学的要
素及び検出機構について粗い近似を用いているため、制限された範囲でしか成功
していない。
デフォーカスから深さを決定する基本的事項は、合焦した画像と非合焦画像と
の間の関係をとることである。図1は基本の画像形成形態を示す。物点Pから出
射し、開口直径aを有する絞りAを通過した全ての光線はレンズにより屈折し結
像面If上の点に集束する。薄いレンズの場合、物体までの距離dと、レンズの
焦点距離fと、結像点までの距離diとの関係はガウシアンレンズの法則により
与えられる。
点Pを含む物体上の各点は像面If上の単一点上に投影されて鮮明な合焦画像
が形成される。一方I1又はI2のようなセンサ面が像焦点面と一致せずこれから
偏位している場合、点Pからのレンズにより受光されたエネルギーはセンサ面上
の小部分上に亘って分布する。互いに異なる程度にデフォーカスした2個の被写
体は同一の画像要素を発生するので、単一画像は深さ評価を行なうために十分な
情報を含んでいない。深さに対する解決策は、既知の物理的な距離βだけ離間し
た像面I1及びI2上に形成される2個の画像を用いることにより得られる。この
課題は、2個の画像中の各被写体点の相対的なぼけを分析し各像について合焦画
像までの距離を計算することにより得られる。この場合、di=γ−αを用いる
ことにより、レンズの法則(1)から被写体点の深さdが得られる。この手法は
簡単なように見えるが、実際の値を用いると種々の技術的課題が発生する。
第1に、相対的なデフォーカスを決定する問題がある。周波数ドメインとして
、ぼけは被写体のテキスチャのローパスフィルタリングとして観測することがで
きる。相対的なぼけは、原理的に周波数分析により評価することができる。一方
、局部的な被写体のテキスチャは未知であり可変なものである。ぼけの効果は周
波数に依存するので、被写体のテキスチャを構成する全周波数による全てのぼけ
について検討することは有意義ではない。この見地によれば、ほぼ単一周波数に
されている狭帯域フィルタを用いて2個またはそれ以上の画像のデフォーカスに
起因する相対的な減衰を評価するを示唆する。被写体の優勢な周波数が未知であ
り空間テキスチャに変化する可能性がある場合、処理の複雑さに加えて複雑なフ
ィルタリング技術を用いなければならない。この複雑さによりリアルタイムの用
途については実際的ではなくなってしまう。
デフォーカス技術による深さに関する第2の課題は、テキスチャのない表面に
関することである。撮像された表面がテキスチャのない(例えば、白の紙)場合
、デフォーカス及びフォーカス画像は同一の画像となり、いかなる数のフィルタ
も相対的なぼけの評価に有効ではない。特に、組織形成されている場合、この課
題は、注目する被写体上に照明パターンを投射すること、すなわち被写体に強制
的にテキスチャを形成することに到達する。この照明光の投射は、過去において
デフォーカスからの深さ及び斜視的投影下でのパターンサイズの歪みからの深さ
について示唆されている。
例えば、ジロッド等による文献“デップス フロム デフォーカス オブ ス
トラクチャド ライト”、プロシーディングス オブ ザ SPIE オプティ
カル ソカイアティ vol.1194、第209〜215頁(1990)には
、デフォーカスの範囲検出装置からの深さ検出において組織化された光源を用い
ることが記載されている。この既知の装置では、光パターン(垂直方向に離間し
た複数のライン)を大口径のレンズを経て物体表面に投影している。そして、大
口径光源のデフォーカシング効果から取り出された結像特性を有する単一画像を
検出している。この文献は、異方性の絞り、例えばスリット又はT字状の絞りを
用い、光源と関連して比較することによりカメラの限界のある視野深度に起因す
る系統的な誤差を除去することを示唆している。
同様に、エイ.ペントランド等による文献“シンプル レンズ カメラズ ベ
ースドオン フォーカスエラー”ジャーナル オブ オプティカル ソサイアテ
ィ オブ アメリカ vol.11、第2925〜2934頁(1994)には
、簡単なスライドプロジェクタを介して被写体上に光パターンを投射し、このパ
ターンのぼけを測定し、このぼけを既知の(合焦した)オリジナルの光パターン
と比較して深さを評価することが記載されている。
特に、これらの提案された解決策は、単一画像からデフォーカスを評価するこ
とに基づいている。結果として、これらの解決策では、物体の固有のテキスチャ
特性に起因するデフォーカス中の変化が考慮されていない。
多重撮像光学系について検討する場合、倍率とフォーカスとの関係を考慮する
必要がある。図1に示す撮像光学系において、点pの有効結像位置は、センサ面
が偏位するにしたがって光線Rに沿って移動する。したがって、面I1に形成さ
れたデフォーカス画像は面Ifに形成される合焦した画像よりも大きく、これら
の画像は面I2上に形成される画像よりも大きい。これにより、点pの未知の被
写体座標に依存する点pょ結像座標に偏位が生じてしまう。結像面I1及びI2の
対応する画像部分のデフォーカスを比較してぼけを評価する必要があるので、こ
のデフォーカスによる画像倍率の変化は、デフォーカスから深さを決定する際の
相関性に関する問題が生じてしまう。この問題は、モータ駆動されるズームレン
ズの正確な倍率較正の必要性が示唆されている従来の技術及び画像ドメインの整
列誤差補正が提案されて従来の技術の多くにおいて過小評価されている。この較
正によるアプローチは、多くのオフ−ザ−シェルフレンズの場合煩雑で且つ実行
不能である。
本発明の概要
本発明の目的は、2次元画像から3次元物体をマッピングする装置及び方法を
提供する。
本発明の別の目的は、能動型照明を用いてフォーカス分析に基づいて深さ情報
を再生する装置及び方法を提供する。
本発明の別の目的は、安価なオフ−ザ−シェルフ撮像及び処理ハードウェアを
用いるシステムを提供する。
本発明の別の目的は、精度が改善された深さ情報決定システムを提供する。
さらに、本発明の別の目的は、異なる焦点レベルに対応する2個の被写体像を
用いるデフォーカス方法から深さを求めて深さ情報を再生するシステムを提供す
ることにある。
さらに、本発明の目的は、必要な光学的、検出及び計算要素の分析に基づくデ
フォーカス分析から深さを決定する装置及び方法を提供する。
これらの及び他の目的は以下の説明に基づいて明らかにされ、本発明は、デフ
ォーカスから深さにより物体の3次元構造を測定する方法を提供する。本発明の
方法は、被写体を予め選択した照明パターンで照明し、及び少なくとも2個の被
写体の画像を検出し、検出した画像を異なる撮像パラメータで形成することを要
件とする。検出画像の対応する要素部分間の相対的なぼけを測定し、これにより
3次元構造の対応する要素部分の相対深さを決定する。
また、本発明は、デフォーカスによる深さから物体の3次元構造をマッピング
する装置を提供する。この装置は、物体を予め選択した照明パターンで照明する
能動型照明手段と、照明手段に光学的に結合され、少なくとも2個の物体の像を
検出するセンサ手段とを含み、検出した画像を異なる撮像パラメータを用いて取
り出す。また、この装置は、センサ手段に結合され、検出した画像間の相対的な
ぼけを測定する深さ測定手段を含み、物体の要素部分の深さを決定する。
好ましくは、画像は、定倍率画像検出により予め定めた幅のX×yの画素を有
するアレイとして検出し、相対的なぼけはX×Yの画素アレイに亘って画素対画
素で測定し、深さ情報はX×Yアレイに亘って画素対画素の関係で得られる。
一実施例として、被写体は、予め選択した照明パターンを有するスペクトラル
フィルタによりフィルタされるキセノン光源により照明する。スペクトラルフィ
ルタは、検出された各画像要素に対して多重空間周波数を発生させる照明パター
ンを発生するように選択することができる。別の実施例として、光源を単色レー
ザ光源とし、レーザ光により形成した被写体の少なくとも2個の深さ画像及び外
光により形成された被写体の少なくとも1個の輝度画像を形成する。この実施例
において、検出したレーザ光画像間の相対的なぼけを測定する。
好ましくは、予め選択した照明パターンは、デフォーカスの微小な変化により
測定された相対的なぼけに大きな変化が生ずるように最適にする。最適化された
照明パターンは矩形グリッドパターンの形態をとり、2個の直交する方向におい
て画素アレイ素子幅のほぼ2倍の等しいグリッド周期及び検出アレイに対してほ
ぼ零に等しい整列誤差位相シフトを有するように選択する。或いは、最適化され
た照明パターンは、2個の直交する方向において、画素幅のほぼ4倍に等しい周
期及び検出アレイに対してπ/φにほぼ等しい整列誤差位相シフトを有すること
ができる。
好適実施例において、第1の画像が検出された被写体の焦点面の前側に対応す
る位置に結像し、第2の画像が焦点面の後側に対応する位置に結像した2個の画
像を検出することができる。
照明パターン及び被写体像が同一の光路を通過するようにハーフミラー光学素
子を設けることができる。
照明パターン及び被写体像の両方を制御された偏光方向に偏光させる偏光素子
を用いて物体からの鏡面反射をフィルタすることができる。
有益なものとして、検出された画像を画素対画素でディジタル信号に変換し、
次にコンボルブして各検出された被写体画像について画素毎に照明パターンの基
本周波数に対応するパワー測定信号を決定する。パワー測定信号は、好ましくは
画素対画素に基づいて整列誤差について補正し、グリッドの検出画素と照明との
間の整列誤差によりパワー測定信号に導入された誤差を補正する。補正は、各パ
ワー測定信号にパワー測定信号の4個の隣接するパワー測定信号の2乗の和を画
素毎に乗算することにより効果的なものとすることができる。さらに、パワー測
定信号は画素毎に正規化することができる。
他方の検出された画像のパワー測定信号を、画素対画素で他方の検出された画
像の決定されたパワー測定値と比較して各画素における深さ情報を決定すること
ができる。この比較についてルックアップテーブルマッピングを利用することが
できる。
画素対画素の深さ情報は、深さマップとして配置し、ビットマップされたワー
クステーションにワイヤフレームとして表示することができる。レーザ光による
深さ画像及び外光による輝度画像の両方が検出される場合、輝度画像は深さマッ
プと同時に表示され、この結果検出された被写体の3次元構造及び実際の被写体
像をテキスチャマップとして同時に表示される。
上記技術に基づき、テキスチャが形成された表面及びテキスチャが形成されて
いる表面の両方を、画像センサに対して整列した最適な照明パターンを用いて再
生することができる。さらに、デーフォーカスから深さを決定する撮像技術にお
いて定倍率デフォーカシングを行なう。したがって、正確で、高解像度の深さマ
ップをフレームレートで行なうリアルタイム3次元撮像が行なわれる。
添付図面は本発明の好適実施例を図示し本発明の原理を説明するように作用す
る。
図1はレンズを用いて画像を形成する状態を示す簡単化された線図である。
図2は本発明の光学系の部分構成を示す簡単化した線図である。
図2Aは図2の装置に用いる画像検出器を示す平面図である。
図3は図2の装置に用いる画像検出器を示す平面図である。
図4A及び4Bは図2の実施例に用いる投射スクリーン用の矩形グリッドの好
適な構成を示す。
図5は本発明のシステムを最適化するための空間ドメイン関数及び周波数ドメ
イン関数を示す線図である。
図6は適合されたフォーカス演算子の決定を示す線図である。
図7は正規化されたデフォーカス因子を像面と合焦した像面の間の距離の関数
として示すグラフである。
図8は図2の装置の光学素子のフィルタ位置を変えた光学系を示す線図である
。
図9は選択可能なフィルタの平面図である。
図10A〜10DH本発明の装置の偏光制御の変形例を示す。
図11A〜11Fはグリッドパターン及び適合したスパッタリングを用いて深
さ決定の2個のレンジを形成する例を示す。
図12A〜12Dはグリッドパターンの変形例及びその周波数応答を示す。
図13は2個の異なる絞りを用いて撮像された物体の深さを決定する装置の簡
単化された線図である。
図14は一定面積の可変絞りの対を示す平面図である。
図15は画素アレイに対するグリッドパターンの整列誤差を示す。
図16は物体の深さ情報及び画像を再生する装置である。
図17A〜17Eは位相シフトグリッドスクリーン及びその照明及び空間周波
数応答を示す。
好適実施例の説明
図面を参照して本発明の好適実施例を詳細に説明する。
図2は物体22の3次元画像を視野内にマッピングする装置10を示す簡単化
された光学系の線図である。装置10は、好ましくはキセノンランプ、ストロボ
光源又はレーザ光源のような高輝度の光源12を含む。光源12は、照明光とし
て物体22上に投影されるべき2次元グリットを有する半透明スクリーン14を
照明する。レンズ16、絞り18及びビームスプリッタ20を適切に配置し、ス
クリーン14の画像をし光軸24に沿って物体22上に投影する。この能動型照
明は、装置10から見て物体22に対して良好に規定されたテキスチャを形成す
る。デフォーカスによる測定深さとの関連において、物体22の規定されたテキ
スチャを有する要素画像部分だけが測定でき、そのデフォーカスは装置10にお
いて観測できる。グリッド照明パターンは物体22上に良好に規定されたテキス
チャを形成する。
装置10は、光源12からの光が同一の光路を経て投射されるように配置され
、これにより物体22が観測される。このために、ビームスプリッタ反射器20
を設け、照明光を物体22の方向に投射する。平面ミラーとして図示した反射器
20はプリズム型のビームスプリッタとすることができる。
物体22から光軸24に沿って反射した照明グリッドパターンの光はビームス
プリッタ20を通過して検出装置25に入射する。装置25は焦点面絞り26及
びテレセントリック光学系と称せられ像面に不変の画像倍率を与えるレンズ28
を含む。第2のビームスプリッタ30により物体22の像は画像検出器32及び
34に入射し、これら画像検出器はレンズ28から光軸に沿って互いに異なる光
路長を有し、異なるデフォーカスで同一倍率の画像対を形成する。
単一のレンズを用いるテレセントリックレンズ系の特性は図3との関連におい
て説明することにする。図1に基づいて説明したように、物体上の点Pは、レン
ズ28によりレンズ28からの結像距離diに対応する焦点面If上の点Qとして
結像する。結像距離diはレンズ式(1)によりレンズ28から物体上の点P
までの物体距離dと関係付けられる。焦点面Ifから距離αだけ離間した像面I1
において、物点Pをデフォーカスすることによる拡大された円形に対応するぼけ
た画像が形成される。同様に、像面I1から距離βだけ離れた像面I2に点Pのぼ
けた画像が形成される。像面I1及びI2は焦点面Ifをはさんで互いに対向する
側に位置する。レンズ28の前側にレンズ28の焦点距離fだけ離れて絞り26
が配置されている構成において、テレセントリック光学系の対物レンズは、像面
I1及びI2に形成される像の大きさが焦点面If上に投影される理想像に等しく
なるように作用する。これは、R’で図示したレンズ28の後側の屈折した画像
光路の光中心が光軸24に平行になることから明らかである。勿論、当業者は、
この装置の位置が選択したレンズの光学特性に依存することを考慮するであろう
。実際に、あるレンズはテレセントリックとなるように製造されており、付加的
な絞りは不要である。
図2の装置10において、像面32及び34は、例えば像面I1及びI2にそれ
ぞれ対応するレンズ28から互いに異なる光路長で位置する。テレセントリック
光学系を用いるので、これら像面で検出される像は理想的な画像サイズを有する
と共にレンズ28から像面まで光路長が異なることによる異なるデフォーカス量
の画像要素の対応する位置を有する。
図2Aは、好ましくは電荷結合装置(CCD)とするイメージセンサ32,3
4の入射側から見た平面図である。好適な配置形態として、像面は画像検出セル
36で構成し、これらのセルはx及びy方向に沿って規則的な間隔PX及びPYで
512×480のアレイの形態に配置する。このCCD画像検出器は、信号サン
プリング素子のディジタルの性質により本発明のシステムに用いるのに好適であ
る。これにより2個の像面の画素の正確な識別が増強され、画素間の相関をとる
ことができる。或いは、テレビジョン受像管のような他の画素サンプリング装置
を適当なA/D変換器と共に用いることができる。一方、このようなアナログ装
置を用いることにより、本発明の装置における深さ検出のデフォーカス効果が低
下するおそれがある。
図4Aは本発明による好適実施例のスクリーン14の平面図である。このスク
リーン14は、ガラス基板上に例えばフォトエッチング技術により形成すること
ができ、bx×byのサイズでtx及びtyの周期で交互に形成した透明素子と不透
明素子との市松模様のグリッドを有する。このグリッドは、グリッド14の正方
形の市松模様の黒及び白の個別の部分が、物体22で反射した後、検出器アレイ
32及び34の画像検出素子36に対応するサイズ及び周期で光画像検出器32
及び34に入射するように適切に選択する。従って、光検出器アレイに投影され
るグリッド画像の照明グリッド周期(tx,ty)はアレイの画素の間隔(px,
py)の2倍とし、これは画像の検出された画素に対応する。当業者は、検出器
32及び34の個別の画素上のデフォーカス画像が、アレイ32及び34が理想
の焦点面からずれているため、理想の画像からデフォーカスしていることを認識
する。各画素及び各検出器アレイに対するデフォーカス量は、対応する検出器ア
レイについての物空間における理想的な合焦面Fからの対応する物点の距離Sの
関数である。検出器アレイ32,34の検出画素36の各々の画像強度を検出す
ることにより、焦点面Fからの対応する物点の距離に起因する投影されたグリッ
ドのデフォーカス量を検出器アレイ32,34上の各デフォーカス画像について
取り出すことができる。従って、後述するデフォーカス因子の2個の測定値が物
体の各要素区域毎に得られ、後述するように、このデフォーカス因子を用いて画
像に対応する物体部分の深さとしてマッピングすることができる正規化されたデ
フォーカス測定値を計算する。
最適プロセス
本発明の方法及び装置の動作原理を一層良好に説明するため、本発明の装置及
び方法の最適因子を決定する分析技術を理解することが有益である。この分析技
術は照明機能及び撮像機能の両方を考慮して、デフォーカスの決定から深さに含
まれる物理的因子及び計算因子を分析すること及び変化する物空間の要件につい
ての適用を考慮する。
重要な役割を果たす5個の因子すなわち要件がある。これらをモデル化して処
理する前にこれらの要件について簡単に説明する。
1.照明パターン:
物体を照明するために用いる正確なパターンは最終の格子形態を決定する。こ
の格子の空間特性及び空間周波数特性は深さ測定の手法つまり深さ評価の精度を
決定する。最高の深さ精度を達成するように最適化することはこの構成のパラメ
ータである。
2.光学伝達関数:
レンズ絞り26が有限のサイズを有することは、撮像系により検出可能な空間
周波数の範囲を制限する。この制限は照明パターンの最適化について重要な役割
を果たす。初期検査に際し、光学伝達関数(OTF)は有用な照明パターンの範
囲に厳格な制約を課すように見える。一方、発明者の判断によれば、このOTF
による範囲の制限により結像誤差のような重大な問題を回避することができる。
3.デフォーカス形成:
表面の深さdは像面のデフォーカス(又は、デフォーカスがないこと)に直接
関連する。この現象によりデフォーカスから深さを再生することができる。デフ
ォーカスが基本的にローパス空間フィルタであることは周知である。一方、この
現象の現実的なモデルは焦点分析について不可避である。本発明の目的は、各物
点Pについての最良の焦点面Ifを評価することにより像面I1及びI2の2個の
画像から深さを決定することである。
4.画像検出:
形状再生のための2個の画像は、勿論個別のものである。検出器面上に形成さ
れる連続画像と計算に用いるアレイの離散画像との間の関係は、画像検出器32
,34の検出素子(画素)36の形状及び配置形態により決定する。図示のよう
に、最終の照明パターン14はセンサアレイ上の各画素のサイズpx,pyに対応
する。従って、画素検知の正確なモデルは照明の最適化に必須である。
5.焦点演算子:
2個の画像のデフォーカスの相対的な程度はフォーカス演算子を用いて評価す
る。この演算子は典型的にはハイパスフィルタであり、個別の画素に適用する。
興味のあることとして、最良の照明パターンは用いるフォーカス演算子の因子に
依存する。
上記全ての因子は一緒になって物点Pの深さdとその焦点測定値との間の関係
を決定する。従って、最良の照明グリッド14はフォーカス測定関数の感度及び
強度を最大にするものとして機能する。この各要件を達成することは、空間的及
びフーリェドメインとしてモデル化される。この装置においてテレセントリック
レンズ(図3)を用いているので、そのパラメータを各モデルの設定に用いる。
一方、因子f/a′をDi/aで単に置き換えることにより、以下の全ての説明
は古典的なレンズ系(図2)にも適用することができる。
照明パターン
照明グリード14のパラメータを決定する前に、照明モデルを規定する必要が
ある。このモデルは多数の可能な照明パターンを含むように多様化する必要があ
る。モデルを規定するに際し、他の要素の特性を考慮することが有意義である。
簡単に説明すると、用いる画像センサ32,24は、図2Aに示すような矩形の
空間アレイとして配置した矩形の検出素子3bを有する。これを考慮し、以下の
照明モデルを規定する。モデルの基本構成ブロックは、均一な強度を有する矩形
の照明されたパッチすなわちセルとする。
ここで、2II( )は2次元矩形関数である。この照明セルの未知のパラメータは
セルの長さ及び幅bx及びbyである。
このセルは2次元グリッド上に繰り返し形成され図4A及び4Bに示す周期的
なパターンを構成するものとする。この周期は必須のものである。この理由は、
最終目標が、深さ精度の空間不変性を達成すること、すなわち相対距離にかかわ
らず全ての画像区域が同一の格子形態の特性を有する必要があるためである。周
期性グリッドは以下のように規定される。
ここで2III( )は2次元シャー関数てあり、2tx及び2tyはx及びy方向のグ
リッドの周期を決定する。このグリッドは矩形ではないが、xy面上で垂直及び
水平方向において対称である。最終の照明パターンi(x,y)はセルic
(x,y)をグリッドig(x,y)を用いてコンボルブすることにより得られ
る。
従って、正確なパターンは4図のパラメータ、すなわちbx,by,tx及びtyに
より決定される。上記照明グリッドは限定的なものではない。例えば、bx,by
,2tx及び2tyはそれぞれ伸ばして水平方向及び垂直方向に繰り返された照明
細条及び非照明細条を得ることができる。或は、これらを調整して大きな又は小
さな照明パッチを有する市松模様の照明を得ることができる。bx,by,tx及
びtyについての正確な値は後述する最適化処理により評価される。実際に、最
適化により決定された照明パターンを用いる同一パターンを有するスクリーンを
作成する。
最適化処理は、空間ドメイン及び周波数ドメイン(u,v)についての装置の
各構成要素の分析を必要とする。照明セル、グリッド及びパターンのフーリェ変
換はそれぞれIc(u,v)、Ig(u,v)、及びI(u,v)として表示され
、以下の式が成立する。
光学伝達関数
照明された表面の隣接する点は互いに干渉する光波を反射して回折効果をおこ
す。回折角は表面のテキスチャの空間周波数とともに増大する。撮像光学系25
(図2)のレンズ絞り26は有限の半径a′を有しているので、表面から出射す
る高次回折光を通過させない。この効果は撮像光学系の解像度に制約を課し、こ
れは光学伝達関数(OTF)により特徴付けられる。
ここで、(u,v)はレンズの像側から見た2次元表面テキスチャの空間周波数
であり、fはレンズの焦点距離であり、λは入射光の波長である。上記式より、
限界2a′/λf以下の空間周波数の光だけが光学系により結像されること明ら
かである(図5)。これは、照明パターンの周波数に制限を課すことになる。さ
らに、上記周波数限界を用いて、照明パターンにより生じた高次高調波のうち所
望の次数のものをカットオフすることができる。要するに、OTFは不用なもの
であると共に有用なものであり、検出可能な周波数範囲を制限すると共に、擬態
及び高次高調波による有害な効果を最小にすることができる。デフォカシング
図3を参照するに、αは表面上の点Pの合焦した像面Ifセンサ面I1上に形成
されるデフォーカスした像との間の距離である。表面上の点から放出され撮像光
学系により集められた光エネルギーは、センサ面上の円形パッチ上に均一に分布
する。ピルボックスとも称せられているこのパッチはデフォーカスの関数である
(図7)。
ここで、同様に、a′はテレセントリックレンズ絞りの半径である。フーリェド
メインとして、上記デフォーカス関数は以下の式により与えられる。
ここで、J1は1次ベッセル関数である。上記式から明らかなように、デフォー
カスはローパスフィルタとして作用する。このフィルタの帯域幅は、xが減少す
るにしたがって、すなわちセンサ面I1が焦点面Ifに近づくにしたがって増加す
る。α=0の限界の場合、H(u,v)は完全に合焦した画像の形成を減衰させ
ることなく全ての周波数の光を通過させる。デフォーカスした画像において、全
ての周波数が同時に減衰する。合焦又はデフォーカスからの受動的な深さの場合
、これは重大な問題を示すことになり、未知の物体の種々の周波数が種々の(及
び未知の)倍率及び位相を有するように束縛される。従って、各周波数を個別に
分析する細条状のフォーカス演算子の多数の組を用いることなく画像領域のデフ
ォーカスの程度を評価することは困難である。
これは同様に、デフォーカスつまり深さを強固に評価することができる単一の
優勢な周波数を有する照明パターンを有することが望ましいことを示している。画像検出
画像センサは典型的なCCDセンサアレイを用いるものとする。このセンサは
矩形検知素子36(画素)の矩形アレイ32,34.としてモデル化することが
できる。各センサ36の量子効率は画素領域全体に亘って均一であるとする。m
(x,y)はセンサ面上に形成される連続画像とする。有限の画素領域は、連続
する画像が(x,y)を平均化する効果を有する。空間ドメインとして、平均化
関数は矩形セルとする。
ここで、ωx及びωyは検知素子36の幅及び高さである。Sc(x,y)を用い
てm(x,y)のコンボルーションをサンプリングすることにより個別の画像が
得られる。このサンプリング周波は矩形グリッドとする。
ここで、px及びpyは2個の空間的寸法としての個別のサンプル間の間隔であ
り、(φx,φy)はグリッドの位相シフトである。従って、最終の個別の画像は
以下のようになる。
パラメータωx,ωy px及びpyは全て用いた特定の画像センサにより決定され
る。これらのパラメータは既知であり、アレイの最適化を行なった後に置換する
。他方において、サンプリング関数の位相シフト(φx,φy)は照明パターンに
関するものであり、最適化の処理中に照明パラメータとして検討する。これらの
位相パラメータの重要性を認識するため、検知グリッドに関する高周波数の照明
パターンの簡単な変換に起因する個別画像中の変化を想到することができる。
フーリェドメインにおいて、上記平均化及びサンプリングの関数は以下の通り
である。
最終の個別画像は以下のようになる。
フォーカス演算子
デフォーカシングは合焦画像中の高周波成分を抑制する効果を有しているから
、焦点演算子が画像中の高周波成分に応答することは望ましいことである。照明
を最適化するため、ランプラシアンを用いる。一方、取り出されたパターンは対
称的なフォーカス演算子の大きなクラスについての最適性を残すことになる。空
間ドメインとして、個別のランプラシアンは以下のようになる。
ここで、qx及びqyは個別のランプラシアン核の隣接する素子間の間隔である。
最適化において、これらの間隔は照明パラメータに関係する。個別のラプラシア
ンのフーリェ変換は以下の通りである。
フォーカス演算子の必要な個別の性質は犠牲を伴なう。この必要な個別の性質は
演算子の帯域を広げる傾向にある。一旦パターンが決定されると、上記フィルタ
は、基本照明周波数に対して感度を最大にすると共に視野の固有のテキスチャ又
は画像ノイズに起因するスプリアス周波数の効果を最小にするように適合する。
フォーカス測定
フォーカス測定は、単にフォーカス演算子の出力である。これは上述したよう
にモデル化された要件の全てを介してデフォーカス(つまり、深さd)に関係付
けられる。照明パターン(ic×ig)は、像形成のために用いた光学系と同様な
光学系を介して投影される。この結果、このパターンも、光学伝達関数O及びア
レイデフォーカス関数hにより課せられる制限を受ける。従って、被写体上に投
影されるテキスチャは以下のようになる。
ここで、α′は照明された点の深さに依存する照明自身のデフォーカスを表わす
。一方、一旦表面パッチに入射した照明パターンは表面テキスチャの役割を果た
し、照明のデフォーカスα′は深さ評価についてのいかなる効果も有しない。投
影されたテキスチャは被写体により反射し光学系により像面上に投影されて個別
の像を発生する。
ここで、0*2=0×0である。最終のフォーカス測定関数g(X,Y)は個別の
ラプラシアンを上記個別の画像に適用した結果である。
ラプラシアン核の隣接する重み間の距離は画像サンプリング関数Sgの周期の整
数倍とする必要があるので、上記式は以下のようにみなすことができる。
ここで、go=i★o*2 ★h′★h★sc ★l.同一のことがフーリェドメイ
ンにも適用することができ、
上記事項により、デフォーカスパラメータαの値についてフォーカス演算子の最
終の出力が与えられる。以下の説明において最良の照明パターンの決定が用いら
れる。
最適化
本発明の装置において、照明グリッドは高パワー光源及び被写体を撮像するた
めに用いる光学系と同一のテレセントリックレンズを用いて物体22上に投影す
る。これにより、投影される照明は表面のテキスチャについて主要な要因である
表面自体のテキスチャよりも一層強いものであるとすることができる。この結果
、本発明をテキスチャを有しない表面だけでなくテキスチャを有する表面につい
ても適用することができる。照明最適化の課題は以下のように定型化される。照
明パラメータ(bx,by,tx,ty)と、センサパラメータ(wx,wy,px,
py,φx,φy)と、別個のラプラシアンパラメータ(gx,gy)との間の密な
関係を確立してフォーカス測定g(X,Y)の感度、強度及び空間解像度を最大
にする。感度が高いことは、フォーカスの程度の僅かな変化によりg(X,Y)
が大きく変化することを意味する。これにより、画像ノイズがある場合の高い深
さ評価精度、すなわち高い信号対ノイズ比が達成される。強度を増すことにより
、同一程度のデフォーカスを有する全ての画素センサ36がその像面上の位置に
かかわらず同一のフォーカス測定関数を発生することになる。最後に、高空間解
像度はフォーカス演算子のサイズを最小にすることにより達成される。これによ
り、急激な深さ変化(表面の不連続性)を高精度で検出することができる。
平坦化効果を最小にし計算された深さの空間解像度を最大にするため、個別の
ラプラシアンの支持(すなわち、スパン)はできるだけ小さくする必要がある。
このためには、照明パターンの周波数をできるだけ高くする必要がある。一方、
セクション4.2で説明した光学伝達関数は、光学系によって撮像される最高の
空間周波数に制限を課す。この最高のとり得る周波数は2a′/λfであり、テ
レアントリックレンズの開口数により決定される。照明グリッドパターンは周期
的であるため、そのフーリェ変換は離散的でなければならない。これは零の周波
数成分を有することができるが、無視することができる。この理由は、2次導関
数の和であるラプラシアン演算子が最終画像中の零周波数成分を除去するからで
ある。従って、本発明の対物レンズは照明パターンの基本空間周波数(1/tx
,1/ty)を最大にするようにされている。この周波数を最大にすると共に高
の全てのより高い周波数が押し出される。残されている事項は、画像が4単位の
基本周波数(±1/tx,±1/ty)だけを有する表面のテキスチャである。結
果として、これらは、フォーカス測定関数G(u,v)の分析において考慮すべ
き周波数である。
最終的なフォーカス測定関数G(u,v)について検討する前に、画像サンプ
リングに先立つフォーカス測定Go(u,v)について検討する。上記理由によ
り、2次元のGo(u,v)を、(1/tx,1/ty), (1/tx,−1/ty
),(−1/tx,1/ty)及び(−1/tx,−1/ty)における四個の個
別のスパイクまで減少する。Goの全ての要素(I,O,H,Sc及びL)はu=
0及びv=0を中心にして反射対称であり、
ここで、
従って、周波数ドメインとして画像サンプリングに先立つフォーカス測定関数は
以下にまで減少する。
画像ドメイン中の関数g0(X,Y)はG0(u,v)の反転フーリェ変換になる
。
g0(X,Y)は係数G0(1/tx,1/ty)だけ重み付けされた余弦関数であ
る。デフォーカス関数h、フォーカス測定関数g0(X,Y)の係数G0(1/tx
,1/ty)を小さくする効果を有する。明らかに、深さ(又はデフォーカス)
に対するフォーカス測定の感度は、この系の未知のパラメータに対して係数G0
(1/tx,1/ty)を最大にすることにより最適にされる。この最適化処理は
以下のように要約される。
tx及びtyは式(25)の全ての要素において見い出されるので、最初の2個
の部分導関数(式(28))を評価するのは困難である。幸運なことに、式(2
9)及び(30)の導関数は、系のパラメータ間の関数を得るのに十分である。
以下の結果はフォーカス測定関数g(X,Y)の感度及び空間解像度を最大にす
る。
次に、g(X,Y)の空間強度について検討する。撮像された表面は平坦であり
イメージセンサに対して平行であると想定する。次に、画像サンプリングを行な
い画像の全ての個別のサンプリング点におけるg(X,Y)の同一の絶対値を発
生させる。これにより、照明のパラメータと検出パラメータとが関係付けられ、
式(27)の余弦関数の積の正確なサンプリングが行なわれる。最終的なフォー
カス測定関数は以下の通りである。
上式式中の2個のコサインがそれらのピーク値でサンプルされると、g(X,Y
)の全てのサンプルは同一の絶対値を有する。このサンプルは以下の場合に可能
になる。
及び
或は、これらのコサインはπ/2の周期及びπ/4の位相シフトを用いてサンプ
ルすることができ、これにより第2の解が得られる。
上記式は図4A及び4Bに示す2個の解を与え、これらの解は共に市松模様の
照明パターンであるが、照明セルの基本周波数及びサイズ、画像センサに対する
位相シフトにおいて相違する。式(31)、(32)、(34)、(35)によ
り図4Aに示すグリッドパターンが得られる。この場合、グリッド画像及び検出
器は零位相シフトで記録され、照明セルの画像はセンサ素子と(画素)と同一の
サイズ及び形状を有する。図4Bに示す第2の解はサンプリング解(36)及び
(37)を用いて得られ、センサ素子の2倍のサイズの照明セル画像及びセンサ
素子サイズの半分の位相シフトを有するフィルタパターンを発生する。
適合したフォーカス演算子
照明を最適化するため、ラプラシアン演算子を用いる。得られる照明パターン
は単一ドメイン絶対周波数(1/tx,1/ty)だけを有する。これを与えれば
、さらにフォーカス演算子を改良して被写体の物理的テキスチャ又は画像ノイズ
により生ずる他の全ての周波数の効果を最小にすることができる。この目的のた
め、3×3の個別のラプラシアンの特性について検討する(図6A及び6B参照
)。ラプラシアンが(1/tx,1/ty)、(1/tx,−1/ty)、(−1/
tx,1/ty)及び(−1/tx,−1/ty)においてピークを有することを介
して、図6Bに示すように、このラプラシアンが式(23)のフォーカス測定関
数Gに寄与する他のスプリアス周波数を許容する広い帯域幅を有することが理解
される。ここで、上記周波数空間の4個の座標における鮮明なピークを用いて細
いバント演算子をさがす。
この演算子個別のものであり、有限の支持(スパン)を有するものとすれば、
適合できる範囲に限界がある。この課題を解決するため、以下の条件を課すこと
にする。(a)計算された深さの空間解像度を最大にするため、演算子核を3×
3とする。(b)照明パターンの基本周波数は対称な4元配置を有するので、フ
ォーカス演算子は回転対称とすべきである。これら2個の条件により演算子は図
6Cに示す構造を有する。(c)演算子は画像輝度のいかなるDC成分に対して
も応答すべきである。この最後の条件は、演算子の全ての要素の和が零に等しい
場合に満足される。
基本周波数に対する演算子の応答が零でないことが避けられない場合、
式(32)が与えられる場合、上記式は以下の式になる。
式(38)及び(40)はbが零でないこと意味する。一般性が失われない場合
、b=−1に設定する。この場合、式(38)はa=4(1−c)を与える。適
合した演算子は、図6Dに示すように、未知のパラメータcにより決定される。
この場合の課題は、演算子のフーリェ変換が(1/tx,1/ty)において先鋭
なピークを有するようにcを適切に見出すことである。先鋭度の粗い測定は、(
1/tx,1/ty)に関するパワーの2次モーメント‖L(u,v)2‖により
決定される。
上記の式は∂M/∂C=0の場合、すなわち図6Eに示すC=0.658のと
きに最小になる。得られた適合フォーカス演算子は図6Fに示す応答を有し、個
別のラプラシアンよりも大幅に先鋭である。演算子が3×3で離散的であるとす
れば、このピークの先鋭度には限界がある。上記誘導により、連続するドメイン
及び離散的ドメインにおける設計する適合演算子間の基本的に差異に到達する。
一般的に、連続するドメインにおいて最適であると思われる演算子は離散的な画
像の場合副次的な最適度にとどまる。
2個の画像からの深さ
深さ評価は、図3に示す異なる有効焦点長に対応する被写体I1(X,Y)及
びI2(X,Y)の2個の画像を用いる。各被写体点の深さは、被写体点に対す
る合焦面Ifの偏位αを評価することにより行なう。適合したフォーカス演算子
を両方の画像について適用して式(33)からフォーカス測定画像g1(X,y
)及びg2(X,Y)を得ると、
式(23)より、パラメータαにより影響受けるG0の因子だけがデフォーカス
関数Hとなることが理解される。
上記測定値は境界されていない。これは、計算上の見地より、以下の正規化を
用いることにより容易に補正される課題を示す。
図7に示すように、qはαの単調関数であり、−p≦q≦p、p≦1となる。
実際には、上記関係は予め計算し、核像点について計算されたqを特有のαにマ
ッピングするルックアップテーブルとして記憶することができる。
αは合焦した画像の位置を表すので、レンズの法則(1)により対応する被写
体点の深さが得られる。前のセクションにおいて設計され適合したフォーカス演
算子は線形フィルタとなる。簡単な画像処理ハードウェアを用いて被写体の深さ
マップをリアルタイムで計算することができる。
リアルタイムレンジセンサ
上記結果に基づき、図2に示すリアルタイムフォーカスレンジセンサを用いる
。被写体は、テレセントリックに変換するための付加的な絞り26が設けられて
いる標準の12.5mmのフジノンレンズ28を用いて撮像する。レンズ28を
通過する光線は、ビーム分割プリズム30を用いて2方向に分割する。これによ
り、ソニーXC−77−RRの8ビットCCDカメラ32,34を用いて同時に
検出される2個の画像が発生する。2台のカメラの位置は、一方のカメラが前ピ
ン画像を撮影し他方のカメラが後ピン画像を撮影するように正確に配置する。こ
の設定において、2台のCCDカメラの有効焦点距離間の0.25mmの変位は
約30cmのセンサ視野深度に変換される。このセンサの検出可能な範囲は、セ
ンサの変位又は撮像光学系の焦点距離を変化させることにより変えることができ
る。
図4Bに示す照明グリッドはVLSIにおいて広く用いられているマイクロリ
ソグラフィを用いてガラスプレート上にエッチングされる。このグリッド14を
300Wのキセノンアークランプの光路上に配置した。発生した照明パターンは
画像を形成するために用いたレンズと同一のテレセントリックレンズ16を用い
て投影した。ハーフミラーを用いて、画像を得るために用いた光路と同一の光路
を介して照明パターンを被写体上に投影する。この結果、照明パターンは2台の
CCDカメラ32,34にほぼ完全に記憶される。さらに、上記配置構成により
、センサに感じられる各被写体点も照明パターンにより照明され、影従って非検
出区域の発生が回避される。
2台のCCDカメラ32,34からの画像は、MV200 データキューブ画
像処理ハードウェアを用いてディジタル化及び処理する。この構成は、2個の8
ビットデジタイザ、2個のA/D変換器及び1個の12ビットコンボルーバと等
価なものを含む。このハードウェアにより、2個の画像の同時デジタル化、2個
の画像の適合したフォーカスエッチングを用いるコンボルーション、及び256
×240の深さマッピングが可能になり、これら全ては33m秒の単一のフレー
ム時間内で33m秒の遅延で行うことができる。ルックアップテーブルを用いて
フォーカス測定関数(g1及びg2)の各対を特有の深さ評価dにマッピングする
。或いは、2個の画像が順次撮像される場合、512×480の深さマッピング
を同一のレートで計算することができる。同時画像収集が明らかに有利である。
この理由は、このように構成することにより、センサが両方の照明の変化及びフ
レーム間の被写体構造の変化に対してより感度が小さくなるからである。この処
理ハードウェアに僅かな付加的な構成を加えることにより、同時撮像を利用して
30Hzで512×480の深さマッピングを行うことができる。センサ25により
発生した深さマップはDECアルファワークステーションにフレーム速度でワイ
ヤフレームとして表示することができる。
好適実施例の変形例
センサ10の変形として、デフォーカス効果が照明光の色成分の関数となるこ
とがある。多くのレンズは種々の波長に対して僅かに異なる焦点距離を有し、従
って、デフォーカスからの深さ決定の精度が照明のスペクトラル特性及び物体の
反射面の色に応じて変化する可能性がある。この理由は、深さ決定がレンズ28
の焦点距離fに依存するからである。この誤差源は、図2に示すスペクトラル帯
域フィルタ38を設けて撮像すべき反射光のある成分だけを通過させることによ
り回避することができる。帯域フィルタは撮像波長の範囲を制限し、これにより
レンズの焦点距離の色変化が制限される。このフィルタの他の取りうる位置は図
8の38’、38''、及び38'''として示す。
照明源12がレーザの場合、フィルタはレーザ周波数の光を通過させ多くの周
辺光を除去する狭帯域とすることが好ましく、これによりレンズの色収差効果及
び投影されたグリッドパターンではなく周辺光によるテキスチャの変化の効果の
両方を除去することができる。
オーバラップしないスペクトラル特性を有する多色の被写体の場合、スペクト
ラルフィルタの帯域を適切な帯域が用いられるように変化させ又は制御して種々
の物体区域の深さを測定することができる。この目的のため、電子的なフィルタ
又は図9に示すフィルタホィール101を用いることができる。
ある場合においては、マッピングすべき物体は鏡面反射及び拡散反射する表面
又は構造を含むことができる。鏡面反射はデフォーカス測定装置から深さにおけ
るネガティブの効果を発生させる。第1に、鏡面反射は画像センサ32,34を
て飽和させ易く、合焦情報及びデフォーカス情報が喪失してしまう。第2に、鏡
面反射から取り出されたデフォーカス値からの深さが反射表面ではなく反射源の
深さを表してしまう。最後に、鏡面反射点の法線が照明方向と光軸方向24に二
等分せず、表面点がセンサ方向に照明光を発生しなくなってしまう。
必要な場合、図10Aから10Dに示す偏光フィルタを用いてセンサ画像から
鏡面反射の効果を除去することができる。図10Aにおいて、偏光フィルタ44
は照明光を矢印Vで示す垂直方向に偏光する。従って、鏡面反射光は主として垂
直偏光を有し、センサ撮像光学系に水平偏光Hを与えるように配置した水平偏光
フィルタ42により除去される。
図10Bに示す変形例は垂直偏光したレーザ光源45を用い、このレーザ光源
からレンズ47を介してグリッド14に投射して垂直偏光の照明をおこなう。偏
光フィルタ42は鏡面反射から撮像光学系を保護する。図10Cに示す別の変形
例はプリズムの半反射性ビームプリッタ46による効果を利用し、垂直偏光した
照明光を物体に向けて反射させ、垂直偏光した光を撮像光学系に向けて通過させ
る。図10Dに示す最後の構成は、垂直偏光子48及び1/4波長板50を用い
て円偏光した光を発生させる。偏光子48を通過した照明光は垂直偏光した光と
なり円偏光子50により右回りの円偏光に変換させる。左回りの円偏光した鏡面
反射光は偏光子50により水平偏光に変換され垂直偏光子48によりフィルタさ
れる。拡散反射光は右回り円偏光成分を含み、この光は偏光子50により垂直偏
光に変換され偏光子48を通過して撮像光学系に入射する。
好適実施例について説明したように、図4A及び4Bに示す照明パターンは、
光学伝達関数により課せらる限界外の高周波と共にx及びy空間における単一基
本空間周波数の光を含む。一方、光学伝達関数の限界内の測定可能な多重空間周
波数を有する照明グリッドパターンを用いることも可能である。このような多重
周波数グリッドパターンを図11Aに示し、このパターンでは一方の市松模様の
グリッドが他方のグリッドの空間周波数の2倍の空間周波数を有する2個の市松
模様グリッドを重ね合せる。生じたデフォーカス関数の検出は、図11Bに示す
ように、適合したフィルタにより周波数ドメインとして濾波した。この結果図1
1C及び11Dに示すように、異なるデフォーカス周波数のパワー変化を画素毎
に検出する適合した多重フォーカス演算子が生ずる。デフォーカス弁別関数gを
図11E及び11Fにそれぞれ示す。高周波数デフォーカス関数により一層高い
感度が生ずるが、その範囲は減少する。より低い周波数のデフォーカス関数から
より低い深さ感度が生ずるが、その範囲は増加する。従って、図11Aの多重周
波数グリッドを用いることにより、デフォーカスから可変解像度の深さを得るこ
とができる。
別のグリッドパターンを図12A及び12Cに示すと共に、それらの周波数応
答をそれぞれず12B及び12Dに示す。図12Aのパターンは図11Aのパタ
ーンと同様な二重周波数応答性を有しているが、種々のパターン配列を利用して
いる。図12Cのグリッドはx及びy座標系における種々の周波数応答を示す。
絞りの変化
上述した装置及び方法は、撮像レンズから異なる距離で配置した2個のセンサ
画像を用いて画像中に異なるデフォーカス量を発生させている。撮像レンズにつ
いてほぼ同一の像面に形成される2個の画像について異なる絞りサイズ及び形状
を用いることにより異なるデフォーカスの画像を形成することができる。例えば
、小さな絞り開口aは大きな絞り開口よりも画像中により小さいデフォーカス効
果を発生することはすでに認識されている。
絞りの変化に対する試みは、ビームスプリッタ30及びセンサアレイ32を除
いた図2の装置を用いることである。物体22の第1の画像は絞り26の第1の
セッティングを利用してセンサアレイ34上に形成され、第2の画像は絞り26
の異なるセッティングを利用して順次形成される。好ましくは、零濃度フィルタ
をより大きな絞り設定と共に用いてより多い光量を補正する。2個の絞り設定間
のデフォーカス因子の変化を用いてデフォーカスによる画像要素の深さを決定す
る。
図13に示す別の試みは、センサユニット対60,62の外部にビームスプリ
ッタ57を設ける。ユニット60,62は同一のセンサアレイ64,66及び6
8,70を有する。ユニット60は小さい絞り開口を有し、ユニット62は大き
な絞り開口74及び大きな絞りを用いることによる光量の増加を補正するニュー
トラル濃度フィルタ76を有する。或いは、順次又は同時撮像装置において、同
様な透明区域の大きさを有するが、図14に示すような異なる形状を有する2個
の絞りを用いることができる。絞り形状の差異により光学伝達関数、すなわち焦
点深度が変化するが、同一の画像輝度が維持される。
レジストレーション
図2の装置10の較正は、センサのフィールド焦点面に位置する平坦な表面上
に投影される画像グリッドと共にセンサアレイ32,34を整列させることによ
り達成されるが、デフォーカス関数の計算において整列誤差を補償することもで
きる。4Bに示す型式の照明パターンのセンレアレイに対する整列誤差を図15
に示し、図15において照明パターンは、式(37)で与えられる正常な位相オ
フセット値±tn/8及びty/8から△φX及び△φYだけずれている。この場
合、整列誤差が生じているセンサ中の各センサ素子の出力はcos△φXcos
△φYの誤差を有し、この誤差は深さマップ誤差を発生させる。
この整列誤差は、コンボルブされた画像に別の演算子を適用して、(φx、φy
)=(0,0),(0,π/2),(π/0,0)及び(π/2,π/2)の
位相シフトに対応する4個の隣接する素子におけるコンボルブされた画像の2乗
の和をとることにより補償することができる。この結果、デフォーカス用のルッ
クアップテーブルに直接適用でき、又は正規化され又はルックアップテーブルに
適用される前に平方根関数により変形することができるパワー測定値が生ずる。
1次元パターン(細条)の場合、上記処理をパターン細条と直交する方向の2
個の隣接する素子点に適用することだけが必要である。
位相がπ/2だけ相異する(サイン又はコサイン)フォーカス測定データを発
生する2個の適合した演算子を数値的に構成することも可能である。これらのコ
ンボルブされた画像を組み合せて画素に対応する位置の2乗和を計算して、1次
元又は2次元グリッドパターンの整列位相から独立したフォーカス測定値を得る
ことができる。
共通撮像
ある用途において、被写体の深さマップ及び輝度画像の両方を有することが望
まれている。これに関して、デフォーカスから深さ計算のために用いた画像を利
用して投射された照明光と関連する空間周波数を取り除くことにより正規の輝度
画像をコンピュータ再生することができる。これは、簡単なコンボリューション
処理を利用して外光照明のもとで画像を発生させることにより達成できる。さら
に、各画像点の深さは既知であるから、コンボリューションとして設けることが
できるぼかし処理を全ての点において最高に合焦した輝度画像に適用することが
できる。共通の照明及び撮像の場合、計算された合焦画像は計算された深さマッ
プと共に記録され適当なメモリに記憶される。これにより、高速テキスチャマッ
ピングだけでなく物体認識のような可視処理についての幾何学的及び写真的な被
写体特性の結合再生を利用できる。3次元格子マップはビットマップされたワー
クステーションにフレームレートでワィヤフレームとして表示することができる
。
図16はテレビジョンカメラ80の輝度画像検出及びセンサ25による深さ検
出のための装置を示し、この装置は図2の実施例とすることができる。この装置
において、種々のフィルタ又はシーケンス技術を用いて輝度画像の照明パターン
の効果を除去することができる。例えば、ビームスプリッタ82は照明パターン
に対応する周波数の光を深さセンサ25に向けて通過させ他の光をカメラ80に
向けて反射する選択性反射器とすることができる。或いは、フィルタ84を配置
して照明光を吸収し他の光を反射することができ、フィルタ86が照明光をフィ
ルタセンサ25に向けて通過させることができる。このようなフィルタリングは
、例えばレーザパターン照明のような狭い帯域の場合に特に実際的である。
図4A及び4Bに示す透過性グリッドスクリーンを用いる変形例では、位相パ
ターングリッドを用い、この位相パターングリッドおいては図17Aに示す透過
性の位相が交互に90゜シフトしたグリッド素子を有する矩形素子の市松模様の
グリッドを設ける。この位相グリッドは、図17Bに示す交互に強め合うと共に
弱め合う投影される干渉パターンを形成し、この結果図17Cに示す周波数ドメ
インパターンが発生し、このパターンは適合したフィルタコンボリューションに
より分析して図17D及び17Eに示すデフォーカス分析のための個別の周波数
応答を形成することができる。位相シフトグリッドの利点は、透過性グリッドパ
ターンに比べてグリッド照明によるエネルギー損失がほとんどないことである。
照明グリッドパターンを設けることに関連して、前述したように、レーザは以
下の理由により好適な光源である。すなわち、(1)フィルタリングが容易であ
り、検出画像中に色収差のない狭い帯域照明である。(2)単一周波数光のため
きレンズ、フィルタ及びミラーを含む表面を良好に制御できる。(3)エネルギ
ー損失のない偏光した光を利用できる。(4)低いパワーの制御可能な光源を利
用できる。
図18は、センサアレイ32,34で受光した画像情報から画像深さマップを
決定する工程を示すフロー線図である。画像センサデータはディジタルフォーマ
ットに変換され、上述した方法によりコンボルブされて各画像の各素子について
のデフォーカス測定値の決定を行う。選択的に、上述したずれ補正をデフォーカ
ス測定値g0及びg1の到達した際の処理において行うことができる。次に、デフ
ォーカス測定値を点対点の方法で結合して2個の画像の正規化された相対的なぼ
けを決定し、計算又はルックアップテーブルを用いて点対点に基づいて物体の深
さを決定し、所望の深さマップを得る。
さらに、本発明のある実施例では、用途のダイナミック性に応じて画像を同時
に発生させたが、画像を順次発生させることもでき、この場合物体の位置は一定
に維持したまま、画像間隔、レンズ位置及び/又はしぼり画像間で変えることが
できる。
本発明は上述した実施例だけに限定されず、本発明の精神から逸脱しない範囲
において種々の変形や変更が可能である。
─────────────────────────────────────────────────────
フロントページの続き
(72)発明者 野口 稔
神奈川県横浜市戸塚区矢部町1393 ベルハ
イム1−10
(72)発明者 渡辺 正浩
アメリカ合衆国 ニューヨーク州 10027
ニューヨーク ウエスト ワンハンドレ
ッドトゥエンティス ストリート 433
アパートメント 97
Claims (1)
- 【特許請求の範囲】 1.デフォーカスから深さにより3次元構造体をマッピングするに際し、 (a)前記構造体を予め選択した照明パターンで照明する工程と、 (b)前記照明された構造体の異なる撮像パラメータで形成した少なくとも2 個の画像検出する工程と、 (c)前記検出した画像の対応する素子部分間の相対的なぼけを決定し、これ により前記3次元構造体の対応する素子部分の深さを決定する工程とを具える3 次元構造体のマッピング方法。 2.請求項1に記載の方法において、前記照明を2次元照明パターンを用いて行 う方法。 3.請求項2に記載の方法において、前記照明を、市松模様を構成する矩形の透 明素子及び不透明素子からなり選択した水平方向及び垂直方向グリッド間隔を有 する矩形グリッドを用いて行う方法。 4.請求項3に記載の方法において、前記検出を、前記検出された画像の水平方 向及び垂直方向グリッド間隔の整数倍の水平方向及び垂直方向アレイ間隔を有す る検出素子アレイを用いて行う方法。 5.請求項1に記載の方法において、前記少なくとも2個の画像がテレセントリ ックレンズ系により形成される方法。 6.デフォーカスから深さを用いて3次元構造体をマッピングするに際し、 (a)前記構造体を、光軸に沿って投射された矩形グリッドを含む照明パター ンを用いて照明する工程と、 (b)一定倍率の撮像光学系を用いて、前記光軸方向から前記照明された構造 体の少なくとも2個の画像を検出し、これら画像を、前記撮像光学系の焦点面に 対して異なる位置の少なくとも2個の結像面で検出する工程と、 (c)前記検出した画像の対応する素子部分間の相対的なぼけを決定し、これ により前記3次元構造体の対応する素子部分の深さを決定する工程とを具える3 次元構造体のマッピング方法。 7.請求項6に記載の方法において、前記画像を、各方向に選択した素子間隔で 矩形パターンに配置した検出素子の第1及び第2の検出アレイを用いて行う方法 。 8.請求項7に記載の方法において、前記矩形グリッドが、選択したグリッド周 期の市松模様のパターンを有する方法。 9.請求項8に記載の方法において、前記グリッド周期を前記検出アレイ上にグ リッド画像を形成するように選択し、前記グリッド周期を前記対応する素子間隔 の整数倍とした方法。 10.請求項9に記載の方法において、前記グリッド周期を、前記素子間隔の2 倍にほぼ等しい周期のグリッド画像を形成するように選択し、前記グリッド画像 を2個の直交する方向において前記アレイに整列させる方法。 11.請求項9に記載の方法において、前記グリッド画像の周期を、前記画素幅 の4倍にほぼ等しくすると共に前記アレイ上において前記グリッド画像周期の1 /8だけシフトさせた方法。 12.請求項6に記載の方法において、前記光源を単色レーザ光源とした方法。 13.請求項9に記載の方法において、前記検出工程において、前記レーザ光に より検出された被写体の少なくとも2個の深さ画像及び外光により検出された被 写体の少なくとも1個の輝度画像を検出し、前記決定工程において、前記検出さ れたレーザ光の画像間の相対的なぼけを測定する方法。 14.請求項6に記載の方法において、第1の画像を前記焦点面よりも前側の位 置で検出し、第2の画像を前記焦点面よりも後側の位置で検出する方法。 15.請求項6に記載の方法において、前記照明グリッドを、多重空間周波数の パターンを発生する照明パターンを発生するように選択した方法。 16.請求項6に記載の方法において、前記照明工程が、前記被写体を照明する 前に照明パターンを反射するハーフミラー光学素子を用い、前記検出工程が、前 記被写体を検出する前に前記ハーフミラー光学素子を介して被写体像を通過させ 、前記照明パターン及び被写体像が共通の光軸に沿って形成される方法。 17.請求項6に記載の方法において、前記照明工程が、偏光光学素子を用いて 、前記被写体を照明する前に照明パターンの光を偏光し、前記検出工程が、前記 被写体の検出の前に偏光光学素子を介して被写体像を通過させる方法。 18.請求項6に記載の方法において、前記決定工程が、さらに (i)前記検出した画像を画素対画素によりディジタル信号に変換し、 (ii)前記ディジタル信号を画素対画素でコンボルブして、各検出した被写 体像の各画素における照明パターンの基本周波数に対応するパワー測定信号を決 定することを含む方法。 19.請求項18に記載の方法において、前記測定工程が、さらに (iii)前記パワー測定信号を、画素対画素で整列誤差について補正し、前 記アレイの検出画素と照明パターンとの間の整列誤差により導入された誤差を補 正することを含む方法。 20.請求項19に記載の方法において、前記補正工程が、隣接する4個の画素 の測定信号の2乗の和をとることを含む方法。 21.請求項18に記載において、前記測定工程が、さらに (iii)前記パターン測定信号を画素対画素で正規化することを含む方法。 22.請求項18に記載において、前記測定工程が、さらに (iii)前記検出した一方の画像のパターン測定信号を、前記検出した他方 の画像の決定したパターン測定信号と画素対画素に基づいて比較して、前記各画 素の深さ情報を決定する方法。 23.請求項6に記載の方法において、前記決定工程が、深さ情報を画素対画素 で深さマップとして配置することを含む方法。 24.さらに、深さマップをワィヤフレーム画像として表示する工程を有する請 求項23に記載の方法。 25.請求項13に記載の方法において、前記決定工程が、前記画素対画素の深 さ情報を深さマップとして配置することを含み、さらに、検出された輝度画像及 び深さマップからマッピングされた3次元表示の構造を構成する工程を含む方法 。 26.デフォーカスから深さにより被写体の3次元構造を測定する装置であって 、 (a)被写体を予め選択した照明パターンを用いて照明する能動型照明手段と 、(b)前記照明手段に選択的に結合され、前記被写体の少なくとも2個の画像 を検出し、少なくとも一方の画像を、他方の画像とは異なる光学的パラメー タ又は撮像パラメータで検出するセンサ手段と、 (c)前記センサ手段に結合され、前記検出した画像間の相対的なぼけを測定 する深さ測定手段と、 (d)前記深さ測定手段に検出され、前記検出した画像間の相対的なぼけから 検出した被写体の3次元構造を再生する被写体再生手段とを具える3次元構造測 定装置。 27.請求項26に記載の装置において、前記センサ手段が複数のセンサを有し 、各センサが予め定めた幅を有するX×Y個の画素を有してX×Yの検出グリッ ドを構成し、前記深さ装置手段が、X×Y画素のグリッドにわたって画素対画素 で前記相対的なぼけを測定し、前記X×Yグリッド内の各画素について深さ情報 を得る装置。 28.請求項27に記載の装置において、前記能動型照明手段が、 (i)照明ベース部材と、 (ii)照明ベース部材に結合された光源と、 (iii)照明ベース部材に結合され、前記予め選択した照明パターンを有す るスペクトラルフィルタとを具え、前記光源からの光がスペクトラルフィルタを 通過して前記予め選択した照明パターンを形成する装置。 29.請求項28に記載の装置において、前記スペクトラルフィルタの予め選択 した照明パターンを、前記センサ手段により形成されたデフォーカスの僅かな変 化により前記深さ測定手段により測定された相対的なぼけが大きく変化するよう に最適化した装置。 30.請求項29に記載の装置において、前記最適化された照明パターンを矩形 のグリッドパターンとした装置。 31.請求項30に記載の装置において、前記最適化された照明パターンが、2 個の直交する方向において、前記画素の幅の2倍にほぼ等しい周期及び前記検出 グリッドに関して零にほぼ等しい位相シフトを有するパターンを具える装置。 32.請求項30に記載の装置において、前記最適化された照明パターンが、2 個の直交する方向において、前記画素の幅の4倍にほぼ等しい周期及び前記検出 グリッドに関して1/8にほぼ等しい位相シフトを有するパターンを具える 装置。 33.請求項28に記載の装置において、前記光源をキセノンランプとした装置 。 34.請求項28に記載の装置において、前記光源を単色レーザとした装置。 35.請求項34に記載の装置において、前記センサ手段がさらに、 (i)センサベース部材と、 (ii)前記センサベース部材に結合され、前記レーザ光により形成された被 写体の深さ像を検出する第1及び第2の深さセンサと、 (iii)前記センサベース部材に結合され、外光により形成された被写体の 像を検出する少なくとも1個の輝度センサとを具え、前記深さ測定手段が検出さ れたレーザ光の画像間の相対的なぼけを測定する装置。 36.請求項26に記載の装置において、前記センサ手段がさらに、 (i)センサベース部材と、 (ii)前記センサベース部材に結合されると共に前記照明手段に光学的に結 合され、被写体の像を受光するレンズと、 (iii)前記センサベース部材に結合されると共に前記レンズに光学的に結 合され、前記被写体の像を2個の分割被写体像に分割するビームスプリッタと、 (iv)前記センサベースに結合された第1及び第2のセンサとを具え、第1 の分割被写体像が第1のセンサに入射するように第1のセンサをビームスプリッ タに光学的に結合し、第2の分割被写体像が第2のセンサに入射するように第2 のセンサをビームスプリッタに光学的に結合した装置。 37.請求項36に記載の装置において、前記センサ手段がさらに、 (v)前記レンズとビームスプリッタとの間の位置において前記センサベース 部材に結合されると共に前記レンズ及びビームスプリッタに光学的に結合された 開口を有する光学素子を具え、前記レンズに入射した画像が前記開口を経てビー ムスプリッタに入射する装置。 38.請求項36に記載の装置において、前記第1のセンサが前記焦点面の前側 に位置し、前記第2のセンサが焦点面の後側に位置する装置。 39.請求項38に記載の装置において、前記スペクトラルフィルタが、前記第 1及び第2のセンサにより検出された各画像について多重空間周波数を発生て きる照明パターンを含む装置。 40.請求項26に記載の装置において、さらに、 (e)前記能動型照明手段及びセンサ手段に結合した支持部材と、 (f)前記能動型照明手段とセンサ手段との光学的な交差点において前記支持 部材に結合したハーフミラーとを具え、前記予め選択した照明パターンが被写体 を照明する前にハーフミラーにより反射され、前記被写体像がセンサ手段により 検出される前にハーフミラーを通過し、前記照明パターン及び被写体像が共通の 光路を通過する装置。 41.請求項26に記載の装置において、さらに、 (e)前記能動型照明手段及びセンサ手段に結合した支持部材と、 (f)前記能動型照明手段とセンサ手段との光学的な交差点において前記支持 部材に結合したハーフミラーとを具え、前記予め選択した照明パターンが被写体 を照明する前にハーフミラーを通過し、前記被写体像がセンサ手段により検出さ れる前にハーフミラーで反射し、前記照明パターン及び被写体像が共通の光路を 通過する装置。 42.請求項26に記載の装置において、さらに、 (e)前記能動型照明手段及びセンサ手段に結合した支持部材と、 (f)前記能動型照明手段とセンサ手段との光学的な交差点において前記支持 部材に結合した偏光フィルタとを具え、前記予め選択した照明パターンが被写体 を照明する前に前記偏光フィルタで反射し、前記被写体像がセンサ手段により検 出される前に前記偏光フィルタを通過し、前記被写体に入射する照明パターン及 び検出された被写体像の光が共に制御された偏光方向に偏光されている装置。 43.請求項27に記載の装置において、前記深さ測定手段がさらに、 (i)前記センサ手段に結合され、検出した画像を画素対画素の関係でディジ タル信号に変換するアナログ対ディジタル変換器と、 (ii)前記アナログ対ディジタル変換器に結合され、前記ディジタル信号を 画素対画素の関係でコンボルビングして、各検出した被写体像について各画素の 照明パターンの基本周波数に対応するパワー測定信号を取り出すコンボルビ ング手段とを具える装置。 44.請求項43に記載の装置において、前記深さ測定手段がさらに、 (iii)前記コンボルビング手段に結合され、前記パワー測定信号を画素対 画素の関係で整列誤差について補正する整列誤差補正手段を具え、前記グリッド の検出画素と照明パターンの検出画素との間の整列誤差により前記パワー測定信 号に導入された誤差を補正する装置。 45.請求項44に記載の装置において、前記整列誤差補正手段が、各パワー測 定信号に、パワー測定信号の4個の隣接するパワー測定信号の2乗の和を画素毎 に乗算する計算手段を含む装置。 46.請求項43に記載の装置において、前記深さ測定手段がさらに、 (iii)前記コンボルビング手段に結合され、前記パワー測定信号を画素毎 に正規化する正規化手段を具える装置。 47.請求項43に記載の装置において、前記深さ測定手段がさらに、 (iii)前記コンボルビング手段に結合され、前記検出された一方の画像の パワー測定信号を、他方の検出された画像の決定したパワー測定信号と画素毎に 比較して各画素の深さ情報を決定する比較手段を具える装置。 48.請求項47に記載の装置において、前記比較手段がルックアップテーブル を含む装置。 49.請求項27に記載の装置において、前記被写体再生手段が、前記深さ測定 手段に結合され、前記取り出した被写体の画素毎の深さ情報を深さマップとして 記憶するマップ記憶手段を具える装置。 50.請求項49に記載の装置において、さらに、 (e)前記被写体再生手段に結合され、前記深さマップをワィヤフレームとし てビットマップされたワークステーションに表示する表示手段を具える装置。 51.請求項35に記載の装置において、前記被写体再生手段が、前記深さ測定 手段及び輝度センサに結合され、取り出した画素毎の深さ情報及び輝度情報を記 憶する3次元テキストマップ記憶手段を具えると共に、さらに、 (e)前記被写体再生手段に結合され、前記3次元テキストマップををワィヤ フレームとしてビットマップされたワークステーションに表示する表示手段を 具える装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US1995/007890 WO1996041304A1 (en) | 1995-06-07 | 1995-06-07 | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10508107A true JPH10508107A (ja) | 1998-08-04 |
JP3481631B2 JP3481631B2 (ja) | 2003-12-22 |
Family
ID=22249348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP50039197A Expired - Fee Related JP3481631B2 (ja) | 1995-06-07 | 1995-06-07 | 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US6229913B1 (ja) |
JP (1) | JP3481631B2 (ja) |
WO (1) | WO1996041304A1 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002191058A (ja) * | 2000-12-20 | 2002-07-05 | Olympus Optical Co Ltd | 3次元画像取得装置および3次元画像取得方法 |
JP2004257934A (ja) * | 2003-02-27 | 2004-09-16 | Nippon Telegr & Teleph Corp <Ntt> | 3次元形状計測方法及び3次元形状計測装置並びにその処理プログラムと記録媒体 |
JP2008046027A (ja) * | 2006-08-17 | 2008-02-28 | National Institute Of Advanced Industrial & Technology | 高さを測定する方法及びそのための装置 |
JP2008527363A (ja) * | 2005-01-14 | 2008-07-24 | エシロール アンテルナショナル コムパニー ジェネラル ドプテイク | 光学プローブ並びにその製造装置及び方法 |
JP2009505104A (ja) * | 2005-08-15 | 2009-02-05 | ソニー エレクトロニクス インク | 深度マップを作成するための演算方法、機械読み取り可能な媒体、演算装置及び演算システム |
WO2009113528A1 (ja) * | 2008-03-11 | 2009-09-17 | 株式会社ニコン | 形状測定装置 |
JP2010139419A (ja) * | 2008-12-12 | 2010-06-24 | Nikon Corp | 形状測定装置 |
WO2012046270A1 (en) * | 2010-10-05 | 2012-04-12 | Empire Technology Development Llc | Generation of depth data based on spatial light pattern |
WO2012066774A1 (ja) * | 2010-11-17 | 2012-05-24 | パナソニック株式会社 | 撮像装置及び距離計測方法 |
JP2013089230A (ja) * | 2011-10-13 | 2013-05-13 | General Electric Co <Ge> | デプスフロムデフォーカス撮像用のシステムおよび方法 |
KR20150082262A (ko) * | 2012-11-14 | 2015-07-15 | 퀄컴 인코포레이티드 | 구조화된 광 능동 심도 센싱 시스템들에서의 광원 전력의 동적 조절 |
JP5841844B2 (ja) * | 2010-06-17 | 2016-01-13 | ドルビー・インターナショナル・アーベー | 画像処理装置及び画像処理方法 |
JP2016530503A (ja) * | 2013-07-09 | 2016-09-29 | ゼノマティクス・ナムローゼ・フエンノートシャップXenomatix Nv | 周辺検知システム |
JP2018515759A (ja) * | 2015-05-22 | 2018-06-14 | シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | オブジェクトの光学的3d測定のためのデバイス |
JP2022518391A (ja) * | 2019-01-09 | 2022-03-15 | トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング | 少なくとも1つの物体の位置を決定するための検出器 |
JPWO2022059064A1 (ja) * | 2020-09-15 | 2022-03-24 |
Families Citing this family (392)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US7983817B2 (en) * | 1995-06-07 | 2011-07-19 | Automotive Technologies Internatinoal, Inc. | Method and arrangement for obtaining information about vehicle occupants |
US6025905A (en) * | 1996-12-31 | 2000-02-15 | Cognex Corporation | System for obtaining a uniform illumination reflectance image during periodic structured illumination |
US5912768A (en) * | 1996-12-31 | 1999-06-15 | Cognex Corporation | Depth-from-defocus optical apparatus with invariance to surface reflectance properties |
US5878152A (en) * | 1997-05-21 | 1999-03-02 | Cognex Corporation | Depth from focal gradient analysis using object texture removal by albedo normalization |
DE69833813T2 (de) * | 1997-05-22 | 2006-11-30 | Kabushiki Kaisha Topcon | Vorrichtung zur Korrespondenzsuche in einem Bildpaar |
US5969721A (en) | 1997-06-03 | 1999-10-19 | At&T Corp. | System and apparatus for customizing a computer animation wireframe |
US6219461B1 (en) | 1997-07-29 | 2001-04-17 | Cognex Corporation | Determining a depth |
US6148120A (en) * | 1997-10-30 | 2000-11-14 | Cognex Corporation | Warping of focal images to correct correspondence error |
US8131053B2 (en) | 1999-01-25 | 2012-03-06 | Amnis Corporation | Detection of circulating tumor cells using imaging flow cytometry |
US7450229B2 (en) * | 1999-01-25 | 2008-11-11 | Amnis Corporation | Methods for analyzing inter-cellular phenomena |
US8005314B2 (en) * | 2005-12-09 | 2011-08-23 | Amnis Corporation | Extended depth of field imaging for high speed object analysis |
US8406498B2 (en) | 1999-01-25 | 2013-03-26 | Amnis Corporation | Blood and cell analysis using an imaging flow cytometer |
US8885913B2 (en) | 1999-01-25 | 2014-11-11 | Amnis Corporation | Detection of circulating tumor cells using imaging flow cytometry |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US6690464B1 (en) | 1999-02-19 | 2004-02-10 | Spectral Dimensions, Inc. | High-volume on-line spectroscopic composition testing of manufactured pharmaceutical dosage units |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6751344B1 (en) * | 1999-05-28 | 2004-06-15 | Champion Orthotic Investments, Inc. | Enhanced projector system for machine vision |
US6677948B1 (en) * | 1999-06-14 | 2004-01-13 | Mitutoyo Corporation | Systems and methods for multi-resolution image defocusing |
KR20000036863A (ko) * | 2000-03-30 | 2000-07-05 | 이형근 | Dfd를 이용한 3차원 형상복원 기술 |
GB2365120B (en) * | 2000-07-21 | 2004-11-17 | Infrared Integrated Syst Ltd | Multipurpose detector |
WO2002031583A1 (en) * | 2000-10-12 | 2002-04-18 | Amnis Corporation | System and method for high numeric aperture imaging systems |
ATE483327T1 (de) * | 2001-08-15 | 2010-10-15 | Koninkl Philips Electronics Nv | 3d videokonferenzsystem |
US6634552B2 (en) * | 2001-09-26 | 2003-10-21 | Nec Laboratories America, Inc. | Three dimensional vision device and method, and structured light bar-code patterns for use in the same |
US20030067537A1 (en) * | 2001-10-04 | 2003-04-10 | Myers Kenneth J. | System and method for three-dimensional data acquisition |
WO2003060443A1 (en) * | 2001-12-21 | 2003-07-24 | Spectral Dimensions, Inc. | Spectrometric process monitoring |
US6990639B2 (en) * | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
JP4139605B2 (ja) * | 2002-03-01 | 2008-08-27 | 大日本印刷株式会社 | 片掘り型の基板掘り込み型位相シフトマスクにおけるマスク断面構造の決定方法 |
US6792205B2 (en) * | 2002-04-17 | 2004-09-14 | Mitsubishi Electric Research Laboratories, Inc. | Method for generating a textured range image |
GB0301775D0 (en) * | 2003-01-25 | 2003-02-26 | Wilson John E | Device and method for 3Dimaging |
DE10304111B4 (de) * | 2003-01-31 | 2011-04-28 | Sirona Dental Systems Gmbh | Aufnahmeverfahren für ein Bild eines Aufnahmeobjekts |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
JP4408025B2 (ja) * | 2003-04-24 | 2010-02-03 | 株式会社リコー | 位置ずれパターン検出装置、光書込み装置、画像形成装置及び複写機 |
JP2006528770A (ja) * | 2003-07-24 | 2006-12-21 | コグニテンス リミテッド | 対象物の3次元表面再構築の方法およびシステム |
US7139067B2 (en) * | 2003-09-12 | 2006-11-21 | Textron Systems Corporation | Three-dimensional imaging with multiframe blind deconvolution |
WO2005090905A1 (en) * | 2004-03-16 | 2005-09-29 | Spiral Scratch Limited | Optical profilometer apparatus and method |
US8953866B2 (en) | 2004-03-16 | 2015-02-10 | Amnis Corporation | Method for imaging and differential analysis of cells |
US8150136B2 (en) | 2004-03-16 | 2012-04-03 | Amnis Corporation | Image based quantitation of molecular translocation |
US8103080B2 (en) * | 2004-03-16 | 2012-01-24 | Amnis Corporation | Method for imaging and differential analysis of cells |
DE602005009432D1 (de) | 2004-06-17 | 2008-10-16 | Cadent Ltd | Verfahren und Gerät zur Farbbildformung einer dreidimensionalen Struktur |
US7545422B2 (en) * | 2004-10-27 | 2009-06-09 | Aptina Imaging Corporation | Imaging system |
JPWO2006054775A1 (ja) * | 2004-11-22 | 2008-06-05 | 株式会社ブリヂストン | 外観検査装置 |
US20070019883A1 (en) * | 2005-07-19 | 2007-01-25 | Wong Earl Q | Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US7489408B2 (en) * | 2005-11-15 | 2009-02-10 | General Electric Company | Optical edge break gage |
US7499830B2 (en) * | 2005-11-15 | 2009-03-03 | General Electric Company | Computer-implemented techniques and system for characterizing geometric parameters of an edge break in a machined part |
WO2007070610A2 (en) * | 2005-12-12 | 2007-06-21 | Wilson Daniel W | Color camera computed tomography imaging spectrometer for improved spatial-spectral image accuracy |
WO2007087405A2 (en) * | 2006-01-24 | 2007-08-02 | The Trustees Of Columbia University In The City Of New York | Capturing scene images and depth geometry and generating a compensation image |
WO2007087372A2 (en) * | 2006-01-24 | 2007-08-02 | California Institute Of Technology | Spatial image modulation to improve performance of computed tomography imaging spectrometer |
US20070189750A1 (en) * | 2006-02-16 | 2007-08-16 | Sony Corporation | Method of and apparatus for simultaneously capturing and generating multiple blurred images |
US7616254B2 (en) * | 2006-03-16 | 2009-11-10 | Sony Corporation | Simple method for calculating camera defocus from an image scene |
WO2007142643A1 (en) * | 2006-06-08 | 2007-12-13 | Thomson Licensing | Two pass approach to three dimensional reconstruction |
US7711201B2 (en) * | 2006-06-22 | 2010-05-04 | Sony Corporation | Method of and apparatus for generating a depth map utilized in autofocusing |
DE102006030356B4 (de) * | 2006-06-30 | 2012-03-29 | Bremer Institut für angewandte Strahltechnik GmbH | Verfahren zur optischen Vermessung von Objekten |
TWI314832B (en) * | 2006-10-03 | 2009-09-11 | Univ Nat Taiwan | Single lens auto focus system for stereo image generation and method thereof |
US8472699B2 (en) * | 2006-11-22 | 2013-06-25 | Board Of Trustees Of The Leland Stanford Junior University | Arrangement and method for three-dimensional depth image construction |
AU2008209445A1 (en) | 2007-01-22 | 2008-07-31 | California Institute Of Technology | Method and apparatus for quantitative 3-D imaging |
US8089635B2 (en) * | 2007-01-22 | 2012-01-03 | California Institute Of Technology | Method and system for fast three-dimensional imaging using defocusing and feature recognition |
US8077964B2 (en) * | 2007-03-19 | 2011-12-13 | Sony Corporation | Two dimensional/three dimensional digital information acquisition and display device |
US8005238B2 (en) | 2007-03-22 | 2011-08-23 | Microsoft Corporation | Robust adaptive beamforming with enhanced noise suppression |
WO2008133957A1 (en) * | 2007-04-23 | 2008-11-06 | California Institute Of Technology | Single-lens, single-sensor 3-d imaging device with a central aperture for obtaining camera position |
US7925075B2 (en) * | 2007-05-07 | 2011-04-12 | General Electric Company | Inspection system and methods with autocompensation for edge break gauging orientation |
US8081162B2 (en) * | 2007-05-16 | 2011-12-20 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical navigation device with surface and free space navigation |
US8005237B2 (en) | 2007-05-17 | 2011-08-23 | Microsoft Corp. | Sensor array beamformer post-processor |
AU2008278275A1 (en) * | 2007-07-18 | 2009-01-22 | Iatia Imaging Pty Ltd | Method and apparatus for determining the surface profile of an object |
WO2009016256A1 (en) * | 2007-08-01 | 2009-02-05 | Dublin City University | Ultra-compact aperture controlled depth from defocus range sensor |
US8629976B2 (en) * | 2007-10-02 | 2014-01-14 | Microsoft Corporation | Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems |
US8004502B2 (en) * | 2007-10-05 | 2011-08-23 | Microsoft Corporation | Correcting for ambient light in an optical touch-sensitive device |
US7973768B2 (en) * | 2007-11-16 | 2011-07-05 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical navigation device with consolidated processing for surface and free space navigation |
WO2009067223A2 (en) * | 2007-11-19 | 2009-05-28 | California Institute Of Technology | Method and system for fast three-dimensional imaging using defocusing and feature recognition |
US20090166684A1 (en) * | 2007-12-26 | 2009-07-02 | 3Dv Systems Ltd. | Photogate cmos pixel for 3d cameras having reduced intra-pixel cross talk |
US8514268B2 (en) | 2008-01-22 | 2013-08-20 | California Institute Of Technology | Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing |
US8280194B2 (en) * | 2008-04-29 | 2012-10-02 | Sony Corporation | Reduced hardware implementation for a two-picture depth map algorithm |
US8385557B2 (en) * | 2008-06-19 | 2013-02-26 | Microsoft Corporation | Multichannel acoustic echo reduction |
US8325909B2 (en) | 2008-06-25 | 2012-12-04 | Microsoft Corporation | Acoustic echo suppression |
US8203699B2 (en) | 2008-06-30 | 2012-06-19 | Microsoft Corporation | System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed |
US20100098323A1 (en) * | 2008-07-18 | 2010-04-22 | Agrawal Amit K | Method and Apparatus for Determining 3D Shapes of Objects |
US8194995B2 (en) * | 2008-09-30 | 2012-06-05 | Sony Corporation | Fast camera auto-focus |
US8553093B2 (en) * | 2008-09-30 | 2013-10-08 | Sony Corporation | Method and apparatus for super-resolution imaging using digital imaging devices |
KR20100051359A (ko) * | 2008-11-07 | 2010-05-17 | 삼성전자주식회사 | 영상 데이터 생성 방법 및 장치 |
US8681321B2 (en) | 2009-01-04 | 2014-03-25 | Microsoft International Holdings B.V. | Gated 3D camera |
US7996793B2 (en) | 2009-01-30 | 2011-08-09 | Microsoft Corporation | Gesture recognizer system architecture |
US8577085B2 (en) * | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8487938B2 (en) * | 2009-01-30 | 2013-07-16 | Microsoft Corporation | Standard Gestures |
US8294767B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US20100199231A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Predictive determination |
US8565476B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8588465B2 (en) * | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
US8448094B2 (en) * | 2009-01-30 | 2013-05-21 | Microsoft Corporation | Mapping a natural input device to a legacy system |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US8267781B2 (en) | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
US8565477B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8682028B2 (en) * | 2009-01-30 | 2014-03-25 | Microsoft Corporation | Visual target tracking |
US8577084B2 (en) * | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8659764B2 (en) * | 2009-02-27 | 2014-02-25 | Body Surface Translations, Inc. | Estimating physical parameters using three dimensional representations |
US8773355B2 (en) | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9256282B2 (en) * | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US9313376B1 (en) | 2009-04-01 | 2016-04-12 | Microsoft Technology Licensing, Llc | Dynamic depth power equalization |
US8340432B2 (en) | 2009-05-01 | 2012-12-25 | Microsoft Corporation | Systems and methods for detecting a tilt angle from a depth image |
US9377857B2 (en) * | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US9498718B2 (en) | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US8660303B2 (en) * | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
US8181123B2 (en) | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
US8638985B2 (en) | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US8649554B2 (en) | 2009-05-01 | 2014-02-11 | Microsoft Corporation | Method to control perspective for a camera-controlled computer |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US9015638B2 (en) | 2009-05-01 | 2015-04-21 | Microsoft Technology Licensing, Llc | Binding users to a gesture based system and providing feedback to the users |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8253746B2 (en) | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
CN101571953B (zh) * | 2009-05-20 | 2012-04-25 | 深圳泰山在线科技有限公司 | 一种目标检测方法、系统及立体视觉系统 |
JP5395507B2 (ja) | 2009-05-21 | 2014-01-22 | キヤノン株式会社 | 三次元形状測定装置、三次元形状測定方法及びコンピュータプログラム |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8693724B2 (en) | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US9383823B2 (en) | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US8542252B2 (en) * | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US20100302365A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Depth Image Noise Reduction |
US9182814B2 (en) | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8509479B2 (en) * | 2009-05-29 | 2013-08-13 | Microsoft Corporation | Virtual object |
US8379101B2 (en) | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US8625837B2 (en) | 2009-05-29 | 2014-01-07 | Microsoft Corporation | Protocol and format for communicating an image from a camera to a computing environment |
US8487871B2 (en) * | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
CN104783757B (zh) | 2009-06-17 | 2018-01-05 | 3形状股份有限公司 | 聚焦扫描设备 |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US9159151B2 (en) | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
US8773507B2 (en) | 2009-08-11 | 2014-07-08 | California Institute Of Technology | Defocusing feature matching system to measure camera pose with interchangeable lens cameras |
US8264536B2 (en) * | 2009-08-25 | 2012-09-11 | Microsoft Corporation | Depth-sensitive imaging via polarization-state mapping |
US8773514B2 (en) | 2009-08-27 | 2014-07-08 | California Institute Of Technology | Accurate 3D object reconstruction using a handheld device with a projected light pattern |
US9141193B2 (en) | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
US8330134B2 (en) * | 2009-09-14 | 2012-12-11 | Microsoft Corporation | Optical fault monitoring |
US8508919B2 (en) | 2009-09-14 | 2013-08-13 | Microsoft Corporation | Separation of electrical and optical components |
US8976986B2 (en) * | 2009-09-21 | 2015-03-10 | Microsoft Technology Licensing, Llc | Volume adjustment based on listener position |
US8428340B2 (en) * | 2009-09-21 | 2013-04-23 | Microsoft Corporation | Screen space plane identification |
US8760571B2 (en) * | 2009-09-21 | 2014-06-24 | Microsoft Corporation | Alignment of lens and image sensor |
US9014546B2 (en) | 2009-09-23 | 2015-04-21 | Rovi Guides, Inc. | Systems and methods for automatically detecting users within detection regions of media devices |
US8451524B2 (en) * | 2009-09-29 | 2013-05-28 | Amnis Corporation | Modifying the output of a laser to achieve a flat top in the laser's Gaussian beam intensity profile |
US8452087B2 (en) * | 2009-09-30 | 2013-05-28 | Microsoft Corporation | Image selection techniques |
US8723118B2 (en) * | 2009-10-01 | 2014-05-13 | Microsoft Corporation | Imager for constructing color and depth images |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
EP2486732B1 (en) * | 2009-10-10 | 2016-04-20 | Thomson Licensing | Method and device for calculating blur in video images |
US9400548B2 (en) * | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
US20110099476A1 (en) * | 2009-10-23 | 2011-04-28 | Microsoft Corporation | Decorating a display environment |
EP2496910A4 (en) * | 2009-11-04 | 2016-11-16 | Technologies Numetrix Inc | DEVICE AND METHOD FOR OBTAINING THREE-DIMENSIONAL OBJECT SURFACE DATA |
US8988432B2 (en) * | 2009-11-05 | 2015-03-24 | Microsoft Technology Licensing, Llc | Systems and methods for processing an image for target tracking |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US8400511B2 (en) * | 2009-12-04 | 2013-03-19 | Lockheed Martin Corporation | Optical detection and ranging sensor system for sense and avoid, and related methods |
US8229172B2 (en) * | 2009-12-16 | 2012-07-24 | Sony Corporation | Algorithms for estimating precise and relative object distances in a scene |
US9244533B2 (en) | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
US20110151974A1 (en) * | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Gesture style recognition and reward |
US20110150271A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US9019201B2 (en) | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US9268404B2 (en) * | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US8676581B2 (en) | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
US8265341B2 (en) * | 2010-01-25 | 2012-09-11 | Microsoft Corporation | Voice-body identity correlation |
US8864581B2 (en) | 2010-01-29 | 2014-10-21 | Microsoft Corporation | Visual based identitiy tracking |
US8891067B2 (en) * | 2010-02-01 | 2014-11-18 | Microsoft Corporation | Multiple synchronized optical sources for time-of-flight range finding systems |
US8687044B2 (en) | 2010-02-02 | 2014-04-01 | Microsoft Corporation | Depth camera compatibility |
US8619122B2 (en) | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
US8717469B2 (en) * | 2010-02-03 | 2014-05-06 | Microsoft Corporation | Fast gating photosurface |
US8659658B2 (en) * | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8499257B2 (en) * | 2010-02-09 | 2013-07-30 | Microsoft Corporation | Handles interactions for human—computer interface |
US8633890B2 (en) * | 2010-02-16 | 2014-01-21 | Microsoft Corporation | Gesture detection based on joint skipping |
US20110199302A1 (en) * | 2010-02-16 | 2011-08-18 | Microsoft Corporation | Capturing screen objects using a collision volume |
US8928579B2 (en) * | 2010-02-22 | 2015-01-06 | Andrew David Wilson | Interacting with an omni-directionally projected display |
US8422769B2 (en) * | 2010-03-05 | 2013-04-16 | Microsoft Corporation | Image segmentation using reduced foreground training data |
US8655069B2 (en) | 2010-03-05 | 2014-02-18 | Microsoft Corporation | Updating image segmentation following user input |
US8411948B2 (en) | 2010-03-05 | 2013-04-02 | Microsoft Corporation | Up-sampling binary images for segmentation |
US20110221755A1 (en) * | 2010-03-12 | 2011-09-15 | Kevin Geisner | Bionic motion |
US20110223995A1 (en) | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
US8279418B2 (en) | 2010-03-17 | 2012-10-02 | Microsoft Corporation | Raster scanning for depth detection |
US8213680B2 (en) * | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US20110234481A1 (en) * | 2010-03-26 | 2011-09-29 | Sagi Katz | Enhancing presentations using depth sensing cameras |
US8514269B2 (en) * | 2010-03-26 | 2013-08-20 | Microsoft Corporation | De-aliasing depth images |
US8523667B2 (en) * | 2010-03-29 | 2013-09-03 | Microsoft Corporation | Parental control settings based on body dimensions |
US8605763B2 (en) | 2010-03-31 | 2013-12-10 | Microsoft Corporation | Temperature measurement and control for laser and light-emitting diodes |
US9098873B2 (en) | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
US8351651B2 (en) | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
US8379919B2 (en) | 2010-04-29 | 2013-02-19 | Microsoft Corporation | Multiple centroid condensation of probability distribution clouds |
US8284847B2 (en) | 2010-05-03 | 2012-10-09 | Microsoft Corporation | Detecting motion for a multifunction sensor device |
US8817115B1 (en) | 2010-05-05 | 2014-08-26 | Amnis Corporation | Spatial alignment of image data from a multichannel detector using a reference image |
US8498481B2 (en) | 2010-05-07 | 2013-07-30 | Microsoft Corporation | Image segmentation using star-convexity constraints |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US8665361B1 (en) | 2010-05-21 | 2014-03-04 | Southern Methodist University | Enhancing imaging performance through the use of active illumination |
US8803888B2 (en) | 2010-06-02 | 2014-08-12 | Microsoft Corporation | Recognition system for sharing information |
US9008355B2 (en) | 2010-06-04 | 2015-04-14 | Microsoft Technology Licensing, Llc | Automatic depth camera aiming |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US9557574B2 (en) | 2010-06-08 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth illumination and detection optics |
US8330822B2 (en) | 2010-06-09 | 2012-12-11 | Microsoft Corporation | Thermally-tuned depth camera light source |
US8749557B2 (en) | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US9384329B2 (en) | 2010-06-11 | 2016-07-05 | Microsoft Technology Licensing, Llc | Caloric burn determination from body movement |
US8675981B2 (en) | 2010-06-11 | 2014-03-18 | Microsoft Corporation | Multi-modal gender recognition including depth data |
US8982151B2 (en) | 2010-06-14 | 2015-03-17 | Microsoft Technology Licensing, Llc | Independently processing planes of display data |
US8558873B2 (en) | 2010-06-16 | 2013-10-15 | Microsoft Corporation | Use of wavefront coding to create a depth image |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8296151B2 (en) | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
US9075434B2 (en) | 2010-08-20 | 2015-07-07 | Microsoft Technology Licensing, Llc | Translating user motion into multiple object responses |
CN101923729B (zh) * | 2010-08-25 | 2012-01-25 | 中国人民解放军信息工程大学 | 基于单张灰度图像的月表三维形状重构方法 |
US8613666B2 (en) | 2010-08-31 | 2013-12-24 | Microsoft Corporation | User selection and navigation based on looped motions |
DK3091508T3 (en) | 2010-09-03 | 2019-04-08 | California Inst Of Techn | Three-dimensional imaging system |
US20120058824A1 (en) | 2010-09-07 | 2012-03-08 | Microsoft Corporation | Scalable real-time motion recognition |
US8437506B2 (en) | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US8988508B2 (en) | 2010-09-24 | 2015-03-24 | Microsoft Technology Licensing, Llc. | Wide angle field of view active illumination imaging system |
DE102010041382A1 (de) * | 2010-09-24 | 2012-03-29 | Carl Zeiss Microimaging Gmbh | Vorrichtung und Verfahren zur dreidimensionalen Vermessung eines Objektes |
US8681255B2 (en) | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
US8548270B2 (en) | 2010-10-04 | 2013-10-01 | Microsoft Corporation | Time-of-flight depth imaging |
US9484065B2 (en) | 2010-10-15 | 2016-11-01 | Microsoft Technology Licensing, Llc | Intelligent determination of replays based on event identification |
US8592739B2 (en) | 2010-11-02 | 2013-11-26 | Microsoft Corporation | Detection of configuration changes of an optical element in an illumination system |
US8866889B2 (en) | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
US8667519B2 (en) | 2010-11-12 | 2014-03-04 | Microsoft Corporation | Automatic passive and anonymous feedback system |
US10726861B2 (en) | 2010-11-15 | 2020-07-28 | Microsoft Technology Licensing, Llc | Semi-private communication in open environments |
US9349040B2 (en) | 2010-11-19 | 2016-05-24 | Microsoft Technology Licensing, Llc | Bi-modal depth-image analysis |
US10234545B2 (en) | 2010-12-01 | 2019-03-19 | Microsoft Technology Licensing, Llc | Light source module |
US8553934B2 (en) | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
US8618405B2 (en) | 2010-12-09 | 2013-12-31 | Microsoft Corp. | Free-space gesture musical instrument digital interface (MIDI) controller |
US8408706B2 (en) | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
US8920241B2 (en) | 2010-12-15 | 2014-12-30 | Microsoft Corporation | Gesture controlled persistent handles for interface guides |
US8884968B2 (en) | 2010-12-15 | 2014-11-11 | Microsoft Corporation | Modeling an object from image data |
US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
US8448056B2 (en) | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US8803952B2 (en) | 2010-12-20 | 2014-08-12 | Microsoft Corporation | Plural detector time-of-flight depth mapping |
US9848106B2 (en) | 2010-12-21 | 2017-12-19 | Microsoft Technology Licensing, Llc | Intelligent gameplay photo capture |
US8385596B2 (en) | 2010-12-21 | 2013-02-26 | Microsoft Corporation | First person shooter control with virtual skeleton |
US9823339B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Plural anode time-of-flight sensor |
US9821224B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Driving simulator control with virtual skeleton |
US8994718B2 (en) | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
US9123316B2 (en) | 2010-12-27 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive content creation |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
DE102011008655A1 (de) * | 2011-01-14 | 2012-07-19 | Inb Vision Ag | Vorrichtung und Verfahren zur dreidimensionalen optischen Vermessung von Oberflächen |
US8587583B2 (en) | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US9247238B2 (en) | 2011-01-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Reducing interference between multiple infra-red depth cameras |
US8724887B2 (en) | 2011-02-03 | 2014-05-13 | Microsoft Corporation | Environmental modifications to mitigate environmental factors |
US8823822B1 (en) | 2011-02-11 | 2014-09-02 | Southern Methodist University | Determining phase transfer function |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8497838B2 (en) | 2011-02-16 | 2013-07-30 | Microsoft Corporation | Push actuation of interface controls |
US9208570B2 (en) | 2012-03-28 | 2015-12-08 | Sony Corporation | System and method for performing depth estimation by utilizing an adaptive kernel |
US9551914B2 (en) | 2011-03-07 | 2017-01-24 | Microsoft Technology Licensing, Llc | Illuminator with refractive optical element |
US9067136B2 (en) | 2011-03-10 | 2015-06-30 | Microsoft Technology Licensing, Llc | Push personalization of interface controls |
US8571263B2 (en) | 2011-03-17 | 2013-10-29 | Microsoft Corporation | Predicting joint positions |
US8593565B2 (en) | 2011-03-25 | 2013-11-26 | Gary S. Shuster | Simulated large aperture lens |
US9470778B2 (en) | 2011-03-29 | 2016-10-18 | Microsoft Technology Licensing, Llc | Learning from high quality depth measurements |
US20120249740A1 (en) * | 2011-03-30 | 2012-10-04 | Tae-Yon Lee | Three-dimensional image sensors, cameras, and imaging systems |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
US8503494B2 (en) | 2011-04-05 | 2013-08-06 | Microsoft Corporation | Thermal management system |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US8702507B2 (en) | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
US9259643B2 (en) | 2011-04-28 | 2016-02-16 | Microsoft Technology Licensing, Llc | Control of separate computer game elements |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US8888331B2 (en) | 2011-05-09 | 2014-11-18 | Microsoft Corporation | Low inductance light source module |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
US9137463B2 (en) | 2011-05-12 | 2015-09-15 | Microsoft Technology Licensing, Llc | Adaptive high dynamic range camera |
US8788973B2 (en) | 2011-05-23 | 2014-07-22 | Microsoft Corporation | Three-dimensional gesture controlled avatar configuration interface |
US20120300040A1 (en) * | 2011-05-25 | 2012-11-29 | Microsoft Corporation | Imaging system |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US8526734B2 (en) | 2011-06-01 | 2013-09-03 | Microsoft Corporation | Three-dimensional background removal for vision system |
US9594430B2 (en) | 2011-06-01 | 2017-03-14 | Microsoft Technology Licensing, Llc | Three-dimensional foreground selection for vision system |
US9724600B2 (en) | 2011-06-06 | 2017-08-08 | Microsoft Technology Licensing, Llc | Controlling objects in a virtual environment |
US9098110B2 (en) | 2011-06-06 | 2015-08-04 | Microsoft Technology Licensing, Llc | Head rotation tracking from depth-based center of mass |
US10796494B2 (en) | 2011-06-06 | 2020-10-06 | Microsoft Technology Licensing, Llc | Adding attributes to virtual representations of real-world objects |
US9208571B2 (en) | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
US9013489B2 (en) | 2011-06-06 | 2015-04-21 | Microsoft Technology Licensing, Llc | Generation of avatar reflecting player appearance |
US8597142B2 (en) | 2011-06-06 | 2013-12-03 | Microsoft Corporation | Dynamic camera based practice mode |
US8929612B2 (en) | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
US8897491B2 (en) | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
US9131223B1 (en) | 2011-07-07 | 2015-09-08 | Southern Methodist University | Enhancing imaging performance through the use of active illumination |
US9752869B2 (en) * | 2011-08-15 | 2017-09-05 | The Trustees Of Columbia University In The City Of New York | Systems and methods for performing machine vision using diffuse structured light |
US8786730B2 (en) | 2011-08-18 | 2014-07-22 | Microsoft Corporation | Image exposure using exclusion regions |
CN103827920B (zh) * | 2011-09-28 | 2018-08-14 | 皇家飞利浦有限公司 | 根据图像的对象距离确定 |
US9100574B2 (en) | 2011-10-18 | 2015-08-04 | Hewlett-Packard Development Company, L.P. | Depth mask assisted video stabilization |
US9557836B2 (en) | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
US9117281B2 (en) | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US8854426B2 (en) | 2011-11-07 | 2014-10-07 | Microsoft Corporation | Time-of-flight camera with guided light |
US8724906B2 (en) | 2011-11-18 | 2014-05-13 | Microsoft Corporation | Computing pose and/or shape of modifiable entities |
CN103890543B (zh) * | 2011-11-23 | 2018-04-10 | 纽约市哥伦比亚大学理事会 | 进行形状测量的系统、方法和媒体 |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
US8929607B2 (en) * | 2011-12-01 | 2015-01-06 | Sony Corporation | System and method for performing depth estimation utilizing defocused pillbox images |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US8803800B2 (en) | 2011-12-02 | 2014-08-12 | Microsoft Corporation | User interface control based on head orientation |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US8971612B2 (en) | 2011-12-15 | 2015-03-03 | Microsoft Corporation | Learning image processing tasks from scene reconstructions |
US8879831B2 (en) | 2011-12-15 | 2014-11-04 | Microsoft Corporation | Using high-level attributes to guide image processing |
US8630457B2 (en) | 2011-12-15 | 2014-01-14 | Microsoft Corporation | Problem states for pose tracking pipeline |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
US9342139B2 (en) | 2011-12-19 | 2016-05-17 | Microsoft Technology Licensing, Llc | Pairing a computing device to a user |
WO2013103410A1 (en) | 2012-01-05 | 2013-07-11 | California Institute Of Technology | Imaging surround systems for touch-free display control |
US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
US9230306B2 (en) * | 2012-02-07 | 2016-01-05 | Semiconductor Components Industries, Llc | System for reducing depth of field with digital image processing |
JP2013172190A (ja) * | 2012-02-17 | 2013-09-02 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
US9030594B1 (en) | 2012-04-19 | 2015-05-12 | Southern Methodist University | Applying phase transfer function |
US9210401B2 (en) | 2012-05-03 | 2015-12-08 | Microsoft Technology Licensing, Llc | Projected visual cues for guiding physical movement |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
JP6214183B2 (ja) * | 2012-05-11 | 2017-10-18 | キヤノン株式会社 | 距離計測装置、撮像装置、距離計測方法、およびプログラム |
EP2864961A4 (en) | 2012-06-21 | 2016-03-23 | Microsoft Technology Licensing Llc | AVATAR CONSTRUCTION USING A DEPTH CAMERA |
US9836590B2 (en) | 2012-06-22 | 2017-12-05 | Microsoft Technology Licensing, Llc | Enhanced accuracy of user presence status determination |
US8896594B2 (en) | 2012-06-30 | 2014-11-25 | Microsoft Corporation | Depth sensing with depth-adaptive illumination |
WO2014011182A1 (en) * | 2012-07-12 | 2014-01-16 | Calfornia Institute Of Technology | Convergence/divergence based depth determination techniques and uses with defocusing imaging |
US9696427B2 (en) | 2012-08-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Wide angle depth detection |
DE102012019463A1 (de) | 2012-09-28 | 2014-04-03 | Carl Zeiss Meditec Ag | Vorrichtung und Verfahren zur automatischen Grobpositionierung des Messkopfes eines ophthalmologischen Gerätes |
US20140160253A1 (en) * | 2012-12-10 | 2014-06-12 | Microsoft Corporation | Hyperspectral imager |
US8882310B2 (en) | 2012-12-10 | 2014-11-11 | Microsoft Corporation | Laser die light source module with low inductance |
US9091628B2 (en) | 2012-12-21 | 2015-07-28 | L-3 Communications Security And Detection Systems, Inc. | 3D mapping with two orthogonal imaging views |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9530213B2 (en) | 2013-01-02 | 2016-12-27 | California Institute Of Technology | Single-sensor system for extracting depth information from image blur |
US9251590B2 (en) | 2013-01-24 | 2016-02-02 | Microsoft Technology Licensing, Llc | Camera pose estimation for 3D reconstruction |
US9052746B2 (en) | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9135516B2 (en) | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9092657B2 (en) | 2013-03-13 | 2015-07-28 | Microsoft Technology Licensing, Llc | Depth image processing |
US9274606B2 (en) | 2013-03-14 | 2016-03-01 | Microsoft Technology Licensing, Llc | NUI video conference controls |
US20140267616A1 (en) * | 2013-03-15 | 2014-09-18 | Scott A. Krig | Variable resolution depth representation |
US9953213B2 (en) | 2013-03-27 | 2018-04-24 | Microsoft Technology Licensing, Llc | Self discovery of autonomous NUI devices |
US9442186B2 (en) | 2013-05-13 | 2016-09-13 | Microsoft Technology Licensing, Llc | Interference reduction for TOF systems |
CN103245335B (zh) * | 2013-05-21 | 2015-11-04 | 北京理工大学 | 一种自主在轨服务航天器超近距离视觉位姿测量方法 |
KR101451792B1 (ko) | 2013-05-30 | 2014-10-16 | 한국과학기술연구원 | 영상 렌더링 장치 및 그 방법 |
AU2014280335B2 (en) | 2013-06-13 | 2018-03-22 | Basf Se | Detector for optically detecting an orientation of at least one object |
AU2014280332B2 (en) | 2013-06-13 | 2017-09-07 | Basf Se | Detector for optically detecting at least one object |
US9462253B2 (en) | 2013-09-23 | 2016-10-04 | Microsoft Technology Licensing, Llc | Optical modules that reduce speckle contrast and diffraction artifacts |
JP6429444B2 (ja) * | 2013-10-02 | 2018-11-28 | キヤノン株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
US9443310B2 (en) | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US9674563B2 (en) | 2013-11-04 | 2017-06-06 | Rovi Guides, Inc. | Systems and methods for recommending content |
US9769459B2 (en) | 2013-11-12 | 2017-09-19 | Microsoft Technology Licensing, Llc | Power efficient laser diode driver circuit and method |
US9508385B2 (en) | 2013-11-21 | 2016-11-29 | Microsoft Technology Licensing, Llc | Audio-visual project generator |
US9971491B2 (en) | 2014-01-09 | 2018-05-15 | Microsoft Technology Licensing, Llc | Gesture library for natural user input |
WO2015118120A1 (en) | 2014-02-07 | 2015-08-13 | 3Shape A/S | Detecting tooth shade |
JP6363863B2 (ja) * | 2014-04-15 | 2018-07-25 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
EP3167304A4 (en) | 2014-07-08 | 2018-02-21 | Basf Se | Detector for determining a position of at least one object |
US9746323B2 (en) | 2014-07-25 | 2017-08-29 | Lockheed Martin Corporation | Enhanced optical detection and ranging |
US9675430B2 (en) | 2014-08-15 | 2017-06-13 | Align Technology, Inc. | Confocal imaging apparatus with curved focal surface |
KR102497704B1 (ko) | 2014-12-09 | 2023-02-09 | 바스프 에스이 | 광 검출기 |
KR102496245B1 (ko) | 2015-01-30 | 2023-02-06 | 트리나미엑스 게엠베하 | 하나 이상의 물체의 광학적 검출을 위한 검출기 |
US9948920B2 (en) | 2015-02-27 | 2018-04-17 | Qualcomm Incorporated | Systems and methods for error correction in structured light |
US10068338B2 (en) | 2015-03-12 | 2018-09-04 | Qualcomm Incorporated | Active sensing spatial resolution improvement through multiple receivers and code reuse |
US9530215B2 (en) | 2015-03-20 | 2016-12-27 | Qualcomm Incorporated | Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology |
DE102015209404B4 (de) * | 2015-05-22 | 2018-05-03 | Sirona Dental Systems Gmbh | Verfahren und Kamera zur dreidimensionalen Vermessung eines dentalen Objekts |
DE102015209410B4 (de) * | 2015-05-22 | 2018-05-09 | Sirona Dental Systems Gmbh | Kamera und Verfahren zur dreidimensionalen Vermessung eines dentalen Objekts |
US10178381B2 (en) | 2015-07-14 | 2019-01-08 | Microsoft Technology Licensing, Llc | Depth-spatial frequency-response assessment |
JP6877418B2 (ja) | 2015-07-17 | 2021-05-26 | トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング | 少なくとも1個の対象物を光学的に検出するための検出器 |
US9635339B2 (en) | 2015-08-14 | 2017-04-25 | Qualcomm Incorporated | Memory-efficient coded light error correction |
US9958585B2 (en) | 2015-08-17 | 2018-05-01 | Microsoft Technology Licensing, Llc | Computer vision depth sensing at video rate using depth from defocus |
US9846943B2 (en) | 2015-08-31 | 2017-12-19 | Qualcomm Incorporated | Code domain power control for structured light |
EP3350988B1 (en) * | 2015-09-14 | 2019-08-07 | trinamiX GmbH | 3d camera |
CN105345453B (zh) * | 2015-11-30 | 2017-09-22 | 北京卫星制造厂 | 一种基于工业机器人自动化装调的位姿确定方法 |
US9958267B2 (en) * | 2015-12-21 | 2018-05-01 | Industrial Technology Research Institute | Apparatus and method for dual mode depth measurement |
US10037612B2 (en) * | 2015-12-28 | 2018-07-31 | Empire Technology Development Llc | Three dimensional data acquisition with orthogonal composite pattern for structured light illuminated vision |
US10708573B2 (en) * | 2016-01-04 | 2020-07-07 | Occipital, Inc. | Apparatus and methods for three-dimensional sensing |
WO2017132165A1 (en) | 2016-01-25 | 2017-08-03 | California Institute Of Technology | Non-invasive measurement of intraocular pressure |
US10412280B2 (en) | 2016-02-10 | 2019-09-10 | Microsoft Technology Licensing, Llc | Camera with light valve over sensor array |
US10257932B2 (en) | 2016-02-16 | 2019-04-09 | Microsoft Technology Licensing, Llc. | Laser diode chip on printed circuit board |
CA2958766C (en) * | 2016-02-25 | 2018-01-02 | Synaptive Medical (Barbados) Inc. | System and method for scope based depth map acquisition |
US10462452B2 (en) | 2016-03-16 | 2019-10-29 | Microsoft Technology Licensing, Llc | Synchronizing active illumination cameras |
US20170323429A1 (en) | 2016-05-09 | 2017-11-09 | John Peter Godbaz | Multiple patterns in time-of-flight camera apparatus |
DE102016109131B4 (de) * | 2016-05-18 | 2018-03-01 | Sick Ag | Verfahren zur dreidimensionalen Erfassung eines Objekts |
EP3491675B1 (en) | 2016-07-29 | 2022-11-16 | trinamiX GmbH | Optical sensor and detector for optical detection |
WO2018077868A1 (en) | 2016-10-25 | 2018-05-03 | Trinamix Gmbh | Detector for an optical detection of at least one object |
EP3532796A1 (en) | 2016-10-25 | 2019-09-04 | trinamiX GmbH | Nfrared optical detector with integrated filter |
US11860292B2 (en) | 2016-11-17 | 2024-01-02 | Trinamix Gmbh | Detector and methods for authenticating at least one object |
CN110178045B (zh) | 2016-11-17 | 2023-05-30 | 特里纳米克斯股份有限公司 | 用于光学检测至少一个对象的检测器 |
US10559085B2 (en) | 2016-12-12 | 2020-02-11 | Canon Kabushiki Kaisha | Devices, systems, and methods for reconstructing the three-dimensional shapes of objects |
US11262192B2 (en) | 2017-12-12 | 2022-03-01 | Samsung Electronics Co., Ltd. | High contrast structured light patterns for QIS sensors |
US10740913B2 (en) * | 2017-12-12 | 2020-08-11 | Samsung Electronics Co., Ltd. | Ultrafast, robust and efficient depth estimation for structured-light based 3D camera system |
JP7090899B2 (ja) * | 2018-09-10 | 2022-06-27 | 地方独立行政法人北海道立総合研究機構 | 符号化された照明パターンを用いる画像処理装置および画像処理プログラム |
JP2020067361A (ja) * | 2018-10-24 | 2020-04-30 | パイオニア株式会社 | 測距装置、測距方法、プログラム及び記録媒体 |
KR102552923B1 (ko) * | 2018-12-03 | 2023-07-10 | 삼성전자 주식회사 | 복수의 카메라들 또는 깊이 센서 중 적어도 하나를 이용하여 깊이 정보를 획득하는 전자 장치 |
WO2020210728A1 (en) | 2019-04-12 | 2020-10-15 | California Institute Of Technology | Systems, methods, and apparatuses for ocular measurements |
US11671580B2 (en) | 2019-05-14 | 2023-06-06 | Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College | System and method for reconstructing 3-D shapes of objects from reflection images |
US11587246B2 (en) | 2020-10-30 | 2023-02-21 | Mitutoyo Corporation | Metrology system with projected pattern for points-from-focus type processes |
DE102021128444B4 (de) | 2021-11-02 | 2023-06-15 | MarWeTec GmbH | Verfahren zur optischen Vermessung von technischen Oberflächen und Vorrichtung zur Durchführung des Verfahrens |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4640620A (en) | 1983-12-29 | 1987-02-03 | Robotic Vision Systems, Inc. | Arrangement for rapid depth measurement using lens focusing |
US4983043A (en) | 1987-04-17 | 1991-01-08 | Industrial Technology Institute | High accuracy structured light profiler |
US4875777A (en) | 1987-09-30 | 1989-10-24 | Industrial Technology Institute | Off-axis high accuracy structured light profiler |
US4965840A (en) * | 1987-11-27 | 1990-10-23 | State University Of New York | Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system |
US4965854A (en) | 1988-11-30 | 1990-10-23 | General Electric Company | Noise blanker with continuous wave interference compensation |
US4965442A (en) | 1989-11-07 | 1990-10-23 | Massachusetts Institute Of Technology | System for ascertaining direction of blur in a range-from-defocus camera |
US5003166A (en) * | 1989-11-07 | 1991-03-26 | Massachusetts Institute Of Technology | Multidimensional range mapping with pattern projection and cross correlation |
US5078496A (en) | 1990-08-14 | 1992-01-07 | Autospect, Inc. | Machine vision surface characterization system |
US5231443A (en) * | 1991-12-16 | 1993-07-27 | The Research Foundation Of State University Of New York | Automatic ranging and automatic focusing |
US5793473A (en) * | 1994-06-09 | 1998-08-11 | Nikon Corporation | Projection optical apparatus for projecting a mask pattern onto the surface of a target projection object and projection exposure apparatus using the same |
-
1995
- 1995-06-07 WO PCT/US1995/007890 patent/WO1996041304A1/en active Application Filing
- 1995-06-07 US US08/776,799 patent/US6229913B1/en not_active Expired - Lifetime
- 1995-06-07 JP JP50039197A patent/JP3481631B2/ja not_active Expired - Fee Related
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002191058A (ja) * | 2000-12-20 | 2002-07-05 | Olympus Optical Co Ltd | 3次元画像取得装置および3次元画像取得方法 |
JP2004257934A (ja) * | 2003-02-27 | 2004-09-16 | Nippon Telegr & Teleph Corp <Ntt> | 3次元形状計測方法及び3次元形状計測装置並びにその処理プログラムと記録媒体 |
JP2008527363A (ja) * | 2005-01-14 | 2008-07-24 | エシロール アンテルナショナル コムパニー ジェネラル ドプテイク | 光学プローブ並びにその製造装置及び方法 |
JP4794573B2 (ja) * | 2005-01-14 | 2011-10-19 | エシロール アンテルナショナル コムパニー ジェネラル ドプテイク | 光学プローブ並びにその製造装置及び方法 |
JP2009505104A (ja) * | 2005-08-15 | 2009-02-05 | ソニー エレクトロニクス インク | 深度マップを作成するための演算方法、機械読み取り可能な媒体、演算装置及び演算システム |
JP2008046027A (ja) * | 2006-08-17 | 2008-02-28 | National Institute Of Advanced Industrial & Technology | 高さを測定する方法及びそのための装置 |
JP4665125B2 (ja) * | 2006-08-17 | 2011-04-06 | 独立行政法人産業技術総合研究所 | 高さを測定する方法及びそのための装置 |
WO2009113528A1 (ja) * | 2008-03-11 | 2009-09-17 | 株式会社ニコン | 形状測定装置 |
JP5397704B2 (ja) * | 2008-03-11 | 2014-01-22 | 株式会社ニコン | 形状測定装置 |
US8314849B2 (en) | 2008-03-11 | 2012-11-20 | Nikon Corporation | Shape measuring device |
JP2010139419A (ja) * | 2008-12-12 | 2010-06-24 | Nikon Corp | 形状測定装置 |
JP5841844B2 (ja) * | 2010-06-17 | 2016-01-13 | ドルビー・インターナショナル・アーベー | 画像処理装置及び画像処理方法 |
JP2013502558A (ja) * | 2010-10-05 | 2013-01-24 | エンパイア テクノロジー ディベロップメント エルエルシー | 空間光パターンに基づく深さデータの生成 |
WO2012046270A1 (en) * | 2010-10-05 | 2012-04-12 | Empire Technology Development Llc | Generation of depth data based on spatial light pattern |
US9746319B2 (en) | 2010-10-05 | 2017-08-29 | Empire Technology Development Llc | Generation of depth data based on spatial light pattern |
US9030466B2 (en) | 2010-10-05 | 2015-05-12 | Empire Technology Development Llc | Generation of depth data based on spatial light pattern |
KR101494066B1 (ko) * | 2010-10-05 | 2015-02-16 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 공간 광 패턴에 기초한 깊이 데이터의 생성 |
US8698943B2 (en) | 2010-11-17 | 2014-04-15 | Panasonic Corporation | Imaging apparatus and distance measurement method |
WO2012066774A1 (ja) * | 2010-11-17 | 2012-05-24 | パナソニック株式会社 | 撮像装置及び距離計測方法 |
JP2013089230A (ja) * | 2011-10-13 | 2013-05-13 | General Electric Co <Ge> | デプスフロムデフォーカス撮像用のシステムおよび方法 |
KR20150082262A (ko) * | 2012-11-14 | 2015-07-15 | 퀄컴 인코포레이티드 | 구조화된 광 능동 심도 센싱 시스템들에서의 광원 전력의 동적 조절 |
US11509880B2 (en) | 2012-11-14 | 2022-11-22 | Qualcomm Incorporated | Dynamic adjustment of light source power in structured light active depth sensing systems |
JP2016530503A (ja) * | 2013-07-09 | 2016-09-29 | ゼノマティクス・ナムローゼ・フエンノートシャップXenomatix Nv | 周辺検知システム |
JP2018515759A (ja) * | 2015-05-22 | 2018-06-14 | シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | オブジェクトの光学的3d測定のためのデバイス |
JP2022518391A (ja) * | 2019-01-09 | 2022-03-15 | トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング | 少なくとも1つの物体の位置を決定するための検出器 |
JPWO2022059064A1 (ja) * | 2020-09-15 | 2022-03-24 | ||
WO2022059064A1 (ja) * | 2020-09-15 | 2022-03-24 | 日本電気株式会社 | フォーカス判定装置、虹彩認証装置、フォーカス判定方法、及び、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP3481631B2 (ja) | 2003-12-22 |
US6229913B1 (en) | 2001-05-08 |
WO1996041304A1 (en) | 1996-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH10508107A (ja) | 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 | |
CN101288105B (zh) | 用于物体重现的方法和系统 | |
US5878152A (en) | Depth from focal gradient analysis using object texture removal by albedo normalization | |
US5194918A (en) | Method of providing images of surfaces with a correlation microscope by transforming interference signals | |
US5381236A (en) | Optical sensor for imaging an object | |
US5305092A (en) | Apparatus for obtaining three-dimensional volume data of an object | |
US8019136B2 (en) | Optical sectioning microscopy | |
JP3191928B2 (ja) | 画像入出力装置 | |
KR101592380B1 (ko) | 푸리에 변환 광학 패턴의 공간 필터링을 위한, 유연하게 결합되고, 중첩되며, 피드백되지 않는 광학 시스템 | |
AU2014208262B2 (en) | Apparatus and method for image super-resolution using integral shifting optics | |
JP2010517038A (ja) | 定量的な三次元撮像のための方法および装置 | |
CN108594418A (zh) | 一种基于阵列单像素探测器的光场显微成像系统及其方法 | |
CN106707492B (zh) | 基于空间光调制器的采集端频域拼贴显微系统 | |
EP2979059A1 (en) | Portable structured light measurement module/apparatus with pattern shifting device incorporating a fixed-pattern optic for illuminating a subject-under-test | |
JP4090860B2 (ja) | 3次元形状測定装置 | |
CA2196563A1 (en) | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus | |
TW200902936A (en) | Method for calibration of image and apparatus for acquiring image | |
Wang et al. | Rapid 3D measurement of high dynamic range surface based on multi-polarization fringe projection | |
WO2009017694A2 (en) | Optical spatial heterodyne fourier transform interferometer | |
CN108254917A (zh) | 一种基于分数阶光子轨道角动量的边缘增强成像装置及方法 | |
FR2645976A1 (fr) | Appareil electronique d'holographie | |
Hagen et al. | Using polarization cameras for snapshot imaging of phase, depth, and spectrum | |
CN116708744A (zh) | 一种角度分辨率和成像时间可调的光场成像装置及方法 | |
JPH07113623A (ja) | 3次元形状データの位置合わせのための方法と装置 | |
JP2717407B2 (ja) | カメラ歪測定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |