JP4212138B2 - 3D measuring device - Google Patents
3D measuring device Download PDFInfo
- Publication number
- JP4212138B2 JP4212138B2 JP07943198A JP7943198A JP4212138B2 JP 4212138 B2 JP4212138 B2 JP 4212138B2 JP 07943198 A JP07943198 A JP 07943198A JP 7943198 A JP7943198 A JP 7943198A JP 4212138 B2 JP4212138 B2 JP 4212138B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- image
- data
- color
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は3次元計測装置に関し、特に測定対象物に対して参照光を投光して、その反射光を受光することで3次元データを取込むいわゆるアクティブタイプの3次元計測装置に関する。
【0002】
【従来の技術】
従来、測定対象物に対して参照光を投光して、その反射光を受光することで3次元データを取込むいわゆるアクティブタイプの3次元計測装置が知られている。このようなアクティブタイプの3次元計測装置においては、距離画像(距離を測定するための画像であって、測定対象物の3次元形状を算出するための画像)とカラー画像(測定対象物を表示するための画像)の両方の画像が入力できる装置が知られている(たとえば特開平9−145319)。
【0003】
図19はそのようなアクティブタイプの3次元計測装置の構成を示すブロック図である。
【0004】
図を参照して、ビームスプリッタ(分光プリズム)52は、色分解膜(ダイクロックミラー)521、色分解膜521を挟む2つのプリズム522,523、プリズム522の射出面に設けられた距離画像用CCDセンサ53、プリズム523の射出面に設けられたカラー画像用CCDセンサ54とから構成されている。
【0005】
参照光である半導体レーザにより測定対象物は走査され、測定対象物からの反射光は受光レンズ51aに入射される。
【0006】
受光レンズ51aから入射した光は、プリズム522を通って色分解膜521に入射する。半導体レーザの発振帯域の光U0は色分解膜521で反射した後、距離画像用CCDセンサ53に向かって射出する。
【0007】
一方、色分解膜521を透過した光C0は、プリズム523を通ってカラー画像用CCDセンサ54に向かって射出する。
【0008】
距離画像用CCDセンサ53は、距離画像用CCDドライバ204により駆動される。カラー画像用CCDセンサ54は、カラー画像用CCDドライバ203により駆動される。
【0009】
距離画像用CCDセンサ53の出力は、A/Dコンバータ(出力処理回路)202で処理された後、距離画像フレームメモリ206に記憶される。カラー画像用CCDセンサ54の出力は、A/Dコンバータ(出力処理回路)201で処理された後、カラー画像フレームメモリ205に記憶される。
【0010】
【発明が解決しようとする課題】
上述のように、従来のアクティブタイプの3次元計測装置においては、2つのCCDセンサ53,54が用いられていたため、以下のような問題点があった。
【0011】
(1) 距離画像とカラー画像とのずれが生じないようにするために、2つのCCDセンサの取付位置の微妙な調整が必要である。
【0012】
(2) 参照光として主に近赤外光が使われるため、距離画像用の近赤外光とカラー画像用の可視光との分光ができるプリズムの作製が必要である。
【0013】
(3) カラー画像の画質が上記プリズムの分光特性に依存する。
この発明は上記の問題点を解決するためになされたものであり、2つのセンサが3次元計測装置に用いられることにより生ずる問題点を解決することをその目的としている。
【0014】
【課題を解決するための手段】
上記目的を達成するため、本発明のある局面に従うと3次元計測装置は、測定対象物に向けて参照光を投光する投光手段と、測定対象物からの反射光を受光する受光手段と、受光された反射光から、測定対象物の3次元形状を算出する算出手段とを備え、測定対象物の3次元形状を算出するための第1の画像と測定対象物を表示するための第2の画像とを同一のモノクロセンサで取込むことが可能であり、前記第1の画像は前記参照光の波長に応じたバンドパスフィルタを介して取込み、前記第2の画像はカラー画像を形成する色分離フィルタを介して取込むことにより、前記第1の画像から前記算出手段による3次元形状の算出を可能とするとともに、前記第2の画像に基づき表示画像の取得を可能とすることを特徴としている。
好ましくは3次元計測装置は、センサの前段にフィルタを有する。
【0015】
この発明に従うと、同一のセンサにより測定対象物の3次元形状を算出するための画像と、測定対象物を表示するための画像とが取込まれるため、従来のように2つのセンサの取付位置の調整を行なうことが不要となる。また、近赤外光と可視光の分光を行なうことができるプリズムの作製が不要となり、カラー画像の画質を向上させることができる。
【0016】
【発明の実施の形態】
図1は、本発明の第1の実施の形態における計測システム1の構成を示す図である。図を参照して計測システム1は、スリット光投光法によって立体計測を行なう3次元カメラ(レンジファインダ)2と、3次元カメラ2の出力データを処理するホスト3とから構成されている。
【0017】
3次元カメラ2は、物体Q上の複数のサンプリング点の3次元位置を特定する計測データ(スリット画像データ)とともに、物体Qのカラー情報を示す2次元画像およびキャリブレーションに必要なデータを出力する。三角測量法を用いてサンプリング点の座標を求める演算処理はホスト3が担う。
【0018】
ホスト3は、CPU3a、ディスプレイ3b、キーボード3c、およびマウス3dなどから構成されたコンピュータシステムである。CPU3aには計測データ処理のためのソフトウェアが組込まれている。ホスト3と3次元カメラ2との間では、オンラインおよび可搬型の記録メディア4によるオフラインの両方の形態のデータ受渡しが可能である。記録メディア4としては、光磁気ディスク(MO)、ミニディスク(MD)、メモリカードなどがある。
【0019】
図2は、3次元カメラ2の外観を示す図である。ハウジング20の前面に投光窓20aおよび受光窓20bが設けられている。投光窓20aは受光窓20bに対して上側に位置する。内部の光学ユニットOUが射出するスリット光(所定幅wの帯状のレーザビーム)Uは、投光窓20aを通って計測対象の物体(被写体または測定対象物)に向かう。スリット光Uの長さ方向M1の放射角度φは固定である。物体の表面で反射したスリット光Uの一部が受光窓20bを通って光学ユニットOUに入射する。なお、光学ユニットOUは、投光軸と受光軸との相対関係を適正化するための2軸調整機構を備えている。
【0020】
ハウジング20の上面には、ズーミングボタン25a,25b、手動フォーカシングボタン26a,26b、およびシャッタボタン27が設けられている。図2(b)のようにハウジング20の背面には、液晶ディスプレイ21、カーソルボタン22、セレクトボタン23、キャンセルボタン24、アナログ出力端子32、デジタル出力端子33、および記録メディア4の着脱口30aが設けられている。
【0021】
液晶ディスプレイ21(LCD)は、走査画面の表示手段および電子ファインダとして用いられる。撮影者は背面の各ボタン22〜24によって撮影モードの設定を行なうことができる。デジタル出力端子33からは計測データが出力され、アナログ出力端子32からは2次元画像信号がたとえばNTSC形式で出力される。デジタル出力端子33はたとえばSCSI端子である。
【0022】
図3は3次元カメラ2の機能構成を示すブロック図である。図中の実線矢印は電気信号の流れを示し、破線矢印は光の流れを示している。
【0023】
3次元カメラは、上述の光学ユニットOUを構成する投光側および受光側の2つの光学系40,50を有している。光学系40において、半導体レーザ(LD)41が射出する波長670nmのレーザビームは、投光レンズ系42を通過することによってスリット光Uとなり、ガルバノミラー(走査手段)43によって偏向される。半導体レーザ41のドライバ44、投光レンズ系42の駆動系45、およびガルバノミラー43の駆動系46は、システムコントローラ61によって制御される。
【0024】
光学系50において、ズームユニット51によって集光された光はフィルタ80Aに入射される。フィルタ80Aの詳細については後述する。フィルタ80Aを介した入射光はカラー計測用センサ(CCD)53aに入射される。ズームユニット51は内焦型であり、入射光の一部がオートフォーカシング(AF)に利用される。AF機能は、AFセンサ57とレンズコントローラ58とフォーカシング駆動系59によって実現される。ズーミング駆動系60は電動ズーミングのために設けられている。
【0025】
カラー計測用センサ53aによる撮像情報は、ドライバ55からのクロックに同期してメモリ63またはカラー処理回路67へ転送される。カラー処理回路67においてカラー処理を受けた撮像情報は、NTSC変換回路70およびアナログ出力端子32を経てオンライン出力され、またはデジタル画像生成部68で量子化されてカラー画像メモリ69に格納される。その後、カラー画像データがカラー画像メモリ69からSCSIコントローラ66へ転送され、デジタル出力端子33からオンライン出力され、または計測データと対応付けて記録メディア4に格納される。なお、カラー画像は、カラー計測用センサ53aによる距離画像と同一画角の像であり、ホスト3側におけるアプリケーション処理に際して参考情報として利用される。カラー情報を利用する処理としては、たとえばカメラ焦点の異なる複数組の計測データを組合せて3次元形状モデルを生成する処理、3次元形状モデルの不要の頂点を間引く処理などがある。システムコントローラ61は、図示しないキャラクタジェネレータに対して、LCD21の画面上に適切な文字や記号を表示するための指示を与える。
【0026】
出力処理回路62は、カラー計測用センサ53aの出力する各画素gの光電変換信号を増幅する増幅器、および光電変換信号を8ビットの受光データに変換するA/D変換部を有している。メモリ63は、200×32×33Byteの記憶容量を持つ読み書き可能なメモリであり、出力処理回路62から出力される受光データを記憶する。メモリ制御回路63Aは、メモリ63への書込および読出のアドレス指定を行なう。
【0027】
重心演算回路73は、メモリ63に記憶された受光データに基づいて、計測対象の物体の形状に対応した濃淡画像を生成して表示用メモリ74に出力し、また3次元位置を算出するための基となるデータを算出し出力用メモリ64に出力する。LCD21の画面には、表示用メモリ74に記憶された濃淡画像、カラー画像メモリ69に記憶されたカラー画像などが表示される。
【0028】
なおNTSC変換回路70は、ビデオD/A(アナログ画像生成回路)を含んでいる。フィルタ80Aはフィルタ切換機構81Aにより切り換えられる。
【0029】
図4は、図3のフィルタ80Aとフィルタ切換機構81Aの周辺部分の詳細を示す図である。
【0030】
図を参照して、フィルタ80AにはIR(赤外線)カットフィルタ80aとバンドパスフィルタ80bとが含まれている。フィルタ切換機構81Aは、ズームユニット51に含まれる受光レンズ51aを介して入射された光がIRカットフィルタ80aを介してカラー計測用センサ53aに入射されるか、またはバンドパスフィルタ80bを介してカラー計測用センサ53aに入射されるかを切換える。すなわち距離画像を取込む際には参照光の波長に応じたバンドパスフィルタ80bが用いられ、表示用のカラー画像取込時にはIRカットフィルタ80aが使用される。カラー計測用センサ53aはドライバ55により駆動される。距離画像は前述のとおり、出力処理回路62において処理された後、メモリ63に取込まれる。カラー画像データはカラー処理回路67へ出力される。
【0031】
このように本実施の形態における計測システムにおいては距離画像とカラー画像の両方をタイミングをずらすことで同一のカラー計測用センサ53aで取込んでいる。測定対象物が静止状態または動きが極めて遅い場合には、このタイミングのずれは計測において特に問題とはならない。
【0032】
なお使用する受光レンズ51aと参照光の波長によっては、可視光の焦点位置と参照光の焦点位置とにずれが生じる場合がある。この場合、使用されるフィルタ80a,80bの厚みを変えることで焦点位置が一致するように調整することができる。
【0033】
カラー計測用センサ53a(CCD)には、少なくとも1つのチャンネルで参照光の波長帯域での受光感度特性が得られているセンサが使用される。カラー計測用センサ53aの一部のチャンネルが参照光の波長帯域での受光感度特性を有している場合には、受光感度特性を有している特定チャンネルのみが距離画像取込に用いられる。たとえばR(赤)チャンネルのみが距離画像取込に用いられる。カラー計測用センサ53aの全チャンネルが参照光の波長帯域での受光感度特性を有している場合(測定に影響がない程度である場合)には、全チャンネル(R,G(緑),B(青))が距離画像取込に使用される。
【0034】
なお、フィルタ80Aはカラー計測用センサ53aの前段であればどこに入れても構わない。しかしながら、受光レンズ51aとカラー計測用センサ53aとの間に設置するのが望ましい。なぜならばこれによりフィルタ80a,80bの面積を小さくすることができ、フィルタ切換機構81Aに対する負担も小さくて済むからである。
【0035】
また、本実施の形態においては(R,G,B)の構成のカラーCCDを用いた例について説明したが、(G,Cy,Ye,Mg)の構成のカラーCCDをカラー計測用センサ53aとして用いてもよい。
【0036】
本実施の形態における構成を採用することにより、距離画像とカラー画像とが同一のセンサにより読取られるため、従来のように2つのセンサの取付位置の調整を行なう必要がなくなる。また、近赤外光と可視光との分光を行なうことができるプリズムの作製が不要となり、カラー画像の画質を向上させることができる。
【0037】
さらに、センサが1つで済むため、周辺回路を従来よりも削減することが可能となる。
【0038】
図5は本発明の第2の実施の形態における3次元カメラの構成を示すブロック図である。第2の実施の形態における3次元カメラが第1の実施の形態と異なる点について以下に説明する。第2の実施の形態においては、第1の実施の形態におけるフィルタ80A(図3参照)の代わりにフィルタ80Bが用いられている。また、フィルタ切換機構81A(図3参照)の代わりにフィルタ切換機構81Bが用いられている。また、カラー計測用センサ53a(図3参照)の代わりにモノクロ計測用センサ(モノクロCCD)53bが用いられている。第2の実施の形態ではモノクロ計測用センサ53bの出力がデジタル画像生成部68に直接入力される。すなわち第2の実施の形態においてはカラー処理回路67は設けられていない。
【0039】
図6は本実施の形態におけるフィルタ80Bとモノクロ計測用センサ53bの周囲の構成を示す図である。
【0040】
フィルタ80BはBフィルタ80cとGフィルタ80dとRフィルタ80eとバンドパスフィルタ80fとを含んでいる。Bフィルタ80c、Gフィルタ80d、およびRフィルタ80eはカラー画像用のフィルタである。フィルタ切換機構81Bはそれぞれのフィルタを切換えることにより、受光レンズ51aを介して入射された反射光がいずれかのフィルタを介した後モノクロ計測用センサ53bに入射されるように制御を行なう。モノクロ計測用センサ53bはドライバ55により駆動され、モノクロ計測用センサ53bの出力は出力処理回路62を介してメモリ63またはデジタル画像生成部68に入力される。
【0041】
本実施の形態においてはフィルタ切換機構81Bにおいてフィルタの切換を行ない、距離画像の取込時には参照光の波長に応じたバンドパスフィルタ80fを使用する。一方、カラー画像取込時にはR,G,Bフィルタ80c〜80eを順次使用して色画像に対応した3回の画像取込を行なう。
【0042】
本実施の形態においてはモノクロの計測用センサ53bを使うことができるため、その周辺の駆動回路や処理回路を第1の実施の形態よりも減少させることができ、装置のコストを下げることができる。
【0043】
なお、上記の実施の形態においてはR,G,Bの色分離フィルタを用いることとしたが、C,M,Yの色分離フィルタを用いるようにしてもよい。またカラー画像を再現するのであればその他の色の構成を採用してもよい。
【0044】
図7は本発明の第3の実施の形態における3次元カメラの構成を示すブロック図である。本実施の形態における3次元カメラが第1の実施の形態と異なる点について以下に説明する。本実施の形態における3次元カメラにおいてはカラー画像は表示されない。モノクロの輝度画像のみがLCD21に表示されることになる。図3におけるフィルタ80Aおよびカラー計測用センサ53aに代えて本実施の形態においてはフィルタ80Cおよびモノクロ計測用センサ53c(またはカラー計測用センサでもよい)が採用されている。また、図3におけるフィルタ切換機構81Aと、カラー処理回路67と、デジタル画像生成部68とカラー画像メモリ69と、NTSC変換部70と、アナログ出力端子32とは本実施の形態においては採用されていない。
【0045】
図8は図7のフィルタ80Cおよびモノクロ計測用センサ53cの周辺の構成を説明するための図である。
【0046】
フィルタ80Cはバンドパスフィルタ80gのみを含む。受光レンズ51aを介して入力された測定対象物からの反射光は、バンドパスフィルタ80gを介してモノクロ計測用センサ53cに入力される。モノクロ計測用センサ53cはドライバ55により駆動される。モノクロ計測用センサ53cの出力は出力処理回路62を介してメモリ63に入力される。
【0047】
本実施の形態においては、モノクロ計測用センサ53cにより撮像された画像データが距離画像および表示用画像として用いられる。すなわち本実施の形態においても1つのセンサにより距離画像と表示用画像との入力を行なっている。
【0048】
表示用に用いられるモノクロの輝度画像として重心演算に使用されているデータであるΣxiが使用される。まずΣxiの取得の方法と表示用のモノクロの輝度画像として使用できる理由について説明する。
【0049】
図9は投光レンズ系42の構成を示す模式図である。図9(a)は正面図であり、図9(b)は側面図である。
【0050】
投光レンズ系42は、コリメータレンズ421、バリエータレンズ422、およびエキスパンダレンズ423の3つのレンズから構成されている。半導体レーザ41が射出したレーザビームに対して、次の順序で適切なスリット光Uを得るための光学的処理が行なわれる。まず、コリメータレンズ421によってビームが平行化される。次にバリエータレンズ422によってレーザビームのビーム径が調整される。最後にエキスパンダレンズ423によってビームがスリット長さ方向M1に広げられる。
【0051】
バリエータレンズ422は、撮影距離および撮影の画角にかかわらず、計測用センサ53cに3以上の複数画素分の幅のスリット光Uを入射させるために設けられている。駆動系45は、システムコントローラ61の指示に従って、計測用センサ53c上でのスリット光Uの幅wを一定に保つようにバリエータレンズ422を移動させる。バリエータレンズ422と受光側のズームユニット51とは連動する。
【0052】
ガルバノミラー43による偏光の以前にスリット長を広げることにより、偏光の後で行なう場合に比べてスリット光Uの歪みを低減することができる。エキスパンダレンズ423を投光レンズ系42の最終段に配置することにより、すなわちガルバノミラー43に近づけることにより、ガルバノミラー43を小型化することができる。
【0053】
図10は計測システム1における3次元位置の算出の原理図である。同図では理解を容易にするため、受光量のサンプリングについて5回分のみが示されている。
【0054】
計測用センサ53cの撮像面S2上で複数画素分となる比較的に幅の広いスリット光Uを物体Qに照射する。具体的にはスリット光Uの幅を5画素分とする。スリット光Uは、サンプリング周期ごとに撮像面S2上で1画素ピッチpvだけ移動するように、図10の上から下に向かって偏光され、それによって物体Qが走査される。サンプリング周期ごとにモノクロ計測用センサ53cから1フレーム分の受光データ(光電変換情報)が出力される。なお、この偏光は実際には等角速度で行なわれる。
【0055】
撮像面S2の1つの画素gに注目すると、本実施の形態においては、走査中に行なう32回のサンプリングによって32回分の受光データが得られる。これら32回分の受光データに対する重心演算によって、注目画素gがにらむ範囲の物体表面agをスリット光Uの光軸が通過するタイミング(時間重心Npeakまたは重心ip)を求める。
【0056】
物体Qの表面が平面であって光学系の特性によるノイズがない場合には、注目画素gの受光量は、図10(b)に示すように、スリット光Uが通過するタイミングにおいて多くなり、通常、正規分布に近くなる。同図のようにn回目とその1つ前の(n−1)回目の間のタイミングで受光量が最大であった場合には、そのタイミングが時間重心Npeakとほぼ一致する。
【0057】
求めた時間重心Npeakにおけるスリット光の照射方向と、注目画素に対するスリット光の入射方向との関係に基づいて、物体Qの位置(座標)を算出する。これにより、撮像面の画素ピッチpvで規定される分解能より高い分解能の計測が可能となる。
【0058】
なお、注目画素gの受光量は物体Qの反射率に依存する。しかし、サンプリングの各受光量の相対比は受光の絶対量にかかわらず一定である。つまり、物体色の濃淡は計測精度に影響しない。
【0059】
図11はモノクロ計測用センサ53cの読出範囲を示す図である。
図11に示すように、モノクロ計測用センサ53cにおける1フレームの読出は、撮像面S2の全体ではなく、高速化を図るために撮像面S2の一部である有効受光領域(帯状画像)Aeのみを対象に行なわれる。有効受光領域Aeは、スリット光Uのある照射タイミングにおける物体Qの計測可能距離範囲d′に対応する撮像面S2上の領域であり、スリット光Uの偏光に伴ってフレームごとに1画素分ずつシフトする。本実施の形態では、有効受光領域Aeのシフト方向の画素数は32に固定されている。CCDエリアセンサの撮影像の一部のみを読出す手法は、特開平7−174536号公報に開示されている。
【0060】
図12はモノクロ計測用センサ53cの撮像面S2におけるラインとフレームとの関係を示す図であり、図13〜15はメモリ63における各フレームの受光データの記憶状態を示す図である。
【0061】
図12に示すように、撮像面S2の最初のフレームであるフレーム1には、ライン1からライン32までの32(ライン)×200画素分の受光データが含まれる。フレーム2はライン2からライン33まで、フレーム3はライン3からライン34までというように、フレームごとに1ライン分だけシフトされる。フレーム32はライン32からライン63までである。なお、上述したように1ラインを200画素としている。
【0062】
これらフレーム1からフレーム32までの受光データが、出力処理回路62を介してメモリ63に順次転送され、図13に示す状態でメモリ63に記憶される。
【0063】
つまり、メモリ63には、フレーム1、2、3…の順に受光データが記憶される。各フレームに含まれるライン32のデータは、フレーム1については32ライン目、フレーム2については31ライン目というように、フレームごとに1ラインずつ上方にシフトされている。フレーム1からフレーム32までの受光データがメモリ63に記憶されると、ライン32の各画素について、時間重心Npeakの算出が行なわれる。
【0064】
ライン32についての演算が行なわれている間に、フレーム33の受光データがメモリ63に転送されて記憶される。図14に示すように、フレーム33の受光データは、メモリ63のフレーム32の次の領域に記憶される。フレーム33のデータがメモリ63に記憶されると、これらフレーム2からフレーム33までに含まれるライン33の各画素について、時間重心Npeakの算出が行なわれる。
【0065】
ライン33についての演算が行なわれている間に、フレーム34の受光データがメモリ63に転送されて記憶される。図15に示すように、フレーム34の受光データは、フレーム1の記憶されていた領域に上書きされる。この時点ではフレーム1のデータは処理済であるため、上書きにより消去しても差支えないからである。フレーム34のデータがメモリ63に記憶されると、ライン34の各画素について、時間重心Npeakの算出が行なわれる。フレーム34の受光データについての処理が終わると、フレーム35の受光データがフレーム2の記憶されていた領域に上書きされる。
【0066】
このようにして、最終のラインであるライン231まで、合計200ライン分についての時間重心Npeakの算出が行なわれる。
【0067】
上述のように、メモリ63に記憶された受光データのうち、順次不要になったデータの記憶された領域に新規の受光データを上書きして記憶するので、メモリ63の容量が低減される。
【0068】
次に、重心演算回路73の構成および重心演算回路73による時間重心Npeakの算出処理について説明する。
【0069】
図16は重心演算回路73の構成を示すブロック図であり、図17はデータの転送のタイミングの概念を示す図であり、図18は時間重心Npeakの概念を示す図である。
【0070】
図18に示されるように、時間重心Npeakは、32回のサンプリングによって得られた32個の受光データについての重心である。各画素についての32個の受光データに、1〜32のサンプリング番号を付す。i番目の受光データはxiで表わされる。iは1〜32の整数である。このとき、iは、1つの画素について、その画素が有効受光領域Aeに入ってからのフレーム数を示している。
【0071】
1〜32番の受光データx1〜x32についての重心ipは、32個の受光データについて、i・xiの総和Σi・xiをxiの総和Σxiで除すことにより求められる。すなわち、
【0072】
【数1】
【0073】
となる。
【0074】
重心演算回路73は、メモリ63から読出したデータに基づいて、各画素についての重心ip(すなわち時間重心Npeak)を算出する。ただし、メモリ63から読出したデータをそのまま用いるのではなく、各データから定常光データksを減算した値(その値が負になるときは0)を用いる。つまり、計測用センサ53cから出力される受光データに対して、定常光データksの分だけ差し引いてオフセットを与えるのである。
【0075】
定常光データksは、スリット光Uが入射していないときの画素の受光データに基づいて算出されるデータである。定常光データksは、予め定めた固定値を用いてもよく、またはモノクロ計測用センサ53cから出力されるデータを用いてリアルタイムで求めてもよい。固定値とする場合にはモノクロ計測用センサ53cの出力が8ビット(256階調)である場合に、たとえば「5」「6」または「10」などとする。リアルタイムで求める場合には、1つの注目画素についての32個の受光データの前後各2画素分の受光データのそれぞれの平均値を求め、平均値の小さい方を定常光データksとすればよい。その理由は、有効受光領域Aeの前後のいずれかにおいてはスリット光Uが入射していないから、これによってスリット光Uが入射していないときの受光データをリアルタイムで確実に求めることができるからである。また、前後各2画素分の受光データの平均値の大きい方を定常光データksとしてもよい。32個の受光データの前の2画素分の受光データの平均値、または32個の受光データの後の2画素分の受光データの平均値を用いてもよい。1画素分の受光データを用いてもよい。さらに、物体Qの形状または受光データに含まれるノイズの状態によっては、それらの値にさらに所定値(たとえば「5」)を加算した値を定常光データksとして用い、これによりオフセットを大きくし、不要なノイズ成分を一層確実にカットするようにしてもよい。なお、それらの場合に、1フレームの大きさは、36ラインまたは34ラインまたは33ラインとなるが、重心ipの算出には32ライン分の32個のデータを用いればよい。
【0076】
さて、図16において、重心演算回路73は、定常光データ記憶部731、減算部732、第1加算部733、第2加算部734、および除算部735からなる。これらはソフトウェアを用いることによって実現されるが、これらの全部まては一部をハードウェア回路により構成することも可能である。
【0077】
定常光データ記憶部731は、定常光データksを記憶する。減算部732は、入力された受光データから定常項データksを減算する。ここで、減算部732から出力されるデータを改めて受光データxiとする。第1加算部733は、i・xiをi=1〜32について加算し、その合計値を出力する。第2加算部734は、xiをi=1〜32について加算し、その合計値を出力する。除算部735は、第1加算部733の出力値を第2加算部734の出力値で除し、重心ipを出力する。除算部735から出力された重心ipは、表示用メモリ74に記憶される。また、第1加算部733の出力値および第2加算部734の出力値は、それぞれ出力用メモリ64a,64bに記憶される。出力用メモリ64a,64bに記憶されたデータは、SCSIコントローラ66を介してデジタル出力端子33からホスト3に出力され、または記録メディア4に格納される。ホスト3において、これらのデータに基づいて3次元位置演算処理が行なわれ、またこれらのデータの信頼性が判定される。
【0078】
図17を参照して、メモリ制御回路63Aは、1つの画素について、重心演算回路73による上述の処理が行なわれるように、メモリ63のアドレスを画素ごとに順次指定する。たとえば、最初のライン32については、図17に示すフレーム1に含まれるライン32の1画素目のデータ、フレーム2に含まれるライン32の1画素目のデータというように、ライン32の1画素目のデータについてフレーム1から32までの合計32個のデータを順にアドレス指定する。アドレス指定されることによって、メモリ63からデータが読出されて重心演算回路73に送り込まれる。ライン32についての演算が行なわれている間に、次のフレーム33の受光データがメモリ63に転送される。以降においても、メモリ63からの読出と書込とが並行して行なわれ、これによって回路が効率よく動作する。
【0079】
重心演算回路73では、32個のデータが入力された時点で、除算部735が重心ipを出力する。続いて、2画素目のデータ、3画素目のデータというように、200画素目のデータまで順に処理を行ない、ライン32についての重心ipの算出を終了する。ライン32についての重心ipの算出を終えると、続いて、ライン33、ライン34、ライン35というように、ライン231まで、200ラインの全部について重心ipの算出を行なう。
【0080】
なお、CCDエリアセンサであるモノクロ計測用センサ53cは、積分領域および蓄積領域を有し、積分領域での積分動作が完了すると電荷を蓄積領域へ一括転送し、蓄積領域から外部に順次出力する。
【0081】
表示用メモリ74に記憶された重心ipは、LCD21の画面に表示される。重心ipは、計測対象の物体Qの表面の位置に関連し、物体Qの表面の位置が3次元カメラ2に近い場合に重心ipの値が大きくなり、遠い場合に重心ipの値が小さくなる。したがって、重心ipを濃度データとして濃淡画像を表示させることにより距離分布を表現することができる。
【0082】
なお、図9〜18に示される構成は、第1および第2の実施の形態においても採用されている。
【0083】
また、本実施の形態においてはΣxiを用いることによりモノクロの輝度画像をディスプレイ3bに表示させることができる。すなわち、Σxiは32フレーム分の出力の合計である。この32フレームのうちのいずれかのフレームで、スリット光の被写体での反射光が受光されている(ここでは被写体が測定可能範囲内にあることを前提としている)。バンドパスフィルタ80gにより環境光はほぼカットされているので、Σxiは、32フレームの期間に照射されたスリット光の成分の合計である。すべての画素について、同様にスリット光成分の合計が得られる。各画素のΣxiを各画素の表示輝度データとして扱うと、モノクロ画像(スリット光波長に対するモノクロ画像)となる。
【0084】
なお、たとえばΣxiのデータレンジが13ビット用意されており、モノクロの輝度表示には8ビットのデータを用いるとするならば、Σxiの上位3ビットと下位2ビットとを取り除いた8ビットを用いるようにすればよい。どの8ビットのデータを用いるかは、Σxiの実際にとる値を考慮して決めるようにすればよい。
【0085】
なお、本実施の形態においては撮像素子としてCCDを用いた場合について説明したが、撮像素子としてCMOS撮像センサなどを用いても、距離画像およびカラー画像を取込むことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態における計測システムの構成を示す図である。
【図2】3次元カメラ2の外観を示す図である。
【図3】3次元カメラ2の機能構成を示すブロック図である。
【図4】フィルタ80Aとフィルタ切換機構81Aとの周辺の構成を示す図である。
【図5】本発明の第2の実施の形態における3次元カメラのブロック図である。
【図6】フィルタ80Bとフィルタ切換機構81Bとの周辺の構成を示す図である。
【図7】本発明の第3の実施の形態における3次元カメラの構成を示すブロック図である。
【図8】フィルタ80Cの周辺の構成を示す図である。
【図9】投光レンズ系の構成を示す模式図である。
【図10】計測システムにおける3次元位置の算出の原理図である。
【図11】センサの読出範囲を示す図である。
【図12】センサの撮像面におけるラインとフレームとの関係を示す図である。
【図13】メモリにおける各フレームの受光データの記憶状態を示す図である。
【図14】メモリにおける各フレームの受光データの記憶状態を示す図である。
【図15】メモリにおける各フレームの受光データの記憶状態を示す図である。
【図16】重心演算回路の構成を示すブロック図である。
【図17】データの転送のタイミングの概念を示す図である。
【図18】時間重心の概念を示す図である。
【図19】従来のアクティブタイプの3次元計測装置の構成を説明するための図である。
【符号の説明】
53a〜53c 計測用センサ(CCD)
80A〜80C フィルタ
81A〜81C フィルタ切換機構[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional measuring apparatus, and more particularly, to a so-called active type three-dimensional measuring apparatus that takes in three-dimensional data by projecting reference light onto a measurement object and receiving the reflected light.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a so-called active type three-dimensional measuring apparatus that captures three-dimensional data by projecting reference light onto a measurement object and receiving reflected light is known. In such an active type three-dimensional measuring apparatus, a distance image (an image for measuring a distance and calculating a three-dimensional shape of the measurement object) and a color image (displaying the measurement object) For example, Japanese Patent Laid-Open No. 9-145319 discloses an apparatus that can input both images.
[0003]
FIG. 19 is a block diagram showing the configuration of such an active type three-dimensional measuring apparatus.
[0004]
Referring to the figure, a beam splitter (spectral prism) 52 includes a color separation film (dichroic mirror) 521, two
[0005]
The measurement object is scanned by the semiconductor laser as the reference light, and the reflected light from the measurement object is incident on the
[0006]
Light incident from the
[0007]
On the other hand, the
[0008]
The distance
[0009]
The output of the distance
[0010]
[Problems to be solved by the invention]
As described above, the conventional active type three-dimensional measurement apparatus has the following problems because the two
[0011]
(1) In order to prevent a shift between the distance image and the color image, it is necessary to finely adjust the mounting positions of the two CCD sensors.
[0012]
(2) Since near-infrared light is mainly used as reference light, it is necessary to produce a prism capable of splitting near-infrared light for distance images and visible light for color images.
[0013]
(3) The image quality of the color image depends on the spectral characteristics of the prism.
The present invention has been made to solve the above-described problems, and an object thereof is to solve the problems caused by using two sensors in a three-dimensional measuring apparatus.
[0014]
[Means for Solving the Problems]
In order to achieve the above object, according to one aspect of the present invention, a three-dimensional measurement apparatus includes a light projecting unit that projects reference light toward a measurement object, and a light receiving unit that receives reflected light from the measurement object. A calculation means for calculating a three-dimensional shape of the measurement object from the received reflected light, and a first image for calculating the three-dimensional shape of the measurement object and a first image for displaying the measurement object. Capture two images with the same monochrome sensor The first image is captured via a bandpass filter according to the wavelength of the reference light, The second image is captured through a color separation filter that forms a color image, thereby allowing the calculation means to calculate a three-dimensional shape from the first image, and displaying the second image based on the second image. It is possible to acquire images.
Good Preferably, the three-dimensional measuring apparatus has a filter in front of the sensor.
[0015]
According to the present invention, the image for calculating the three-dimensional shape of the measurement object and the image for displaying the measurement object are captured by the same sensor. It is not necessary to make adjustments. Further, it is not necessary to produce a prism capable of performing near-infrared light and visible light spectroscopy, and the image quality of a color image can be improved.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration of a
[0017]
The three-
[0018]
The
[0019]
FIG. 2 is a diagram illustrating an appearance of the three-
[0020]
Zooming
[0021]
The liquid crystal display 21 (LCD) is used as a scanning screen display means and an electronic viewfinder. The photographer can set the photographing mode by using the
[0022]
FIG. 3 is a block diagram showing a functional configuration of the three-
[0023]
The three-dimensional camera has two
[0024]
In the
[0025]
Imaging information from the
[0026]
The
[0027]
The center-of-
[0028]
The
[0029]
FIG. 4 is a diagram showing details of a peripheral portion of the
[0030]
Referring to the figure,
[0031]
As described above, in the measurement system according to the present embodiment, both the distance image and the color image are captured by the same
[0032]
Depending on the
[0033]
As the
[0034]
The
[0035]
In this embodiment, an example using a color CCD having a configuration of (R, G, B) has been described. However, a color CCD having a configuration of (G, Cy, Ye, Mg) is used as the
[0036]
By adopting the configuration in the present embodiment, the distance image and the color image are read by the same sensor, so that it is not necessary to adjust the mounting positions of the two sensors as in the prior art. Further, it is not necessary to produce a prism capable of performing near-infrared light and visible light spectroscopy, and the quality of a color image can be improved.
[0037]
Furthermore, since only one sensor is required, it is possible to reduce the number of peripheral circuits as compared with the prior art.
[0038]
FIG. 5 is a block diagram showing a configuration of a three-dimensional camera according to the second embodiment of the present invention. The difference between the three-dimensional camera in the second embodiment and the first embodiment will be described below. In the second embodiment, a
[0039]
FIG. 6 is a diagram showing a configuration around the
[0040]
The
[0041]
In the present embodiment, the
[0042]
In the present embodiment, since the
[0043]
In the above embodiment, R, G, and B color separation filters are used. However, C, M, and Y color separation filters may be used. If a color image is reproduced, other color configurations may be adopted.
[0044]
FIG. 7 is a block diagram showing a configuration of a three-dimensional camera according to the third embodiment of the present invention. The difference between the three-dimensional camera in the present embodiment and the first embodiment will be described below. In the three-dimensional camera in the present embodiment, a color image is not displayed. Only a monochrome luminance image is displayed on the
[0045]
FIG. 8 is a diagram for explaining the configuration around the filter 80C and the
[0046]
Filter 80C includes only
[0047]
In the present embodiment, the image data captured by the
[0048]
As a monochrome luminance image used for display, Σxi, which is data used for centroid calculation, is used. First, the method of obtaining Σxi and the reason why it can be used as a monochrome luminance image for display will be described.
[0049]
FIG. 9 is a schematic diagram showing the configuration of the
[0050]
The
[0051]
The
[0052]
By expanding the slit length before the polarization by the
[0053]
FIG. 10 is a principle diagram of calculation of a three-dimensional position in the
[0054]
The object Q is irradiated with a relatively wide slit light U corresponding to a plurality of pixels on the imaging surface S2 of the
[0055]
When attention is paid to one pixel g on the imaging surface S2, in the present embodiment, light reception data for 32 times is obtained by 32 times of sampling performed during scanning. The timing (temporal centroid Npeak or centroid ip) at which the optical axis of the slit light U passes through the object surface ag in the range in which the target pixel g looks is obtained by calculating the centroid with respect to the light reception data for 32 times.
[0056]
When the surface of the object Q is flat and there is no noise due to the characteristics of the optical system, the amount of light received by the pixel of interest g increases at the timing when the slit light U passes, as shown in FIG. Usually close to a normal distribution. As shown in the figure, when the amount of received light is the maximum at the timing between the nth time and the previous (n-1) th time, the timing almost coincides with the time centroid Npeak.
[0057]
The position (coordinates) of the object Q is calculated based on the relationship between the irradiation direction of the slit light at the obtained time center of gravity Npeak and the incident direction of the slit light with respect to the target pixel. Thereby, measurement with a resolution higher than the resolution defined by the pixel pitch pv on the imaging surface is possible.
[0058]
Note that the amount of light received by the pixel of interest g depends on the reflectance of the object Q. However, the relative ratio of each received light amount of sampling is constant regardless of the absolute amount of received light. That is, the shade of the object color does not affect the measurement accuracy.
[0059]
FIG. 11 is a diagram showing a reading range of the
As shown in FIG. 11, reading of one frame in the
[0060]
FIG. 12 is a diagram showing the relationship between lines and frames on the imaging surface S2 of the
[0061]
As shown in FIG. 12,
[0062]
The received light data from
[0063]
That is, the received light data is stored in the
[0064]
While the calculation for the
[0065]
While the calculation for the
[0066]
In this way, the time center of gravity Npeak is calculated for a total of 200 lines up to the final line 231.
[0067]
As described above, among the received light data stored in the
[0068]
Next, the configuration of the
[0069]
16 is a block diagram showing the configuration of the
[0070]
As shown in FIG. 18, the time centroid Npeak is a centroid for 32 received light data obtained by 32 samplings.
[0071]
The center of gravity ip for the 1st to 32nd received light data x1 to x32 is obtained by dividing the sum Σi · xi of i · xi by the sum Σxi of xi for 32 received light data. That is,
[0072]
[Expression 1]
[0073]
It becomes.
[0074]
Based on the data read from the
[0075]
The steady light data ks is data calculated based on the light reception data of the pixels when the slit light U is not incident. The stationary light data ks may be a predetermined fixed value or may be obtained in real time using data output from the
[0076]
In FIG. 16, the center-of-
[0077]
The steady light
[0078]
Referring to FIG. 17,
[0079]
In the
[0080]
The
[0081]
The center of gravity ip stored in the
[0082]
The configurations shown in FIGS. 9 to 18 are also adopted in the first and second embodiments.
[0083]
In the present embodiment, a monochrome luminance image can be displayed on the
[0084]
For example, if the data range of Σxi is prepared in 13 bits and 8-bit data is used for monochrome luminance display, 8 bits obtained by removing the upper 3 bits and the lower 2 bits of Σxi are used. You can do it. Which 8-bit data is used may be determined in consideration of the actual value of Σxi.
[0085]
In the present embodiment, a case where a CCD is used as an image sensor has been described. However, a distance image and a color image can be captured even when a CMOS image sensor or the like is used as an image sensor.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a measurement system according to a first embodiment of the present invention.
FIG. 2 is a diagram showing an external appearance of a three-
3 is a block diagram illustrating a functional configuration of the three-
FIG. 4 is a diagram showing a configuration around a
FIG. 5 is a block diagram of a three-dimensional camera according to a second embodiment of the present invention.
FIG. 6 is a diagram showing a configuration around a
FIG. 7 is a block diagram illustrating a configuration of a three-dimensional camera according to a third embodiment of the present invention.
FIG. 8 is a diagram showing a configuration around a filter 80C.
FIG. 9 is a schematic diagram showing a configuration of a projection lens system.
FIG. 10 is a principle diagram of calculation of a three-dimensional position in a measurement system.
FIG. 11 is a diagram showing a reading range of a sensor.
FIG. 12 is a diagram illustrating a relationship between a line and a frame on an imaging surface of a sensor.
FIG. 13 is a diagram illustrating a storage state of light reception data of each frame in a memory.
FIG. 14 is a diagram illustrating a storage state of received light data of each frame in a memory.
FIG. 15 is a diagram illustrating a storage state of light reception data of each frame in a memory.
FIG. 16 is a block diagram showing a configuration of a centroid operation circuit.
FIG. 17 is a diagram illustrating a concept of data transfer timing.
FIG. 18 is a diagram showing a concept of time centroid.
FIG. 19 is a diagram for explaining a configuration of a conventional active type three-dimensional measurement apparatus.
[Explanation of symbols]
53a-53c Measurement sensor (CCD)
80A-80C filter
81A-81C Filter switching mechanism
Claims (2)
前記測定対象物からの反射光を受光する受光手段と、
前記受光された反射光から、前記測定対象物の3次元形状を算出する算出手段とを備えた3次元計測装置であって、
前記測定対象物の3次元形状を算出するための第1の画像と前記測定対象物を表示するための第2の画像とを同一のモノクロセンサで取込むことが可能であり、前記第1の画像は前記参照光の波長に応じたバンドパスフィルタを介して取込み、前記第2の画像はカラー画像を形成する色分離フィルタを介して取込むことにより、前記第1の画像から前記算出手段による3次元形状の算出を可能とするとともに、前記第2の画像に基づき表示画像の取得を可能とすることを特徴とした、3次元計測装置。A light projecting means for projecting reference light toward the measurement object;
A light receiving means for receiving reflected light from the measurement object;
A three-dimensional measurement apparatus comprising: a calculation unit that calculates a three-dimensional shape of the measurement object from the received reflected light;
The first image for calculating the three-dimensional shape of the measurement object and the second image for displaying the measurement object can be captured by the same monochrome sensor . The image is taken in through a band pass filter corresponding to the wavelength of the reference light, and the second image is taken in through a color separation filter that forms a color image. A three-dimensional measuring apparatus characterized in that a three-dimensional shape can be calculated and a display image can be acquired based on the second image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07943198A JP4212138B2 (en) | 1998-03-26 | 1998-03-26 | 3D measuring device |
US09/273,543 US6252659B1 (en) | 1998-03-26 | 1999-03-22 | Three dimensional measurement apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07943198A JP4212138B2 (en) | 1998-03-26 | 1998-03-26 | 3D measuring device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006326080A Division JP2007071891A (en) | 2006-12-01 | 2006-12-01 | Three-dimensional measuring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11281335A JPH11281335A (en) | 1999-10-15 |
JP4212138B2 true JP4212138B2 (en) | 2009-01-21 |
Family
ID=13689698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP07943198A Expired - Fee Related JP4212138B2 (en) | 1998-03-26 | 1998-03-26 | 3D measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4212138B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006058160A (en) * | 2004-08-20 | 2006-03-02 | Riyuukoku Univ | Linear optical data processing apparatus, surface shape measurement system, linear optical data processing method, control program for linear optical data processing apparatus, and computer-readable recording medium |
JP4882823B2 (en) * | 2007-03-27 | 2012-02-22 | カシオ計算機株式会社 | Print data generation apparatus and program |
JP5984406B2 (en) * | 2012-02-01 | 2016-09-06 | キヤノン株式会社 | measuring device |
-
1998
- 1998-03-26 JP JP07943198A patent/JP4212138B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11281335A (en) | 1999-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5745175A (en) | Method and system for providing automatic focus control for a still digital camera | |
US7245325B2 (en) | Photographing device with light quantity adjustment | |
US7057645B1 (en) | Camera system that compensates low luminance by composing multiple object images | |
US6252659B1 (en) | Three dimensional measurement apparatus | |
US20050012833A1 (en) | Image capturing apparatus | |
JPH08186757A (en) | Electronic camera | |
US20080211902A1 (en) | Imaging device | |
CN101572777B (en) | Filming device and filming method | |
JP2001333329A (en) | Image pickup device | |
JP2001036917A (en) | Digital camera and storage medium for processing picture signal | |
JP2007071891A (en) | Three-dimensional measuring device | |
US7345706B2 (en) | Auto focus system | |
JPH07288826A (en) | Film picture reproduction device | |
JP3235485B2 (en) | Spectroscopic device for three-dimensional measurement | |
JP4212138B2 (en) | 3D measuring device | |
JPH10124646A (en) | Three-dimensional measuring device | |
JP3353737B2 (en) | 3D information input camera | |
US20060187335A1 (en) | Image pickup apparatus | |
JP5363872B2 (en) | Image correction apparatus and program thereof | |
US7710494B2 (en) | Digital camera having a shutter curtain and exposure control method thereof | |
JP3129069B2 (en) | Image recording / reproducing system and photographing device | |
JP2000125204A (en) | Electronic camera | |
JP2000275024A (en) | Three-dimensional input apparatus | |
JP3733625B2 (en) | Imaging device for 3D measurement | |
JP2002305676A (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041026 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20041209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041224 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20041224 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20041209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050913 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051114 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20061003 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061201 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20061212 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070502 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081028 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111107 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111107 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121107 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121107 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131107 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |