JP2019149674A - Imaging apparatus, imaging method, and image processing apparatus - Google Patents
Imaging apparatus, imaging method, and image processing apparatus Download PDFInfo
- Publication number
- JP2019149674A JP2019149674A JP2018033062A JP2018033062A JP2019149674A JP 2019149674 A JP2019149674 A JP 2019149674A JP 2018033062 A JP2018033062 A JP 2018033062A JP 2018033062 A JP2018033062 A JP 2018033062A JP 2019149674 A JP2019149674 A JP 2019149674A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sensor image
- complex sensor
- complex
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 143
- 238000003384 imaging method Methods 0.000 title claims abstract description 113
- 238000004364 calculation method Methods 0.000 claims abstract description 23
- 230000005540 biological transmission Effects 0.000 claims abstract description 18
- 230000009467 reduction Effects 0.000 claims description 26
- 230000014509 gene expression Effects 0.000 claims description 18
- 238000003672 processing method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 50
- 230000006870 function Effects 0.000 abstract description 21
- 238000011161 development Methods 0.000 description 49
- 230000018109 developmental process Effects 0.000 description 49
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 239000000758 substrate Substances 0.000 description 15
- 238000005259 measurement Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 229910052782 aluminium Inorganic materials 0.000 description 3
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 150000004770 chalcogenides Chemical class 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 229910052804 chromium Inorganic materials 0.000 description 1
- 239000011651 chromium Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001704 evaporation Methods 0.000 description 1
- 229910052732 germanium Inorganic materials 0.000 description 1
- GNPVGFCGXDBREM-UHFFFAOYSA-N germanium atom Chemical compound [Ge] GNPVGFCGXDBREM-UHFFFAOYSA-N 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000004544 sputter deposition Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000007740 vapor deposition Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/60—Systems using moiré fringes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
【課題】撮像後にフォーカス調整等を行おうとする際の演算処理を低減し、レンズレス撮像装置のセンサ画像を伝送して各種機能を実現するのに適した技術を提供する。【解決手段】撮像装置は、格子パターンに基づいて光の強度を変調する変調器と、前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、前記複素センサ画像を送信するデータ送信部とを有する。【選択図】図1The present invention provides a technique suitable for realizing various functions by reducing calculation processing when performing focus adjustment after imaging and transmitting a sensor image of a lensless imaging apparatus. An imaging apparatus includes: a modulator that modulates light intensity based on a lattice pattern; an image sensor that converts light transmitted through the modulator into an electrical signal to generate a sensor image; and A complex sensor image processing unit that generates a complex sensor image having a complex number; and a data transmission unit that transmits the complex sensor image. [Selection] Figure 1
Description
本発明は、撮像装置、撮像方法、および画像処理装置に関する。 The present invention relates to an imaging apparatus, an imaging method, and an image processing apparatus.
本技術分野の背景技術として、国際公開第2017/149687号がある。該公報には、「格子基板を透過する光線の入射角度の検出を容易化することにより、撮像装置の高機能化が可能な撮像装置を得る。撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、前記画像センサの受光面に設けられ、光の強度を変調する変調器と、前記画像センサから出力される画像信号を一時的に格納する画像記憶部と、前記画像記憶部から出力される画像信号の画像処理を行う信号処理部と、を具備し、前記変調器は、複数の同心円から構成される第1の格子パターンを有し、前記信号処理部は、前記画像記憶部から出力される画像信号を、複数の同心円から構成される仮想的な第2の格子パターンで変調することでモアレ縞画像を生成し、フォーカス位置に応じて前記第2の格子パターンの同心円の大きさを変更することを特徴とする撮像装置で解決できる。」と記載されている。 As a background art in this technical field, there is International Publication No. 2017/149687. In this publication, “an imaging device capable of enhancing the functionality of an imaging device by facilitating detection of the incident angle of a light beam that passes through a lattice substrate is obtained. A plurality of pixels arranged in an array on the imaging surface An image sensor that converts an optical image captured into an image signal and outputs the image signal; a modulator that is provided on the light receiving surface of the image sensor and modulates the intensity of light; and an image signal output from the image sensor A first lattice pattern comprising a plurality of concentric circles, and an image storage unit that stores the image signal and a signal processing unit that performs image processing of an image signal output from the image storage unit And the signal processing unit generates a moire fringe image by modulating the image signal output from the image storage unit with a virtual second lattice pattern composed of a plurality of concentric circles, and Depending on the position Can be resolved by the imaging apparatus characterized by changing the size of the concentric grating pattern. It has been described as ".
レンズを使用しないレンズレス撮像装置が、小型かつ低コストを実現できる撮像装置として期待されている。また、撮像装置のネットワーク接続は、画像解析等の撮像装置の適用範囲拡大に必須となってきている。しかし、上述した特許文献1では、レンズレス撮像装置で撮像されたセンサ画像からモアレ縞画像生成時にフォーカス調整(リフォーカス)、オートフォーカス、測距と言った機能を実現する方法に関して述べられている。また特許文献2では、表側格子の位相と裏側格子の位相が、互いに独立にすべての組み合わせで重ね合わされる様に配置することでノイズ除去を行う技術が開示されている。しかし、撮像して得られた画像に対し再度フォーカス調整等を行おうとする場合、現像用パターンの乗算、ノイズ除去のための演算処理を再び行う必要があるため演算処理が膨大になる。
A lensless image pickup apparatus that does not use a lens is expected as an image pickup apparatus that can achieve a small size and low cost. In addition, network connection of imaging devices has become essential for expanding the application range of imaging devices such as image analysis. However, the above-described
本発明の目的は、撮像後にフォーカス調整等を行おうとする際の演算処理を低減し、レンズレス撮像装置のセンサ画像を伝送して各種機能を実現するのに適した技術を提供することにある。 An object of the present invention is to provide a technique suitable for realizing various functions by reducing calculation processing when performing focus adjustment after imaging and transmitting a sensor image of a lensless imaging apparatus. .
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。 The present application includes a plurality of means for solving at least a part of the above-described problems. Examples of such means are as follows.
本発明の一態様に係る撮像装置は、格子パターンに基づいて光の強度を変調する変調器と、前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、前記複素センサ画像を送信するデータ送信部とを有する。 An imaging apparatus according to an aspect of the present invention includes a modulator that modulates the intensity of light based on a lattice pattern, an image sensor that converts the light transmitted through the modulator into an electrical signal, and generates a sensor image; A complex sensor image processing unit that generates a complex sensor image having a complex number from the sensor image; and a data transmission unit that transmits the complex sensor image.
本発明によれば、処理を簡易化し、通信データ量を小さくすることにより、レンズレス撮像装置のセンサ画像を伝送して各種機能を実現するのに適した技術を提供することができる。 According to the present invention, it is possible to provide a technique suitable for realizing various functions by transmitting a sensor image of a lensless imaging apparatus by simplifying the processing and reducing the amount of communication data.
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will become apparent from the following description of embodiments.
以下の実施形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。 In the following embodiments, when it is necessary for the sake of convenience, the description will be divided into a plurality of sections or embodiments. However, unless otherwise specified, they are not irrelevant to each other. Some or all of the modifications, details, supplementary explanations, and the like are related.
また、以下の実施形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。 In the following embodiments, when referring to the number of elements (including the number, numerical value, quantity, range, etc.), unless otherwise specified, the case is clearly limited to a specific number in principle. It is not limited to the specific number, and may be a specific number or more.
さらに、以下の実施形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。 Further, in the following embodiments, it is needless to say that the constituent elements (including element steps and the like) are not necessarily indispensable unless otherwise specified and clearly considered essential in principle. Yes.
同様に、以下の実施形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。 Similarly, in the following embodiments, when referring to the shape and positional relationship of components and the like, the shape and the like of the component are substantially excluding unless explicitly stated or otherwise considered in principle. It shall include those that are approximate or similar to. The same applies to the above numerical values and ranges.
また、実施形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。以下、本発明の各実施形態について図面を用いて説明する。 In all the drawings for explaining the embodiments, the same members are denoted by the same reference symbols in principle, and the repeated explanation thereof is omitted. Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1実施形態]
〈無限遠物体の撮影原理〉
図1は、第1実施形態に係る撮像装置101の構成例を示す図である。撮像装置101は、結像させるレンズを用いることなく、外界の物体の画像を取得するものであり、撮像部102、フリンジスキャン処理部106(複素センサ画像処理部と呼んでもよい)、画像処理部107、およびコントローラ108から構成されている。
[First Embodiment]
<Principle of shooting an object at infinity>
FIG. 1 is a diagram illustrating a configuration example of an
図2は、撮像部102の構成例を示す図である。撮像部102は、画像センサ103、パターン基板104、および撮影用パターン105から構成されている。パターン基板104と撮影用パターン105を併せて変調器と呼ぶことができる。
FIG. 2 is a diagram illustrating a configuration example of the
パターン基板104は、画像センサ103の受光面に密着して固定され、パターン基板104の表面には撮影用パターン105が形成されている。パターン基板104は、例えばガラスやプラスティックなどの可視光に対して透明な材料からなる。
The
撮影用パターン105は、例えば半導体プロセスに用いられるスパッタリング法などによってアルミニウム、クロムなどの金属を蒸着することによって形成される。アルミニウムが蒸着されたパターンと蒸着されていないパターンによって濃淡がつけられる。
The photographing
なお、撮影用パターン105の形成は、蒸着に限定されるものでなく、例えばインクジェットプリンタなどによる印刷などによって濃淡をつけるなど、透過率の変調を実現できる手段であればどのように形成してもよい。
The formation of the photographing
また、ここでは可視光を例に説明したが、例えば遠赤外線の撮影を行う場合、パターン基板104は、例えばゲルマニウム、シリコン、カルコゲナイドなどの遠赤外線に対して透明な材料からなる。すなわち、パターン基板104には、撮影対象となる波長に対して透明な材料を用いることができ、撮影用パターン105には、撮影対象となる波長を遮断する材料を用いることができる。
Here, although visible light has been described as an example, for example, when far-infrared imaging is performed, the
また、ここでは撮影用パターン105をパターン基板104に形成する方法について述べたが、これに限定されない。図3は、撮像部102の他の構成例を示す図である。撮影用パターン105を薄膜に形成し、これをパターン基板104の替わりに設けた支持部材301により保持する構成によっても、撮像部102を実現することができる。支持部材301および撮影用パターン105を併せて変調器と呼ぶことができる。なお、図1に示す撮像装置101において、撮影画角はパターン基板104の厚さによって変更可能である。従って、図3に示す支持部材301がその長さを変更可能な機能を有していれば、撮影画角を変更することができる。
Although the method for forming the
図2又は図3に示すように、画像センサ103は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる。画像センサ103の撮像面(受光面)には、受光素子である画素103aがアレイ状に配置されている。撮影用パターン105を透過する光は、その格子パターンによって光の強度が変調され、画像センサ103にて受光される。画像センサ103は、画素103aが受光した光画像を電気信号である画像信号に変換して出力する。なお、画像信号(アナログの画像データ)は、例えばアナログ・デジタル変換回路を介してデジタル信号に変換され、デジタルの画像データとして出力される。本明細書では、撮像部102が画像データを出力するものとして説明する。
As shown in FIG. 2 or FIG. 3, the
フリンジスキャン処理部106は、画像センサ103から出力される画像データに対してフリンジスキャンによるノイズ除去を行い、画像処理部107に出力する。画像処理部107は、フリンジスキャン処理部106から出力された画像データに対して所定の画像処理を行い、コントローラ108に出力する。コントローラ108は、画像処理部107から出力された画像データを、必要に応じてデータ形式を変換し、撮像装置101の備える記憶装置(図示せず)に格納したり、外部のホストコンピュータや記録媒体に出力したりする。
The fringe
なお、コントローラ108は、例えば、プロセッサ、メモリ、通信装置、処理回路等を備えるユニットによって実現することができる。また、コントローラ108は、例えばUSB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)等の、外部装置と接続する入出力インターフェイスに接続される又はこれを備えてもよい。フリンジスキャン処理部106、および画像処理部107は、例えば、画像処理回路によって実現される。フリンジスキャン処理部106、画像処理部107、およびコントローラ108は、一体的に構成されていてもよい。
The
続いて、撮像装置101における撮影原理について説明する。
Next, the imaging principle in the
まず、撮影用パターン105は、中心からの半径に対して反比例してピッチが細かくなる同心円状の格子パターンであり、同心円の中心である基準座標からの半径r、係数βを用いて、
First, the photographing
このような縞を持つプレートは、ガボールゾーンプレートやフレネルゾーンプレートと呼ばれる。図4は、撮影用パターン105の一例を示す図あり、式(1)のガボールゾーンプレートが示されている。図5は、撮影用パターン105の他の例を示す図であり、式(1)を閾値1で2値化したフレネルゾーンプレートが示されている。
A plate having such stripes is called a Gabor zone plate or a Fresnel zone plate. FIG. 4 is a diagram illustrating an example of the
ここより以降、簡単化のためにx軸方向についてのみ数式で説明するが、同様にy軸方向について考慮することで2次元に展開して考えることが可能である。 Hereafter, for simplification, only the x-axis direction will be described using mathematical formulas. Similarly, it is possible to consider two-dimensional development by considering the y-axis direction.
図6は、斜め入射平行光によるパターン基板表面から画像センサへの射影像が面内ずれを生じることを説明する図である。撮影用パターン105が形成された厚さdのパターン基板104に、x軸方向に角度θ0で平行光が入射したとする。パターン基板104中の屈折角をθとして、幾何光学的には、表面の格子の透過率が乗じられた光が、k=d・tanθだけずれて画像センサ103に入射する。このとき、
FIG. 6 is a diagram for explaining that the projected image from the pattern substrate surface to the image sensor due to obliquely incident parallel light causes an in-plane shift. It is assumed that parallel light is incident on the
次に、画像処理部107における処理に関して、相関現像方式とモアレ現像方式による現像処理について説明する。
Next, regarding the processing in the
相関現像方式は、撮影用パターン105の投影像(図7)と現像用パターン801(図8)との相互相関関数を演算することにより、シフト量kの輝点(図9)を得るものである。なお、一般的に相互相関演算を2次元畳込み演算で行うと演算量が大きくなることから、フーリエ変換を用いて演算する例について、数式を用いて原理を説明する。 In the correlation development method, a bright point (FIG. 9) with a shift amount k is obtained by calculating a cross-correlation function between the projected image of the photographing pattern 105 (FIG. 7) and the development pattern 801 (FIG. 8). is there. In general, since the amount of calculation increases when the cross-correlation calculation is performed by two-dimensional convolution calculation, the principle of an example of calculation using Fourier transform will be described using mathematical expressions.
まず、現像用パターン801は、撮影用パターン105と同様にガボールゾーンプレートやフレネルゾーンプレートを用いる。よって、現像用パターン801は、初期位相Φを用いて、
First, the development pattern 801 uses a Gabor zone plate or a Fresnel zone plate as in the case of the
式(2)、および式(3)のフーリエ変換は、それぞれ、 The Fourier transforms of Equation (2) and Equation (3) are respectively
次に、式(4)、および式(5)を乗算すると、 Next, multiplying Expression (4) and Expression (5),
なお、相関現像方式では、パターンの自己相関関数が単一のピークを有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されないパターン、例えばランダムなパターンで実現してもよい。 In the correlation development method, as long as the autocorrelation function of the pattern has a single peak, it may be realized by a pattern not limited to the Fresnel zone plate or the Gabor zone plate, for example, a random pattern.
次に、モアレ現像方式では、撮影用パターン105の投影像(図7)と現像用パターン801(図8)を乗算することによりモアレ縞(図10)を生成し、フーリエ変換することにより現像画像におけるシフト量kβ/πの輝点(図11)を得る。このモアレ縞を数式で示すと、 Next, in the moiré development system, a moiré fringe (FIG. 10) is generated by multiplying the projected image of the photographic pattern 105 (FIG. 7) and the development pattern 801 (FIG. 8), and the developed image is subjected to Fourier transform. A bright spot (FIG. 11) with a shift amount kβ / π at is obtained. When this moire fringe is shown by a mathematical formula,
なお、モアレ現像方式では、パターンのシフトによって得られるモアレ縞が単一の周波数を有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されないパターン、例えば楕円状のパターンで実現してもよい。 In the moire development method, as long as the moire fringes obtained by pattern shifting have a single frequency, the moire development method may be realized by a pattern that is not limited to the Fresnel zone plate or the Gabor zone plate, for example, an elliptical pattern. .
〈ノイズキャンセル〉
式(6)から式(7)への変換、また式(8)から式(9)への変換において信号成分に着目して話を進めたが、実際には信号成分以外の項が現像を阻害する。そこで、フリンジスキャンに基づくノイズキャンセルを行う。
<Noise cancellation>
In the conversion from the expression (6) to the expression (7) and the conversion from the expression (8) to the expression (9), the discussion proceeded with attention to the signal component, but in reality, terms other than the signal component are developed. Inhibit. Therefore, noise cancellation based on fringe scanning is performed.
フリンジスキャンのためには、撮影用パターン105として初期位相Φの異なる複数のパターンを使用する必要がある。図12は、フリンジスキャンにおける初期位相の組合せの一例を示す図である。ここでは、Φ=0、π/2、π、3π/2となる4位相を用いて撮影したセンサ画像を以下の式に従って演算すると、複素数のセンサ画像(複素センサ画像)が得られる。
For fringe scanning, it is necessary to use a plurality of patterns having different initial phases Φ as the
同様に相関現像方式についても確認すると、式(10)、および式(11)のフーリエ変換はそれぞれ、 Similarly, confirming the correlation development method, the Fourier transforms of the equations (10) and (11) are respectively
なお、以上の例では、4位相の複数のパターンを使用して説明したが、Φは0〜2πの間の角度を等分するように設定すればよく、この4位相に限定するものではない。 In the above example, a description has been given using a plurality of patterns of four phases. However, Φ may be set so as to equally divide the angle between 0 and 2π, and is not limited to these four phases. .
以上の複数パターンによる撮影を実現するには、時分割でパターンを切り替える方法(時分割フリンジスキャン)と、空間分割でパターンを切り替える方法(空間分割フリンジスキャン)がある。 In order to realize the above-described photographing with a plurality of patterns, there are a method of switching patterns by time division (time division fringe scan) and a method of switching patterns by space division (space division fringe scan).
時分割フリンジスキャンを実現するには、例えば、電気的に図12に示す複数の初期位相を切り替えて表示することが可能(すなわちパターンを変更可能)な液晶表示素子などで、撮影用パターン105を構成する。撮像部102は、この液晶表示素子の切替タイミングと画像センサ103のシャッタタイミングを同期して制御し、フリンジスキャン処理部106は、4枚の画像を取得後にフリンジスキャン演算を実施する。
In order to realize the time-division fringe scan, for example, the photographing
対して、空間分割フリンジスキャンを実現するには、例えば図13(空間分割フリンジスキャンにおける撮影用パターン105の一例を示す図)に示すように、複数の初期位相を有する撮影用パターン105を使用する。撮像部102は、画像センサ103のシャッタタイミングを制御し、フリンジスキャン処理部106は、1枚の画像を取得後、当該取得画像をそれぞれの初期位相のパターンに対応して4枚に分割し、フリンジスキャン演算を実施する。
On the other hand, in order to realize the space division fringe scan, for example, as shown in FIG. 13 (a diagram showing an example of the
続いて、フリンジスキャン処理部106でのフリンジスキャン演算について説明する。図14は、フリンジスキャン処理部106の処理例を示すフローチャートである。
Next, the fringe scan calculation in the fringe
まず、フリンジスキャン処理部106は、画像センサ103から出力される複数位相パターンのセンサ画像(空間分割フリンジスキャンの場合は1枚、時分割フリンジスキャンの場合は複数枚)を取得する。フリンジスキャン処理部106は、空間分割フリンジスキャンを使用する場合には取得したセンサ画像を位相ごとに分割し(1401)、時分割フリンジスキャンを使用する場合には処理1401は実施しない。次に、フリンジスキャン処理部106は、出力用の複素センサ画像を初期化する(1402)。
First, the fringe
続いて、フリンジスキャン処理部106は、初期位相ごとに、処理1403〜1405を繰り返す。例えば、図12に示したような4位相を用いたフリンジスキャンでは、Φ=0、π/2、π、3π/2の4回繰り返す。フリンジスキャン処理部106は、対象の初期位相Φのセンサ画像を取得し(1403)、その初期位相Φに応じたexp(iΦ)を乗算し(1404)、乗算結果を複素センサ画像に加算する(1405)。フリンジスキャン処理部106は、全ての初期位相についての処理を終了したか否かを判定し(1406)、終了していない場合は処理を1403に戻し(1406でNO)、終了した場合は処理を1407に進める(1406でYES)。
Subsequently, the fringe
最後に、フリンジスキャン処理部106は、複素センサ画像を出力する(1407)。以上のフリンジスキャン処理部106での処理は、式(10)に相当する。
Finally, the fringe
次に、画像処理部107での画像処理について説明する。図15は、相関現像方式による画像処理部107の処理例を示すフローチャートである。
Next, image processing in the
まず、画像処理部107は、フリンジスキャン処理部106から出力される複素センサ画像を取得し、複素センサ画像に対して2次元高速フーリエ変換(FFT:Fast Fourier Transform)演算を実施する(1501)。次に、画像処理部107は、現像処理に使用する現像用パターン801を生成し、2次元FFT演算した複素センサ画像に乗算し(1502)、逆2次元FFT演算を実施する(1503)。この演算結果は複素数となるため、画像処理部107は、絶対値化もしくは実部を取り出して撮影対象の像を実数化して現像(復元)する(1504)。その後、画像処理部107は、得られた現像画像に対してコントラスト強調処理(1505)、カラーバランス調整(1506)などを実施し、撮影画像として出力する。以上により、相関現像方式による画像処理部107の画像処理が終了となる。
First, the
これに対して、図16は、モアレ現像方式による画像処理部107の処理例を示すフローチャートである。
On the other hand, FIG. 16 is a flowchart showing a processing example of the
まず、画像処理部107は、フリンジスキャン処理部106から出力される複素センサ画像を取得する。画像処理部107は、現像処理に使用する現像用パターン801を生成して複素センサ画像に乗算し(1601)、2次元FFT演算により周波数スペクトルを求め(1602)、この周波数スペクトルのうち必要な周波数領域のデータを切り出す(1603)。以降の処理は図15における処理1504〜1506の処理と同様である。以上により、モアレ現像方式による画像処理部107の画像処理が終了となる。
First, the
〈有限距離物体の撮影原理〉
図17は、物体が無限距離にある場合に撮影用パターン105が投影されることを説明する図である。図17は、これまで述べた被写体が遠い場合における撮影用パターン105の画像センサ103への射影の様子を示している。遠方の物体を構成する点1701からの球面波は、十分に長い距離を伝搬する間に平面波となり撮影用パターン105を照射し、その投影像1702が画像センサ103に投影される場合、投影像は撮影用パターン105とほぼ同じ形状である。結果、投影像1702に対して、現像用パターンを用いて現像処理を行うことにより、単一の輝点を得ることが可能である。
<Principle of photographing a finite distance object>
FIG. 17 is a diagram for explaining that the
一方、有限距離の物体に対する撮像について説明する。図18は、物体が有限距離にある場合に撮影用パターン105が拡大されることを説明する図である。物体を構成する点1801からの球面波が撮影用パターン105を照射し、その投影像1802が画像センサ103に投影される場合、投影像はほぼ一様に拡大される。なお、この拡大率αは、撮影用パターン105から点1801までの距離fを用いて、
On the other hand, imaging for a finite distance object will be described. FIG. 18 is a diagram illustrating that the
さらに、本構成によれば、撮影後に任意の距離にフォーカスを合わせることも可能となる。図19は、フォーカス機能を有する撮像装置101の構成例を示す図である。図1と異なり、撮像装置101は、フォーカス設定部1901を備える。フォーカス設定部1901は、撮像装置101に備え付けられた摘み等のハードウェアスイッチやGUI(Graphical User Interface)の操作により入力されるフォーカス距離を、コントローラ108を介して取得可能であり、フォーカス距離情報を画像処理部107に出力する。フォーカス設定部1901は、コントローラ108内で実現されてもよい。
Furthermore, according to this configuration, it is possible to focus on an arbitrary distance after shooting. FIG. 19 is a diagram illustrating a configuration example of the
さらに、このように撮影後のフォーカス調整が可能ということは、奥行情報を有しているということであり、オートフォーカスや測距といった様々な機能を画像処理部107において実現することが可能になる。このようなフォーカス調整をはじめとする機能を実現する上では、現像用パターン801の係数βを自由に変更することが必要となるが、本実施形態で説明したフリンジスキャン処理部106における処理のように、センサ画像だけを用いてフリンジスキャン演算を実施することにより、現像用パターン801を用いた画像処理を独立して実施することが可能となり、処理を簡易化することができる。すなわち撮像後にフォーカス調整等を行おうとした際、画像処理部にてフリンジスキャンを再度行うことなく、かつ複素センサ画像に対し現像用パターンを演算するため演算量を大幅に削減することができる。
Furthermore, the fact that focus adjustment after shooting is possible in this way means that depth information is included, and various functions such as autofocus and distance measurement can be realized in the
本実施形態に係る方法・構成によれば、撮像後のフォーカス調整、オートフォーカス、および測距の画像処理と、フリンジスキャン処理とを分離して実施可能な撮像装置を実現することが可能となる。すなわち撮像後にフォーカス調整等を行おうとした際、画像処理部にてフリンジスキャンを再度行うことなく、かつ複素センサ画像に対し現像用パターンを演算するため演算量を大幅に削減することができる。 According to the method and configuration according to the present embodiment, it is possible to realize an imaging apparatus capable of separately performing focus adjustment, autofocus, and ranging image processing after imaging and fringe scanning processing. . In other words, when focus adjustment or the like is performed after imaging, the amount of calculation can be greatly reduced because the development pattern is calculated for the complex sensor image without performing the fringe scan again in the image processing unit.
[第2実施形態]
第1実施形態の撮像装置101では、フォーカス調整、オートフォーカス、測距などの高機能化により、画像処理部107の処理が重くなり、さらに、撮像装置101のサイズ、コスト、消費電力が大きくなってしまう可能性がある。そこで、第2実施形態では、撮像装置101の処理、サイズ、コスト、消費電力等の少なくとも1つを低減するための処理分割方法について説明する。以下、第1実施形態と異なる点を中心に説明する。
[Second Embodiment]
In the
図20は、第2実施形態に係る撮像システムの構成例を示す図である。撮像システムは、第1実施形態の撮像装置101を、送信側装置である撮像装置2001と受信側装置である画像処理装置2002に分割したものである。本撮像システムにおいて、撮像装置2001と画像処理装置2002は、有線もしくは無線もしくはこれらの組み合わせの通信手段、または記憶媒体を介してデータを送受信する。通信手段は、例えば、LAN(Local Area Network)、インターネット等の様々な通信ネットワークの1つ以上の組み合わせで構成できる。この場合、画像処理装置2002は、例えばサーバコンピュータで実現でき、このサーバコンピュータは、複数の撮像装置2001と通信することができてもよい。
FIG. 20 is a diagram illustrating a configuration example of an imaging system according to the second embodiment. The imaging system is obtained by dividing the
撮像装置2001は、撮像部102、及びフリンジスキャン処理部106に加え、データ送信部2003を有する。データ送信部2003は、フリンジスキャン処理部106が出力した複素センサ画像を、所定の通信ネットワークあるいは記憶媒体に伝送する形式に変換して送信する。データ送信部2003は、例えば、有線もしくは無線LANの通信規格に準拠したインターフェイスであってもよいし、移動体通信網の通信規格に準拠したインターフェイスであってもよいし、USB(Universal Serial Bus)などの通信規格に準拠したインターフェイスであってもよい。撮像装置2001は、異なる通信規格の複数のデータ送信部2003を備えてもよく、通信環境に合わせて使い分けてもよい。
The
画像処理装置2002は、画像処理部107、およびコントローラ108に加え、データ受信部2004を有する。データ受信部2004は、撮像装置2001から送信されたデータ(複素センサ画像)を受信し、画像処理部107で扱う所定の形式に変換して出力する。データ受信部2004は、上述したデータ送信部2003と同様のインターフェイスである。画像処理部107は、データ受信部2004から出力される複素センサ画像を用いて、フォーカス調整、オートフォーカス、測距などの機能を実現する。
The
本実施形態に係る方法・構成によれば、センサ画像を外部装置に伝送することにより、撮像装置2001の構成を簡単にでき、小型で軽量、低コストを実現することができる。また、フリンジスキャン演算後の複素センサ画像を外部装置に伝送することで、例えば撮像装置2001より高速な画像処理装置2002で、フォーカス調整、オートフォーカス、測距などの高機能化を実現できる。
According to the method and configuration according to the present embodiment, by transmitting a sensor image to an external device, the configuration of the
[第3実施形態]
第2実施形態の撮像システムでは、撮像装置2001と画像処理装置2002の間の通信データ量が大きく、通信に必要な伝送帯域および消費電力が大きくなってしまう可能性がある。そこで、第3実施形態では、通信データ量を小さくするためのデータ量低減方法について説明する。以下、第2実施形態と異なる点を中心に説明する。
[Third Embodiment]
In the imaging system of the second embodiment, the amount of communication data between the
まず、センサ画像のデータ量を低減する方法について述べる。図21は、ある被写体を撮影した場合の画像センサ103の出力であるセンサ画像の例を示す。図22は、センサ画像の輝度分布の一例を示す図であり、図21のABを結んだ直線上の各ピクセル位置の輝度をマッピングした結果を示す。このように、センサ画像は、センサダイナミックレンジに対して信号成分がレンジ中央付近に集中していることから、データ圧縮を行い易い形式であると言える。具体的には、信号成分の最大値と最小値の範囲内のデータだけを抽出し、それ以外のデータを削減することにより、必要なビット数を低減する(例えば上位ビットを削減する)などして、データ量低減が可能である。
First, a method for reducing the data amount of the sensor image will be described. FIG. 21 shows an example of a sensor image that is an output of the
しかし、撮影する条件によっては、図23(センサ画像の輝度分布の他の例を示す図)に示すように、センサ上に輝度ムラが発生し、信号成分がセンサダイナミックレンジ全体に分布する場合があり、この場合にはデータ削減効率が悪くなる。 However, depending on the shooting conditions, as shown in FIG. 23 (a diagram showing another example of the luminance distribution of the sensor image), luminance unevenness may occur on the sensor, and the signal component may be distributed over the entire sensor dynamic range. In this case, the data reduction efficiency is deteriorated.
そこで、フリンジスキャン処理部106でのフリンジスキャン演算が有効である。例えば、図12に示したような4位相を用いたフリンジスキャンでは、Φ=0、π/2、π、3π/2の位相を使用しており、Φ=0とπ、ならびにΦ=π/2と3π/2のように位相差πの関係にある位相は、透過・非透過が反転しているパターンである。すなわち、輝度ムラは同じでパターンが反転しているので、この関係にあるセンサ画像間で減算を行えば、図24(複素センサ画像の輝度分布の一例を示す図)に示すように、輝度ムラが除去され平均値が略0となる信号成分を得ることが可能である。これにより、常に信号成分が所定の範囲内にあるデータに制限することが可能であり、データ量低減処理を効率的に実施可能である。なお、このΦ=0とπ、ならびにΦ=π/2と3π/2の減算結果とは、式(10)からも解るとおり、フリンジスキャン処理部106の出力である複素センサ画像の実部ならびに虚部のことである。
Therefore, the fringe scan calculation in the fringe
次に、この複素センサ画像のデータ量を低減する方法について詳細に説明する。図25は、複素センサ画像のデータを複素空間上にマッピングした例を示す。このように、フリンジスキャン演算後の複素センサ画像は複素空間上に分布している。図26は、当該複素センサ画像の実部データのヒストグラムの例を示す。この分布2601の最大値(Imax)と最小値(Imin)を算出し、この範囲に存在する実部データのみを出力すればよい。当該複素センサ画像の虚部データについても同様である。
Next, a method for reducing the data amount of the complex sensor image will be described in detail. FIG. 25 shows an example in which complex sensor image data is mapped onto a complex space. As described above, the complex sensor image after the fringe scan calculation is distributed in the complex space. FIG. 26 shows an example of a histogram of real part data of the complex sensor image. It is only necessary to calculate the maximum value (I max ) and the minimum value (I min ) of this
なお、センサ画像にはパルス的なノイズも含まれることを鑑みると、最大値と最小値の範囲のデータを出力するだけでは、データ量を十分に低減できない可能性がある。また、本実施形態においては、現像後のデータはセンサ全面に散らばっていると考えられるため、センサ画像の一部のデータが不足していても現像後の品質に大きな影響を及ぼさない。よって、図26の分布2601において0を中心に分布の標準偏差σ内にある範囲のデータを出力する、もしくは3σの範囲のデータを出力するなど、分布する全てのデータを出力しない方法を取ってもよい。これにより、データ量をさらに低減可能である。
In view of the fact that the sensor image includes pulse-like noise, there is a possibility that the data amount cannot be sufficiently reduced only by outputting the data in the range of the maximum value and the minimum value. Further, in this embodiment, since the data after development is considered to be scattered over the entire surface of the sensor, even if a part of the data of the sensor image is insufficient, the quality after development is not greatly affected. Therefore, in the
また、上記の最大値と最小値、または標準偏差ではなく、予め設定した範囲・精度に出力データを制限してもよい。例えば予め設定した範囲に制限する時、複素センサ画像のビット数が13ビットであった場合に、常に上位5ビットを削減し8ビットとして出力する、といった方法である。また例えば予め設定した精度に制限する時、複素センサ画像のビット数が13ビットであった場合に、常に下位5ビットを削減、もしくは丸め処理し8ビットとして出力する、といった方法である。これにより、最大値、最小値、標準偏差等を計算する必要がなくなり、演算量を低減可能である。 Further, the output data may be limited to a preset range / accuracy instead of the above-described maximum and minimum values or standard deviation. For example, when limiting to a preset range, when the number of bits of the complex sensor image is 13 bits, the upper 5 bits are always reduced and output as 8 bits. For example, when limiting to a preset accuracy, when the number of bits of the complex sensor image is 13 bits, the lower 5 bits are always reduced or rounded and output as 8 bits. Thereby, there is no need to calculate the maximum value, the minimum value, the standard deviation, etc., and the amount of calculation can be reduced.
また、動画を処理する場合、上記の最大値、最小値、標準偏差等は、処理中のフレームよりも前に処理したフレームの結果を用いて範囲・精度を決定し、出力データを制限してもよい。これにより、演算処理の遅延による影響を抑え、かつデータ量低減を効率よく実施可能である。 In addition, when processing moving images, the maximum value, minimum value, standard deviation, etc. described above are determined by using the results of frames processed before the frame being processed, and the output data is limited. Also good. Thereby, it is possible to suppress the influence due to the delay of the arithmetic processing and efficiently reduce the data amount.
図27は、複素センサ画像のデータを複素空間上にマッピングした他の例を示す。図28は、当該複素センサ画像の実部データのヒストグラムの例を示す。このように、分布2801の平均値μ0が0でない可能性もある。この場合には、データからμ0を減算してから出力してもよい。本実施形態では、画像処理部107がフーリエ変換を主とする現像処理を行うため、輝度のオフセットは現像画像に直接的な影響を及ぼさない。影響があるとすれば、モアレ現像方式における周波数スペクトルの直流成分としてピークを持つ可能性があるが、これは該当ピクセルをマスクするなどして解決可能である。
FIG. 27 shows another example in which complex sensor image data is mapped onto a complex space. FIG. 28 shows an example of a histogram of real part data of the complex sensor image. Thus, there is a possibility that the average value μ0 of the
また、図25、図27では、複素空間で等方的な分布を有する例について記載したが、撮影状況によっては図29、図30に示すように分布に偏りが発生する場合もある。図29、図30は、複素センサ画像のデータを複素空間上にマッピングしたさらに他の例を示す。図29に示すような異方的な分布においては、偏角の平均値θ0が0のときは、実部と虚部で異なる範囲で出力データを制限すればよいが、偏角の平均値θ0が0でない場合には、複素センサ画像を極座標変換するのが有効である。極座標変換した後、偏角(−θ0)を乗じ、実部と虚部で異なる範囲で出力データを制限すればよい。もしくは、複素センサ画像の位相データの範囲・精度を制限し、極座標の振幅・位相のデータを出力すればよい。同様に図30に示すような環状の分布においても、複素センサ画像を極座標変換するのが有効である。複素センサ画像の振幅の平均値r0を中心に振幅データの範囲・精度を制限し、極座標の振幅・位相のデータを出力すればよい。 25 and 27 describe an example having an isotropic distribution in a complex space, but depending on the shooting situation, the distribution may be biased as shown in FIGS. 29 and 30. 29 and 30 show still another example in which the data of the complex sensor image is mapped on the complex space. In the anisotropic distribution as shown in FIG. 29, when the average value θ 0 of the declination is 0, the output data may be limited in different ranges between the real part and the imaginary part. If θ 0 is not 0, it is effective to convert the complex sensor image into polar coordinates. After the polar coordinate conversion, the output data may be limited within a range different between the real part and the imaginary part by multiplying by the declination angle (−θ 0 ). Alternatively, the range / accuracy of the phase data of the complex sensor image may be limited, and polar coordinate amplitude / phase data may be output. Similarly, in the annular distribution as shown in FIG. 30, it is effective to convert the complex sensor image into polar coordinates. Limit the scope and accuracy of the amplitude data around the average value r 0 of the amplitude of the complex sensor image may output the data of polar coordinates of amplitude and phase.
さらに、図29に示したような分布の偏りが極端な場合には、実部・虚部のどちらか一方、あるいは振幅・位相のどちらか一方のデータだけを出力する方法を取ってもよい。これにより、大幅なデータ量低減が可能となる。 Furthermore, when the distribution bias as shown in FIG. 29 is extreme, a method of outputting only one of the real part and the imaginary part, or only one of the amplitude and the phase may be employed. As a result, the data amount can be significantly reduced.
以上のデータ低減処理を実施するための構成について説明する。図31は、第3実施形態に係る撮像システムの構成例を示す図である。第2実施形態の撮像システム(図20)と異なる点は、撮像装置2001に替わる撮像装置3101である。撮像装置3101は、撮像装置2001と異なり、データ量低減部3102を備える。撮像装置3101では、フリンジスキャン処理部106が複素センサ画像を出力し、データ量低減部3102が複素センサ画像のビット数を低減するなどしてデータ量を低減し、データ送信部2003がデータ量低減された複素センサ画像を外部装置に送信する。
A configuration for performing the above data reduction processing will be described. FIG. 31 is a diagram illustrating a configuration example of an imaging system according to the third embodiment. A difference from the imaging system (FIG. 20) of the second embodiment is an
図32は、データ量低減部3102の処理例を示すフローチャートである。まず、データ量低減部3102は、フリンジスキャン処理部106から出力される複素センサ画像を取得し、平均値μ0が0でない場合は平均値μ0を減算する(3201)。次に、データ量低減部3102は、複素センサ画像を虚部・実部に分離する(3202)。続いて、データ量低減部3102は、虚部・実部それぞれについて、最大値・最小値を求めるなどして出力データ範囲を決定し(3203)、その範囲に必要なビット精度を決定した後(3204)、決定した範囲・精度で出力データのビット数を制限して出力する(3205)。
FIG. 32 is a flowchart illustrating a processing example of the data amount
図33は、データ量低減部3102の処理の他の例を示すフローチャートである。図33が図32の処理と異なるのは、極座標変換して出力する点である。まず、データ量低減部3102は、フリンジスキャン処理部106から出力される複素センサ画像を取得し、平均値μ0が0でない場合は平均値μ0を減算する(3201)。次に、データ量低減部3102は、複素センサ画像を極座標に変換した後、振幅・位相に分離する(3301)。続いて、データ量低減部3102は、振幅・位相それぞれについて、最大値・最小値を求めるなどして出力データ範囲を決定し(3302)、その範囲に必要なビット精度を決定した後(3303)、決定した範囲・精度で出力データのビット数を制限して出力する(3304)。これにより、分布が複素空間において異方的である場合にデータ低減効率を上げることが可能である。
FIG. 33 is a flowchart illustrating another example of processing of the data amount
図34は、データ量低減部3102の処理のさらに他の例を示すフローチャートである。図34のフローチャートは、処理3301と処理3302の間に処理3401が追加されている点で、図33と異なる。データ量低減部3102は、分離した振幅・位相データから、分布の形状に応じた位相平均値θ0・振幅平均値r0を減算する(3401)。これにより、さらに効率的にデータ低減を行うことができる。
FIG. 34 is a flowchart illustrating still another example of the processing of the data amount
本実施形態に係る方法・構成によれば、センサ画像データをビット数削減することによりデータ通信量を小さくし、ネットワーク伝送にかかる伝送帯域および消費電力を低減することができる。 According to the method / configuration according to the present embodiment, the amount of data communication can be reduced by reducing the number of bits of sensor image data, and the transmission band and power consumption for network transmission can be reduced.
以上、本発明について複数の実施形態を用いて説明した。もちろん、本発明は上記の実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 The present invention has been described using a plurality of embodiments. Of course, the present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described.
また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD(Digital Versatile Disc)等の記録媒体に置くことができる。 Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function is stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD (Digital Versatile Disc). Can be put.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
本発明は、撮像装置、撮像方法、および画像処理装置に限られず、撮像システム、画像処理方法、コンピュータ読み取り可能なプログラムなどの様々な態様で提供できる。 The present invention is not limited to an imaging device, an imaging method, and an image processing device, and can be provided in various modes such as an imaging system, an image processing method, and a computer-readable program.
101…撮像装置、102…撮像部、103…画像センサ、103a…画素、104…パターン基板、105…撮影用パターン、106…フリンジスキャン処理部、107…画像処理部、108…コントローラ、301…支持部材、801…現像用パターン、1701…点、1702…投影像、1801…点、1802…投影像、1901…フォーカス設定部、2001…撮像装置、2002…画像処理装置、2003…データ送信部、2004…データ受信部、2601…分布、2801…分布、3101…撮像装置、3102…データ量低減部
DESCRIPTION OF
Claims (23)
前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、
前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、
前記複素センサ画像を送信するデータ送信部とを有することを特徴とする撮像装置。 A modulator that modulates the intensity of light based on a grating pattern;
An image sensor that converts the light transmitted through the modulator into an electrical signal to generate a sensor image;
A complex sensor image processing unit for generating a complex sensor image having a complex number from the sensor image;
An image pickup apparatus comprising: a data transmission unit that transmits the complex sensor image.
前記複素センサ画像処理部は、少なくとも2つ以上のそれぞれ異なる位相パターンの前記センサ画像から前記複素センサ画像を生成することを特徴とする撮像装置。 The imaging apparatus according to claim 1,
The imaging apparatus, wherein the complex sensor image processing unit generates the complex sensor image from at least two sensor images having different phase patterns.
下記式に基づき、前記複素センサ画像処理部は前記複素センサ画像を生成することを特徴とする撮像装置。
The complex sensor image processing unit generates the complex sensor image based on the following expression.
前記複素センサ画像のデータ量を低減するデータ量低減部を有することを特徴とする撮像装置。 The imaging apparatus according to claim 1,
An image pickup apparatus comprising: a data amount reducing unit that reduces the data amount of the complex sensor image.
前記データ量低減部は、前記複素センサ画像を実部と虚部に分離してデータ量を低減することを特徴とする撮像装置。 The imaging apparatus according to claim 4,
The data amount reducing unit reduces the data amount by separating the complex sensor image into a real part and an imaginary part.
前記データ量低減部は、前記複素センサ画像を振幅と位相に分離してデータ量を低減することを特徴とする撮像装置。 The imaging apparatus according to claim 4,
The data amount reduction unit reduces the data amount by separating the complex sensor image into an amplitude and a phase.
前記データ量低減部は、前記複素センサ画像の最大値と最小値に基づいてデータ範囲ならびに精度を決定し、出力ビット数を低減することを特徴とする撮像装置。 The imaging apparatus according to claim 4,
The data amount reducing unit determines a data range and accuracy based on a maximum value and a minimum value of the complex sensor image, and reduces the number of output bits.
前記データ量低減部は、前記複素センサ画像の分布の標準偏差に基づいてデータ範囲ならびに精度を決定し、出力ビット数を低減することを特徴とする撮像装置。 The imaging apparatus according to claim 4,
The data amount reduction unit determines a data range and accuracy based on a standard deviation of the distribution of the complex sensor image, and reduces the number of output bits.
前記撮像装置は、第1の格子パターンに基づいて光の強度を変調する変調器と、前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、前記複素センサ画像を送信するデータ送信部とを有し、
前記画像処理装置は、
前記複素センサ画像を受信するデータ受信部と、
前記複素センサ画像と第2の格子パターンのデータとの演算に基づいて像を復元する画像処理部とを有することを特徴とする画像処理装置。 An image processing device that communicates with an imaging device,
The imaging apparatus includes: a modulator that modulates light intensity based on a first grating pattern; an image sensor that converts light transmitted through the modulator into an electrical signal to generate a sensor image; and A complex sensor image processing unit that generates a complex sensor image having a complex number; and a data transmission unit that transmits the complex sensor image;
The image processing apparatus includes:
A data receiver for receiving the complex sensor image;
An image processing apparatus comprising: an image processing unit that restores an image based on a calculation of the complex sensor image and data of a second lattice pattern.
前記複素センサ画像処理部は、少なくとも2以上のそれぞれ異なる位相パターンの前記センサ画像から前記複素センサ画像を生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 9,
The complex sensor image processing unit generates the complex sensor image from at least two sensor images having different phase patterns.
下記式に基づき、前記複素センサ画像処理部は前記複素センサ画像を生成することを特徴とする画像処理装置。
The complex sensor image processing unit generates the complex sensor image based on the following expression.
前記撮像装置は、前記複素センサ画像のデータ量を低減するデータ量低減部を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 9,
The image processing apparatus includes a data amount reducing unit that reduces a data amount of the complex sensor image.
前記データ量低減部は、前記複素センサ画像を実部と虚部に分離してデータ量を低減することを特徴とする画像処理装置。 The image processing apparatus according to claim 12,
The data amount reducing unit reduces the data amount by separating the complex sensor image into a real part and an imaginary part.
前記データ量低減部は、前記複素センサ画像を振幅と位相に分離してデータ量を低減することを特徴とする画像処理装置。 The image processing apparatus according to claim 12,
The data amount reduction unit reduces the data amount by separating the complex sensor image into an amplitude and a phase.
前記データ量低減部は、前記複素センサ画像の最大値と最小値に基づいてデータ範囲ならびに精度を決定し、出力ビット数を低減する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 12,
The data amount reducing unit determines a data range and accuracy based on a maximum value and a minimum value of the complex sensor image, and reduces the number of output bits.
前記データ量低減部は、前記複素センサ画像の分布の標準偏差に基づいてデータ範囲ならびに精度を決定し、出力ビット数を低減することを特徴とする画像処理装置。 The image processing apparatus according to claim 12,
The data amount reduction unit determines a data range and accuracy based on a standard deviation of the distribution of the complex sensor image, and reduces the number of output bits.
前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、
前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、
前記複素センサ画像と第2の格子パターンのデータとの演算に基づいて像を復元する画像処理部とを有することを特徴とする撮像装置。 A modulator that modulates the intensity of the light based on the first grating pattern;
An image sensor that converts the light transmitted through the modulator into an electrical signal to generate a sensor image;
A complex sensor image processing unit for generating a complex sensor image having a complex number from the sensor image;
An imaging apparatus comprising: an image processing unit that restores an image based on a calculation of the complex sensor image and data of a second lattice pattern.
前記複素センサ画像処理部は、少なくとも2以上のそれぞれ異なる位相パターンの前記センサ画像から前記複素センサ画像を生成することを特徴とする撮像装置。 The imaging device according to claim 17,
The complex sensor image processing unit generates the complex sensor image from at least two sensor images having different phase patterns.
下記式に基づき前記複素センサ画像処理部は前記複素センサ画像を生成することを特徴とする撮像装置。
The complex sensor image processing unit generates the complex sensor image based on the following expression.
前記変調された光を電気信号に変換してセンサ画像を生成する画像生成ステップと、
前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理ステップと、
前記複素センサ画像を送信するデータ送信ステップとを有することを特徴とする撮像方法。 A modulation step for modulating the intensity of the light based on the first grating pattern;
An image generation step of converting the modulated light into an electrical signal to generate a sensor image;
A complex sensor image processing step of generating a complex sensor image having a complex number from the sensor image;
And a data transmission step of transmitting the complex sensor image.
前記複素センサ画像処理ステップは、少なくとも2以上のそれぞれ異なる位相パターンの前記センサ画像から前記複素センサ画像を生成することを特徴とする撮像方法。 The imaging method according to claim 20, wherein
The complex sensor image processing step generates the complex sensor image from at least two sensor images having different phase patterns.
下記式に基づき、前記複素センサ画像処理ステップで前記複素センサ画像を生成することを特徴とする撮像方法。
An imaging method, wherein the complex sensor image is generated in the complex sensor image processing step based on the following equation.
前記複素センサ画像と第2の格子パターンのデータとの演算に基づいて像を復元する画像処理ステップとを有することを特徴とする撮像方法。 The imaging method according to claim 20, wherein
An image processing method comprising: an image processing step of restoring an image based on a calculation of the complex sensor image and data of a second lattice pattern.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018033062A JP2019149674A (en) | 2018-02-27 | 2018-02-27 | Imaging apparatus, imaging method, and image processing apparatus |
CN201910035165.5A CN110198391B (en) | 2018-02-27 | 2019-01-15 | Image pickup device, image pickup method, and image processing device |
US16/278,857 US10951793B2 (en) | 2018-02-27 | 2019-02-19 | Imaging device, imaging method, and image processing device generating a complex sensor image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018033062A JP2019149674A (en) | 2018-02-27 | 2018-02-27 | Imaging apparatus, imaging method, and image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019149674A true JP2019149674A (en) | 2019-09-05 |
Family
ID=67686251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018033062A Pending JP2019149674A (en) | 2018-02-27 | 2018-02-27 | Imaging apparatus, imaging method, and image processing apparatus |
Country Status (3)
Country | Link |
---|---|
US (1) | US10951793B2 (en) |
JP (1) | JP2019149674A (en) |
CN (1) | CN110198391B (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6999820B2 (en) * | 2018-08-08 | 2022-01-19 | マクセル株式会社 | Imaging device, imaging system, and imaging method |
US11740468B2 (en) * | 2018-09-18 | 2023-08-29 | Maxell, Ltd. | Distance measuring apparatus, imaging device, distance measuring system, distance measuring method, and imaging method |
US12333737B2 (en) * | 2021-09-23 | 2025-06-17 | Rolls-Royce Corporation | Powder flow measurement in additive manufacturing systems |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6943827B2 (en) * | 2001-04-16 | 2005-09-13 | Kddi Corporation | Apparatus for monitoring quality of picture in transmission |
JP2014045869A (en) * | 2012-08-30 | 2014-03-17 | Canon Inc | Imaging apparatus, image processing device, and image processing method |
CN103604373B (en) * | 2013-11-20 | 2016-04-20 | 沈阳工业大学 | Optical grating Moire fringe small echo divided method and grating displacement measuring device |
CN113726997A (en) * | 2015-06-17 | 2021-11-30 | 麦克赛尔株式会社 | Imaging device and image generation method |
CN108702440B (en) | 2016-02-26 | 2021-06-29 | 株式会社日立制作所 | camera |
JP6571266B2 (en) | 2016-03-02 | 2019-09-04 | 株式会社日立製作所 | Imaging device |
-
2018
- 2018-02-27 JP JP2018033062A patent/JP2019149674A/en active Pending
-
2019
- 2019-01-15 CN CN201910035165.5A patent/CN110198391B/en active Active
- 2019-02-19 US US16/278,857 patent/US10951793B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10951793B2 (en) | 2021-03-16 |
CN110198391A (en) | 2019-09-03 |
CN110198391B (en) | 2021-07-27 |
US20190268507A1 (en) | 2019-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10551532B2 (en) | Imaging device and imaging method | |
JP2018098623A (en) | Imaging device | |
JP7061883B2 (en) | Image display device and image display method | |
US11743480B2 (en) | Imaging apparatus and imaging system | |
CN110198391B (en) | Image pickup device, image pickup method, and image processing device | |
CN110324513B (en) | Image pickup apparatus, image pickup module, and image pickup method | |
CN109900249B (en) | Distance measuring device and distance measuring method | |
JP6646619B2 (en) | Imaging device | |
JP7097787B2 (en) | Imaging device and imaging method | |
JP2023016864A (en) | Imaging apparatus and method | |
JP6807281B2 (en) | Imaging device, imaging system, and imaging method | |
JP6864604B2 (en) | Imaging device | |
JP6807286B2 (en) | Imaging device and imaging method | |
JP7146698B2 (en) | Imaging device, imaging method, transmitting device of imaging system, and receiving device of imaging system | |
US20220263992A1 (en) | Imaging device, portable terminal, and exposure control method | |
JP7159118B2 (en) | Imaging device | |
CN110278350B (en) | camera | |
WO2020178905A1 (en) | Imaging device and imaging method | |
JP7065761B2 (en) | Distance measuring device and distance measuring method | |
JP7278454B2 (en) | image display device | |
JP2022180800A (en) | Imaging device |