[go: up one dir, main page]

JP2019149674A - Imaging apparatus, imaging method, and image processing apparatus - Google Patents

Imaging apparatus, imaging method, and image processing apparatus Download PDF

Info

Publication number
JP2019149674A
JP2019149674A JP2018033062A JP2018033062A JP2019149674A JP 2019149674 A JP2019149674 A JP 2019149674A JP 2018033062 A JP2018033062 A JP 2018033062A JP 2018033062 A JP2018033062 A JP 2018033062A JP 2019149674 A JP2019149674 A JP 2019149674A
Authority
JP
Japan
Prior art keywords
image
sensor image
complex sensor
complex
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018033062A
Other languages
Japanese (ja)
Inventor
悠介 中村
Yusuke Nakamura
悠介 中村
和幸 田島
Kazuyuki Tajima
和幸 田島
啓太 山口
Keita Yamaguchi
啓太 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018033062A priority Critical patent/JP2019149674A/en
Priority to CN201910035165.5A priority patent/CN110198391B/en
Priority to US16/278,857 priority patent/US10951793B2/en
Publication of JP2019149674A publication Critical patent/JP2019149674A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/60Systems using moiré fringes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮像後にフォーカス調整等を行おうとする際の演算処理を低減し、レンズレス撮像装置のセンサ画像を伝送して各種機能を実現するのに適した技術を提供する。【解決手段】撮像装置は、格子パターンに基づいて光の強度を変調する変調器と、前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、前記複素センサ画像を送信するデータ送信部とを有する。【選択図】図1The present invention provides a technique suitable for realizing various functions by reducing calculation processing when performing focus adjustment after imaging and transmitting a sensor image of a lensless imaging apparatus. An imaging apparatus includes: a modulator that modulates light intensity based on a lattice pattern; an image sensor that converts light transmitted through the modulator into an electrical signal to generate a sensor image; and A complex sensor image processing unit that generates a complex sensor image having a complex number; and a data transmission unit that transmits the complex sensor image. [Selection] Figure 1

Description

本発明は、撮像装置、撮像方法、および画像処理装置に関する。   The present invention relates to an imaging apparatus, an imaging method, and an image processing apparatus.

本技術分野の背景技術として、国際公開第2017/149687号がある。該公報には、「格子基板を透過する光線の入射角度の検出を容易化することにより、撮像装置の高機能化が可能な撮像装置を得る。撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、前記画像センサの受光面に設けられ、光の強度を変調する変調器と、前記画像センサから出力される画像信号を一時的に格納する画像記憶部と、前記画像記憶部から出力される画像信号の画像処理を行う信号処理部と、を具備し、前記変調器は、複数の同心円から構成される第1の格子パターンを有し、前記信号処理部は、前記画像記憶部から出力される画像信号を、複数の同心円から構成される仮想的な第2の格子パターンで変調することでモアレ縞画像を生成し、フォーカス位置に応じて前記第2の格子パターンの同心円の大きさを変更することを特徴とする撮像装置で解決できる。」と記載されている。   As a background art in this technical field, there is International Publication No. 2017/149687. In this publication, “an imaging device capable of enhancing the functionality of an imaging device by facilitating detection of the incident angle of a light beam that passes through a lattice substrate is obtained. A plurality of pixels arranged in an array on the imaging surface An image sensor that converts an optical image captured into an image signal and outputs the image signal; a modulator that is provided on the light receiving surface of the image sensor and modulates the intensity of light; and an image signal output from the image sensor A first lattice pattern comprising a plurality of concentric circles, and an image storage unit that stores the image signal and a signal processing unit that performs image processing of an image signal output from the image storage unit And the signal processing unit generates a moire fringe image by modulating the image signal output from the image storage unit with a virtual second lattice pattern composed of a plurality of concentric circles, and Depending on the position Can be resolved by the imaging apparatus characterized by changing the size of the concentric grating pattern. It has been described as ".

国際公開第2017/149687号International Publication No. 2017/149687 国際公開第2017/145348号International Publication No. 2017/145348

レンズを使用しないレンズレス撮像装置が、小型かつ低コストを実現できる撮像装置として期待されている。また、撮像装置のネットワーク接続は、画像解析等の撮像装置の適用範囲拡大に必須となってきている。しかし、上述した特許文献1では、レンズレス撮像装置で撮像されたセンサ画像からモアレ縞画像生成時にフォーカス調整(リフォーカス)、オートフォーカス、測距と言った機能を実現する方法に関して述べられている。また特許文献2では、表側格子の位相と裏側格子の位相が、互いに独立にすべての組み合わせで重ね合わされる様に配置することでノイズ除去を行う技術が開示されている。しかし、撮像して得られた画像に対し再度フォーカス調整等を行おうとする場合、現像用パターンの乗算、ノイズ除去のための演算処理を再び行う必要があるため演算処理が膨大になる。   A lensless image pickup apparatus that does not use a lens is expected as an image pickup apparatus that can achieve a small size and low cost. In addition, network connection of imaging devices has become essential for expanding the application range of imaging devices such as image analysis. However, the above-described Patent Document 1 describes a method for realizing functions such as focus adjustment (refocus), autofocus, and distance measurement when generating a moire fringe image from a sensor image captured by a lensless imaging device. . Patent Document 2 discloses a technique for removing noise by arranging the phase of the front-side grating and the phase of the back-side grating so as to be superposed in all combinations independently of each other. However, when focus adjustment or the like is performed again on an image obtained by imaging, it is necessary to perform calculation processing for development pattern multiplication and noise removal again, and the calculation processing becomes enormous.

本発明の目的は、撮像後にフォーカス調整等を行おうとする際の演算処理を低減し、レンズレス撮像装置のセンサ画像を伝送して各種機能を実現するのに適した技術を提供することにある。   An object of the present invention is to provide a technique suitable for realizing various functions by reducing calculation processing when performing focus adjustment after imaging and transmitting a sensor image of a lensless imaging apparatus. .

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。   The present application includes a plurality of means for solving at least a part of the above-described problems. Examples of such means are as follows.

本発明の一態様に係る撮像装置は、格子パターンに基づいて光の強度を変調する変調器と、前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、前記複素センサ画像を送信するデータ送信部とを有する。   An imaging apparatus according to an aspect of the present invention includes a modulator that modulates the intensity of light based on a lattice pattern, an image sensor that converts the light transmitted through the modulator into an electrical signal, and generates a sensor image; A complex sensor image processing unit that generates a complex sensor image having a complex number from the sensor image; and a data transmission unit that transmits the complex sensor image.

本発明によれば、処理を簡易化し、通信データ量を小さくすることにより、レンズレス撮像装置のセンサ画像を伝送して各種機能を実現するのに適した技術を提供することができる。   According to the present invention, it is possible to provide a technique suitable for realizing various functions by transmitting a sensor image of a lensless imaging apparatus by simplifying the processing and reducing the amount of communication data.

上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will become apparent from the following description of embodiments.

第1実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 1st Embodiment. 撮像部の構成例を示す図である。It is a figure which shows the structural example of an imaging part. 撮像部の他の構成例を示す図である。It is a figure which shows the other structural example of an imaging part. 撮影用パターンの一例を示す図である。It is a figure which shows an example of the pattern for imaging | photography. 撮影用パターンの他の例を示す図である。It is a figure which shows the other example of the pattern for imaging | photography. 斜め入射平行光によるパターン基板表面から画像センサへの射影像が面内ずれを生じることを説明する図である。It is a figure explaining that the projection image from the pattern board | substrate surface by an oblique incident parallel light to an image sensor produces in-plane shift | offset | difference. 撮影用パターンの投影像の一例を示す図である。It is a figure which shows an example of the projection image of the pattern for imaging | photography. 現像用パターンの一例を示す図である。It is a figure which shows an example of the pattern for development. 相関現像方式による現像画像の一例を示す図である。It is a figure which shows an example of the image developed by a correlation image development system. モアレ現像方式によるモアレ縞の一例を示す図である。It is a figure which shows an example of the moire fringe by a moire development system. モアレ現像方式による現像画像の一例を示す図である。It is a figure which shows an example of the image developed by the moire development system. フリンジスキャンにおける初期位相の組合せの一例を示す図である。It is a figure which shows an example of the combination of the initial phase in a fringe scan. 空間分割フリンジスキャンにおける撮影用パターンの一例を示す図である。It is a figure which shows an example of the pattern for imaging | photography in a space division | segmentation fringe scan. フリンジスキャン処理部の処理例を示すフローチャートである。It is a flowchart which shows the process example of a fringe scan process part. 相関現像方式による画像処理部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the image process part by a correlation image development system. モアレ現像方式による画像処理部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the image process part by a moire development system. 物体が無限距離にある場合に撮影用パターンが投影されることを説明する図である。It is a figure explaining that a pattern for photography is projected when an object exists in infinite distance. 物体が有限距離にある場合に撮影用パターンが拡大されることを説明する図である。It is a figure explaining an imaging pattern being expanded when an object exists in a finite distance. フォーカス機能を有する撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which has a focus function. 第2実施形態に係る撮像システムの構成例を示す図である。It is a figure which shows the structural example of the imaging system which concerns on 2nd Embodiment. センサ画像の一例を示す図である。It is a figure which shows an example of a sensor image. センサ画像の輝度分布の一例を示す図である。It is a figure which shows an example of the luminance distribution of a sensor image. センサ画像の輝度分布の他の例を示す図である。It is a figure which shows the other example of the luminance distribution of a sensor image. 複素センサ画像の輝度分布の一例を示す図である。It is a figure which shows an example of the luminance distribution of a complex sensor image. 複素センサ画像の複素空間におけるデータの一例を示す図である。It is a figure which shows an example of the data in the complex space of a complex sensor image. 複素センサ画像の実部データのヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of the real part data of a complex sensor image. 複素センサ画像の複素空間におけるデータの他の例を示す図である。It is a figure which shows the other example of the data in the complex space of a complex sensor image. 複素センサ画像の実部データのヒストグラムの他の例を示す図である。It is a figure which shows the other example of the histogram of the real part data of a complex sensor image. 複素センサ画像の複素空間におけるデータのさらに他の例を示す図である。It is a figure which shows the further another example of the data in the complex space of a complex sensor image. 複素センサ画像の複素空間におけるデータのさらに他の例を示す図である。It is a figure which shows the further another example of the data in the complex space of a complex sensor image. 第3実施形態に係る撮像システムの構成例を示す図である。It is a figure which shows the structural example of the imaging system which concerns on 3rd Embodiment. データ量低減部の処理例を示すフローチャートである。It is a flowchart which shows the process example of a data amount reduction part. データ量低減部の処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of a process of the data amount reduction part. データ量低減部の処理のさらに他の例を示すフローチャートである。It is a flowchart which shows the further another example of the process of a data amount reduction part.

以下の実施形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。   In the following embodiments, when it is necessary for the sake of convenience, the description will be divided into a plurality of sections or embodiments. However, unless otherwise specified, they are not irrelevant to each other. Some or all of the modifications, details, supplementary explanations, and the like are related.

また、以下の実施形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。   In the following embodiments, when referring to the number of elements (including the number, numerical value, quantity, range, etc.), unless otherwise specified, the case is clearly limited to a specific number in principle. It is not limited to the specific number, and may be a specific number or more.

さらに、以下の実施形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。   Further, in the following embodiments, it is needless to say that the constituent elements (including element steps and the like) are not necessarily indispensable unless otherwise specified and clearly considered essential in principle. Yes.

同様に、以下の実施形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。   Similarly, in the following embodiments, when referring to the shape and positional relationship of components and the like, the shape and the like of the component are substantially excluding unless explicitly stated or otherwise considered in principle. It shall include those that are approximate or similar to. The same applies to the above numerical values and ranges.

また、実施形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。以下、本発明の各実施形態について図面を用いて説明する。   In all the drawings for explaining the embodiments, the same members are denoted by the same reference symbols in principle, and the repeated explanation thereof is omitted. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
〈無限遠物体の撮影原理〉
図1は、第1実施形態に係る撮像装置101の構成例を示す図である。撮像装置101は、結像させるレンズを用いることなく、外界の物体の画像を取得するものであり、撮像部102、フリンジスキャン処理部106(複素センサ画像処理部と呼んでもよい)、画像処理部107、およびコントローラ108から構成されている。
[First Embodiment]
<Principle of shooting an object at infinity>
FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus 101 according to the first embodiment. The imaging apparatus 101 acquires an image of an object in the outside world without using a lens that forms an image, and includes an imaging unit 102, a fringe scan processing unit 106 (which may be called a complex sensor image processing unit), and an image processing unit. 107 and a controller 108.

図2は、撮像部102の構成例を示す図である。撮像部102は、画像センサ103、パターン基板104、および撮影用パターン105から構成されている。パターン基板104と撮影用パターン105を併せて変調器と呼ぶことができる。   FIG. 2 is a diagram illustrating a configuration example of the imaging unit 102. The imaging unit 102 includes an image sensor 103, a pattern substrate 104, and a shooting pattern 105. The pattern substrate 104 and the imaging pattern 105 can be collectively referred to as a modulator.

パターン基板104は、画像センサ103の受光面に密着して固定され、パターン基板104の表面には撮影用パターン105が形成されている。パターン基板104は、例えばガラスやプラスティックなどの可視光に対して透明な材料からなる。   The pattern substrate 104 is fixed in close contact with the light receiving surface of the image sensor 103, and a photographing pattern 105 is formed on the surface of the pattern substrate 104. The pattern substrate 104 is made of a material that is transparent to visible light, such as glass or plastic.

撮影用パターン105は、例えば半導体プロセスに用いられるスパッタリング法などによってアルミニウム、クロムなどの金属を蒸着することによって形成される。アルミニウムが蒸着されたパターンと蒸着されていないパターンによって濃淡がつけられる。   The photographing pattern 105 is formed by evaporating a metal such as aluminum or chromium by a sputtering method used in a semiconductor process, for example. The shade is given by a pattern in which aluminum is deposited and a pattern in which aluminum is not deposited.

なお、撮影用パターン105の形成は、蒸着に限定されるものでなく、例えばインクジェットプリンタなどによる印刷などによって濃淡をつけるなど、透過率の変調を実現できる手段であればどのように形成してもよい。   The formation of the photographing pattern 105 is not limited to vapor deposition, and any method can be used as long as it can realize modulation of transmittance, for example, by adding light and shade by printing with an inkjet printer or the like. Good.

また、ここでは可視光を例に説明したが、例えば遠赤外線の撮影を行う場合、パターン基板104は、例えばゲルマニウム、シリコン、カルコゲナイドなどの遠赤外線に対して透明な材料からなる。すなわち、パターン基板104には、撮影対象となる波長に対して透明な材料を用いることができ、撮影用パターン105には、撮影対象となる波長を遮断する材料を用いることができる。   Here, although visible light has been described as an example, for example, when far-infrared imaging is performed, the pattern substrate 104 is made of a material that is transparent to far-infrared, such as germanium, silicon, chalcogenide, and the like. That is, a material transparent to the wavelength to be imaged can be used for the pattern substrate 104, and a material that blocks the wavelength to be imaged can be used for the image capturing pattern 105.

また、ここでは撮影用パターン105をパターン基板104に形成する方法について述べたが、これに限定されない。図3は、撮像部102の他の構成例を示す図である。撮影用パターン105を薄膜に形成し、これをパターン基板104の替わりに設けた支持部材301により保持する構成によっても、撮像部102を実現することができる。支持部材301および撮影用パターン105を併せて変調器と呼ぶことができる。なお、図1に示す撮像装置101において、撮影画角はパターン基板104の厚さによって変更可能である。従って、図3に示す支持部材301がその長さを変更可能な機能を有していれば、撮影画角を変更することができる。   Although the method for forming the imaging pattern 105 on the pattern substrate 104 has been described here, the present invention is not limited to this. FIG. 3 is a diagram illustrating another configuration example of the imaging unit 102. The imaging unit 102 can also be realized by a configuration in which the imaging pattern 105 is formed in a thin film and is held by a support member 301 provided instead of the pattern substrate 104. The support member 301 and the photographing pattern 105 can be collectively referred to as a modulator. In the imaging apparatus 101 illustrated in FIG. 1, the shooting angle of view can be changed depending on the thickness of the pattern substrate 104. Therefore, if the support member 301 shown in FIG. 3 has a function capable of changing its length, the shooting angle of view can be changed.

図2又は図3に示すように、画像センサ103は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる。画像センサ103の撮像面(受光面)には、受光素子である画素103aがアレイ状に配置されている。撮影用パターン105を透過する光は、その格子パターンによって光の強度が変調され、画像センサ103にて受光される。画像センサ103は、画素103aが受光した光画像を電気信号である画像信号に変換して出力する。なお、画像信号(アナログの画像データ)は、例えばアナログ・デジタル変換回路を介してデジタル信号に変換され、デジタルの画像データとして出力される。本明細書では、撮像部102が画像データを出力するものとして説明する。   As shown in FIG. 2 or FIG. 3, the image sensor 103 includes, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. On the imaging surface (light receiving surface) of the image sensor 103, pixels 103a as light receiving elements are arranged in an array. The intensity of the light transmitted through the photographing pattern 105 is modulated by the lattice pattern and received by the image sensor 103. The image sensor 103 converts the optical image received by the pixel 103a into an image signal that is an electrical signal and outputs the image signal. The image signal (analog image data) is converted into a digital signal via an analog / digital conversion circuit, for example, and output as digital image data. In this specification, description will be made assuming that the imaging unit 102 outputs image data.

フリンジスキャン処理部106は、画像センサ103から出力される画像データに対してフリンジスキャンによるノイズ除去を行い、画像処理部107に出力する。画像処理部107は、フリンジスキャン処理部106から出力された画像データに対して所定の画像処理を行い、コントローラ108に出力する。コントローラ108は、画像処理部107から出力された画像データを、必要に応じてデータ形式を変換し、撮像装置101の備える記憶装置(図示せず)に格納したり、外部のホストコンピュータや記録媒体に出力したりする。   The fringe scan processing unit 106 performs noise removal by fringe scanning on the image data output from the image sensor 103 and outputs the result to the image processing unit 107. The image processing unit 107 performs predetermined image processing on the image data output from the fringe scan processing unit 106 and outputs the image data to the controller 108. The controller 108 converts the data format of the image data output from the image processing unit 107 as necessary, and stores the data in a storage device (not shown) included in the imaging device 101, or an external host computer or recording medium Or output to

なお、コントローラ108は、例えば、プロセッサ、メモリ、通信装置、処理回路等を備えるユニットによって実現することができる。また、コントローラ108は、例えばUSB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)等の、外部装置と接続する入出力インターフェイスに接続される又はこれを備えてもよい。フリンジスキャン処理部106、および画像処理部107は、例えば、画像処理回路によって実現される。フリンジスキャン処理部106、画像処理部107、およびコントローラ108は、一体的に構成されていてもよい。   The controller 108 can be realized by a unit including a processor, a memory, a communication device, a processing circuit, and the like, for example. Further, the controller 108 may be connected to or provided with an input / output interface connected to an external device, such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface), or the like. The fringe scan processing unit 106 and the image processing unit 107 are realized by, for example, an image processing circuit. The fringe scan processing unit 106, the image processing unit 107, and the controller 108 may be integrally configured.

続いて、撮像装置101における撮影原理について説明する。   Next, the imaging principle in the imaging apparatus 101 will be described.

まず、撮影用パターン105は、中心からの半径に対して反比例してピッチが細かくなる同心円状の格子パターンであり、同心円の中心である基準座標からの半径r、係数βを用いて、   First, the photographing pattern 105 is a concentric lattice pattern whose pitch is inversely proportional to the radius from the center, and using the radius r and the coefficient β from the reference coordinate which is the center of the concentric circle,

Figure 2019149674
と定義される。撮影用パターン105は、この式に比例して透過率が変調されているものとする。
Figure 2019149674
It is defined as It is assumed that the transmittance of the photographing pattern 105 is modulated in proportion to this equation.

このような縞を持つプレートは、ガボールゾーンプレートやフレネルゾーンプレートと呼ばれる。図4は、撮影用パターン105の一例を示す図あり、式(1)のガボールゾーンプレートが示されている。図5は、撮影用パターン105の他の例を示す図であり、式(1)を閾値1で2値化したフレネルゾーンプレートが示されている。   A plate having such stripes is called a Gabor zone plate or a Fresnel zone plate. FIG. 4 is a diagram illustrating an example of the shooting pattern 105, in which a Gabor zone plate of Formula (1) is illustrated. FIG. 5 is a diagram showing another example of the shooting pattern 105, and shows a Fresnel zone plate obtained by binarizing Equation (1) with a threshold value 1.

ここより以降、簡単化のためにx軸方向についてのみ数式で説明するが、同様にy軸方向について考慮することで2次元に展開して考えることが可能である。   Hereafter, for simplification, only the x-axis direction will be described using mathematical formulas. Similarly, it is possible to consider two-dimensional development by considering the y-axis direction.

図6は、斜め入射平行光によるパターン基板表面から画像センサへの射影像が面内ずれを生じることを説明する図である。撮影用パターン105が形成された厚さdのパターン基板104に、x軸方向に角度θで平行光が入射したとする。パターン基板104中の屈折角をθとして、幾何光学的には、表面の格子の透過率が乗じられた光が、k=d・tanθだけずれて画像センサ103に入射する。このとき、 FIG. 6 is a diagram for explaining that the projected image from the pattern substrate surface to the image sensor due to obliquely incident parallel light causes an in-plane shift. It is assumed that parallel light is incident on the pattern substrate 104 having the thickness d on which the photographing pattern 105 is formed at an angle θ 0 in the x-axis direction. With geometrical optics, light multiplied by the transmittance of the surface grating is incident on the image sensor 103 with a shift of k = d · tan θ. At this time,

Figure 2019149674
のような強度分布を持つ投影像が画像センサ103上で検出される。なお、Φは式(1)の透過率分布の初期位相を示す。この撮影用パターン105の投影像(図7)は、式(2)のようにkシフトして投影される。これが撮像部102の出力となる。
Figure 2019149674
A projected image having such an intensity distribution is detected on the image sensor 103. Note that Φ represents the initial phase of the transmittance distribution of the formula (1). The projected image (FIG. 7) of the photographing pattern 105 is projected with k shift as shown in Expression (2). This is the output of the imaging unit 102.

次に、画像処理部107における処理に関して、相関現像方式とモアレ現像方式による現像処理について説明する。   Next, regarding the processing in the image processing unit 107, development processing by the correlation development method and the moire development method will be described.

相関現像方式は、撮影用パターン105の投影像(図7)と現像用パターン801(図8)との相互相関関数を演算することにより、シフト量kの輝点(図9)を得るものである。なお、一般的に相互相関演算を2次元畳込み演算で行うと演算量が大きくなることから、フーリエ変換を用いて演算する例について、数式を用いて原理を説明する。   In the correlation development method, a bright point (FIG. 9) with a shift amount k is obtained by calculating a cross-correlation function between the projected image of the photographing pattern 105 (FIG. 7) and the development pattern 801 (FIG. 8). is there. In general, since the amount of calculation increases when the cross-correlation calculation is performed by two-dimensional convolution calculation, the principle of an example of calculation using Fourier transform will be described using mathematical expressions.

まず、現像用パターン801は、撮影用パターン105と同様にガボールゾーンプレートやフレネルゾーンプレートを用いる。よって、現像用パターン801は、初期位相Φを用いて、   First, the development pattern 801 uses a Gabor zone plate or a Fresnel zone plate as in the case of the shooting pattern 105. Therefore, the development pattern 801 uses the initial phase Φ,

Figure 2019149674
と表せる。現像用パターン801は、画像処理部107の演算処理内で仮想的なデータとして生成されて使用されるため、式(1)のように1でオフセットさせる必要はなく、負の値を有していても問題ない。
Figure 2019149674
It can be expressed. Since the development pattern 801 is generated and used as virtual data in the arithmetic processing of the image processing unit 107, it does not need to be offset by 1 as in Expression (1), and has a negative value. There is no problem.

式(2)、および式(3)のフーリエ変換は、それぞれ、   The Fourier transforms of Equation (2) and Equation (3) are respectively

Figure 2019149674
Figure 2019149674

Figure 2019149674
のようになる。ここで、Fはフーリエ変換の演算を表し、uはx方向の周波数座標、括弧を伴うδはデルタ関数である。この式で重要なことはフーリエ変換後の式もまたフレネルゾーンプレートやガボールゾーンプレートとなっている点である。よって、この数式に基づいて、フーリエ変換後の現像用パターン801を直接的に生成してもよい。これにより演算量を低減可能である。
Figure 2019149674
become that way. Here, F represents a Fourier transform operation, u is a frequency coordinate in the x direction, and δ with parentheses is a delta function. What is important in this formula is that the formula after Fourier transform is also a Fresnel zone plate or a Gabor zone plate. Therefore, the development pattern 801 after the Fourier transform may be directly generated based on this mathematical expression. Thereby, the amount of calculation can be reduced.

次に、式(4)、および式(5)を乗算すると、   Next, multiplying Expression (4) and Expression (5),

Figure 2019149674
となる。この指数関数で表された項exp(−iku)が信号成分であり、この項をフーリエ変換すると、
Figure 2019149674
It becomes. The term exp (−iku) expressed by this exponential function is a signal component, and when this term is Fourier transformed,

Figure 2019149674
のように変換され、元のx軸においてkの位置に輝点を得ることができる。この輝点が無限遠の光束を示しており、図1の撮像装置101による撮影像にほかならない。
Figure 2019149674
Thus, a bright spot can be obtained at the position of k on the original x-axis. This luminescent spot indicates a light beam at infinity, which is nothing but a photographed image by the imaging device 101 of FIG.

なお、相関現像方式では、パターンの自己相関関数が単一のピークを有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されないパターン、例えばランダムなパターンで実現してもよい。   In the correlation development method, as long as the autocorrelation function of the pattern has a single peak, it may be realized by a pattern not limited to the Fresnel zone plate or the Gabor zone plate, for example, a random pattern.

次に、モアレ現像方式では、撮影用パターン105の投影像(図7)と現像用パターン801(図8)を乗算することによりモアレ縞(図10)を生成し、フーリエ変換することにより現像画像におけるシフト量kβ/πの輝点(図11)を得る。このモアレ縞を数式で示すと、   Next, in the moiré development system, a moiré fringe (FIG. 10) is generated by multiplying the projected image of the photographic pattern 105 (FIG. 7) and the development pattern 801 (FIG. 8), and the developed image is subjected to Fourier transform. A bright spot (FIG. 11) with a shift amount kβ / π at is obtained. When this moire fringe is shown by a mathematical formula,

Figure 2019149674
となる。この展開式の第3項が信号成分であり、2つのパターンのずれの方向にまっすぐな等間隔の縞模様が、2つのパターンの重なり合った領域一面に作られることがわかる。このような縞と縞の重ね合わせによって相対的に低い空間周波数で生じる縞は、モアレ縞と呼ばれる。この第3項の2次元フーリエ変換は、
Figure 2019149674
It becomes. It can be seen that the third term of this development formula is a signal component, and a striped pattern of equal intervals straight in the direction of deviation between the two patterns is formed over the entire area where the two patterns overlap. Such a fringe generated at a relatively low spatial frequency by overlapping the fringes is called a moire fringe. The two-dimensional Fourier transform of this third term is

Figure 2019149674
のようになる。ここで、Fはフーリエ変換の演算を表し、uはx方向の周波数座標、括弧を伴うδはデルタ関数である。この結果から、モアレ縞の空間周波数スペクトルにおいて、空間周波数のピークがu=±kβ/πの位置に生じることがわかる。この輝点が無限遠の光束を示しており、図1の撮像装置101による撮影像にほかならない。
Figure 2019149674
become that way. Here, F represents a Fourier transform operation, u is a frequency coordinate in the x direction, and δ with parentheses is a delta function. From this result, it can be seen that a spatial frequency peak occurs at a position of u = ± kβ / π in the spatial frequency spectrum of moire fringes. This luminescent spot indicates a light beam at infinity, which is nothing but a photographed image by the imaging device 101 of FIG.

なお、モアレ現像方式では、パターンのシフトによって得られるモアレ縞が単一の周波数を有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されないパターン、例えば楕円状のパターンで実現してもよい。   In the moire development method, as long as the moire fringes obtained by pattern shifting have a single frequency, the moire development method may be realized by a pattern that is not limited to the Fresnel zone plate or the Gabor zone plate, for example, an elliptical pattern. .

〈ノイズキャンセル〉
式(6)から式(7)への変換、また式(8)から式(9)への変換において信号成分に着目して話を進めたが、実際には信号成分以外の項が現像を阻害する。そこで、フリンジスキャンに基づくノイズキャンセルを行う。
<Noise cancellation>
In the conversion from the expression (6) to the expression (7) and the conversion from the expression (8) to the expression (9), the discussion proceeded with attention to the signal component, but in reality, terms other than the signal component are developed. Inhibit. Therefore, noise cancellation based on fringe scanning is performed.

フリンジスキャンのためには、撮影用パターン105として初期位相Φの異なる複数のパターンを使用する必要がある。図12は、フリンジスキャンにおける初期位相の組合せの一例を示す図である。ここでは、Φ=0、π/2、π、3π/2となる4位相を用いて撮影したセンサ画像を以下の式に従って演算すると、複素数のセンサ画像(複素センサ画像)が得られる。   For fringe scanning, it is necessary to use a plurality of patterns having different initial phases Φ as the imaging pattern 105. FIG. 12 is a diagram illustrating an example of combinations of initial phases in fringe scanning. Here, when sensor images photographed using four phases satisfying Φ = 0, π / 2, π, and 3π / 2 are calculated according to the following expression, a complex sensor image (complex sensor image) is obtained.

Figure 2019149674
ここで、複素数の現像用パターン801は、
Figure 2019149674
Here, the complex development pattern 801 is:

Figure 2019149674
と表せる。現像用パターン801は、演算処理内で使用されるため、複素数であっても問題ない。モアレ現像方式の場合、式(10)と式(11)を乗算すると、
Figure 2019149674
It can be expressed. Since the development pattern 801 is used in the arithmetic processing, there is no problem even if it is a complex number. In the case of the moire development method, when the equation (10) and the equation (11) are multiplied,

Figure 2019149674
となる。この指数関数で表された項exp(2iβkx)が信号成分であり、式(8)のような不要な項が発生せず、ノイズキャンセルされていることが解る。
Figure 2019149674
It becomes. It can be seen that the term exp (2iβkx) represented by the exponential function is a signal component, and an unnecessary term like Expression (8) does not occur and noise cancellation is performed.

同様に相関現像方式についても確認すると、式(10)、および式(11)のフーリエ変換はそれぞれ、   Similarly, confirming the correlation development method, the Fourier transforms of the equations (10) and (11) are respectively

Figure 2019149674
Figure 2019149674

Figure 2019149674
のようになる。次に、式(13)と式(14)を乗算すると、
Figure 2019149674
become that way. Next, multiplying Expression (13) and Expression (14),

Figure 2019149674
となる。この指数関数で表された項exp(−iku)が信号成分であり、式(8)のような不要な項が発生せず、ノイズキャンセルされていることが解る。
Figure 2019149674
It becomes. It can be seen that the term exp (-iku) represented by the exponential function is a signal component, and an unnecessary term such as that in Equation (8) does not occur and noise cancellation is performed.

なお、以上の例では、4位相の複数のパターンを使用して説明したが、Φは0〜2πの間の角度を等分するように設定すればよく、この4位相に限定するものではない。   In the above example, a description has been given using a plurality of patterns of four phases. However, Φ may be set so as to equally divide the angle between 0 and 2π, and is not limited to these four phases. .

以上の複数パターンによる撮影を実現するには、時分割でパターンを切り替える方法(時分割フリンジスキャン)と、空間分割でパターンを切り替える方法(空間分割フリンジスキャン)がある。   In order to realize the above-described photographing with a plurality of patterns, there are a method of switching patterns by time division (time division fringe scan) and a method of switching patterns by space division (space division fringe scan).

時分割フリンジスキャンを実現するには、例えば、電気的に図12に示す複数の初期位相を切り替えて表示することが可能(すなわちパターンを変更可能)な液晶表示素子などで、撮影用パターン105を構成する。撮像部102は、この液晶表示素子の切替タイミングと画像センサ103のシャッタタイミングを同期して制御し、フリンジスキャン処理部106は、4枚の画像を取得後にフリンジスキャン演算を実施する。   In order to realize the time-division fringe scan, for example, the photographing pattern 105 is formed by using a liquid crystal display element that can electrically switch and display a plurality of initial phases shown in FIG. 12 (that is, the pattern can be changed). Configure. The imaging unit 102 controls the switching timing of the liquid crystal display element and the shutter timing of the image sensor 103 in synchronization with each other, and the fringe scan processing unit 106 performs a fringe scan calculation after acquiring four images.

対して、空間分割フリンジスキャンを実現するには、例えば図13(空間分割フリンジスキャンにおける撮影用パターン105の一例を示す図)に示すように、複数の初期位相を有する撮影用パターン105を使用する。撮像部102は、画像センサ103のシャッタタイミングを制御し、フリンジスキャン処理部106は、1枚の画像を取得後、当該取得画像をそれぞれの初期位相のパターンに対応して4枚に分割し、フリンジスキャン演算を実施する。   On the other hand, in order to realize the space division fringe scan, for example, as shown in FIG. 13 (a diagram showing an example of the imaging pattern 105 in the space division fringe scan), the imaging pattern 105 having a plurality of initial phases is used. . The imaging unit 102 controls the shutter timing of the image sensor 103, and the fringe scan processing unit 106 acquires one image and then divides the acquired image into four corresponding to each initial phase pattern. Perform a fringe scan operation.

続いて、フリンジスキャン処理部106でのフリンジスキャン演算について説明する。図14は、フリンジスキャン処理部106の処理例を示すフローチャートである。   Next, the fringe scan calculation in the fringe scan processing unit 106 will be described. FIG. 14 is a flowchart illustrating a processing example of the fringe scan processing unit 106.

まず、フリンジスキャン処理部106は、画像センサ103から出力される複数位相パターンのセンサ画像(空間分割フリンジスキャンの場合は1枚、時分割フリンジスキャンの場合は複数枚)を取得する。フリンジスキャン処理部106は、空間分割フリンジスキャンを使用する場合には取得したセンサ画像を位相ごとに分割し(1401)、時分割フリンジスキャンを使用する場合には処理1401は実施しない。次に、フリンジスキャン処理部106は、出力用の複素センサ画像を初期化する(1402)。   First, the fringe scan processing unit 106 obtains a sensor image of a plurality of phase patterns output from the image sensor 103 (one sheet in the case of a spatial division fringe scan and a plurality of sheets in a time division fringe scan). The fringe scan processing unit 106 divides the acquired sensor image for each phase when using the space division fringe scan (1401), and does not perform the process 1401 when using the time division fringe scan. Next, the fringe scan processing unit 106 initializes an output complex sensor image (1402).

続いて、フリンジスキャン処理部106は、初期位相ごとに、処理1403〜1405を繰り返す。例えば、図12に示したような4位相を用いたフリンジスキャンでは、Φ=0、π/2、π、3π/2の4回繰り返す。フリンジスキャン処理部106は、対象の初期位相Φのセンサ画像を取得し(1403)、その初期位相Φに応じたexp(iΦ)を乗算し(1404)、乗算結果を複素センサ画像に加算する(1405)。フリンジスキャン処理部106は、全ての初期位相についての処理を終了したか否かを判定し(1406)、終了していない場合は処理を1403に戻し(1406でNO)、終了した場合は処理を1407に進める(1406でYES)。   Subsequently, the fringe scan processing unit 106 repeats the processes 1403 to 1405 for each initial phase. For example, in a fringe scan using four phases as shown in FIG. 12, it is repeated four times: Φ = 0, π / 2, π, 3π / 2. The fringe scan processing unit 106 acquires a sensor image of the target initial phase Φ (1403), multiplies exp (iΦ) according to the initial phase Φ (1404), and adds the multiplication result to the complex sensor image ( 1405). The fringe scan processing unit 106 determines whether or not the processing for all initial phases has been completed (1406). If not completed, the processing returns to 1403 (NO in 1406), and if completed, the processing is performed. The process proceeds to 1407 (YES in 1406).

最後に、フリンジスキャン処理部106は、複素センサ画像を出力する(1407)。以上のフリンジスキャン処理部106での処理は、式(10)に相当する。   Finally, the fringe scan processing unit 106 outputs a complex sensor image (1407). The above processing in the fringe scan processing unit 106 corresponds to Expression (10).

次に、画像処理部107での画像処理について説明する。図15は、相関現像方式による画像処理部107の処理例を示すフローチャートである。   Next, image processing in the image processing unit 107 will be described. FIG. 15 is a flowchart illustrating a processing example of the image processing unit 107 using the correlation development method.

まず、画像処理部107は、フリンジスキャン処理部106から出力される複素センサ画像を取得し、複素センサ画像に対して2次元高速フーリエ変換(FFT:Fast Fourier Transform)演算を実施する(1501)。次に、画像処理部107は、現像処理に使用する現像用パターン801を生成し、2次元FFT演算した複素センサ画像に乗算し(1502)、逆2次元FFT演算を実施する(1503)。この演算結果は複素数となるため、画像処理部107は、絶対値化もしくは実部を取り出して撮影対象の像を実数化して現像(復元)する(1504)。その後、画像処理部107は、得られた現像画像に対してコントラスト強調処理(1505)、カラーバランス調整(1506)などを実施し、撮影画像として出力する。以上により、相関現像方式による画像処理部107の画像処理が終了となる。   First, the image processing unit 107 acquires a complex sensor image output from the fringe scan processing unit 106, and performs a two-dimensional fast Fourier transform (FFT) operation on the complex sensor image (1501). Next, the image processing unit 107 generates a development pattern 801 to be used for development processing, multiplies the complex sensor image obtained by the two-dimensional FFT operation (1502), and performs the inverse two-dimensional FFT operation (1503). Since the calculation result is a complex number, the image processing unit 107 converts the absolute value or the real part into a real number and develops (restores) the image to be photographed (1504). Thereafter, the image processing unit 107 performs contrast enhancement processing (1505), color balance adjustment (1506), and the like on the obtained developed image, and outputs it as a captured image. Thus, the image processing of the image processing unit 107 by the correlation development method is completed.

これに対して、図16は、モアレ現像方式による画像処理部107の処理例を示すフローチャートである。   On the other hand, FIG. 16 is a flowchart showing a processing example of the image processing unit 107 using the moire development method.

まず、画像処理部107は、フリンジスキャン処理部106から出力される複素センサ画像を取得する。画像処理部107は、現像処理に使用する現像用パターン801を生成して複素センサ画像に乗算し(1601)、2次元FFT演算により周波数スペクトルを求め(1602)、この周波数スペクトルのうち必要な周波数領域のデータを切り出す(1603)。以降の処理は図15における処理1504〜1506の処理と同様である。以上により、モアレ現像方式による画像処理部107の画像処理が終了となる。   First, the image processing unit 107 acquires a complex sensor image output from the fringe scan processing unit 106. The image processing unit 107 generates a development pattern 801 to be used for development processing, multiplies the complex sensor image (1601), obtains a frequency spectrum by two-dimensional FFT calculation (1602), and a necessary frequency among the frequency spectra is obtained. The area data is cut out (1603). The subsequent processes are the same as the processes 1504 to 1506 in FIG. Thus, the image processing of the image processing unit 107 by the moire development method is completed.

〈有限距離物体の撮影原理〉
図17は、物体が無限距離にある場合に撮影用パターン105が投影されることを説明する図である。図17は、これまで述べた被写体が遠い場合における撮影用パターン105の画像センサ103への射影の様子を示している。遠方の物体を構成する点1701からの球面波は、十分に長い距離を伝搬する間に平面波となり撮影用パターン105を照射し、その投影像1702が画像センサ103に投影される場合、投影像は撮影用パターン105とほぼ同じ形状である。結果、投影像1702に対して、現像用パターンを用いて現像処理を行うことにより、単一の輝点を得ることが可能である。
<Principle of photographing a finite distance object>
FIG. 17 is a diagram for explaining that the shooting pattern 105 is projected when the object is at an infinite distance. FIG. 17 shows a state in which the shooting pattern 105 is projected onto the image sensor 103 when the subject described above is far away. A spherical wave from a point 1701 constituting a distant object becomes a plane wave while propagating a sufficiently long distance and irradiates the imaging pattern 105, and when the projected image 1702 is projected onto the image sensor 103, the projected image is The shape is almost the same as that of the photographing pattern 105. As a result, it is possible to obtain a single bright spot by performing development processing on the projection image 1702 using the development pattern.

一方、有限距離の物体に対する撮像について説明する。図18は、物体が有限距離にある場合に撮影用パターン105が拡大されることを説明する図である。物体を構成する点1801からの球面波が撮影用パターン105を照射し、その投影像1802が画像センサ103に投影される場合、投影像はほぼ一様に拡大される。なお、この拡大率αは、撮影用パターン105から点1801までの距離fを用いて、   On the other hand, imaging for a finite distance object will be described. FIG. 18 is a diagram illustrating that the shooting pattern 105 is enlarged when the object is at a finite distance. When the spherical wave from the point 1801 constituting the object irradiates the photographing pattern 105 and the projected image 1802 is projected onto the image sensor 103, the projected image is enlarged substantially uniformly. The enlargement ratio α is obtained by using the distance f from the shooting pattern 105 to the point 1801.

Figure 2019149674
のように算出できる。そのため、平行光に対して設計された現像用パターンをそのまま用いて現像処理したのでは、単一の輝点を得ることができない。そこで、一様に拡大された撮影用パターン105の投影像に合わせて、現像用パターン801を拡大させたならば、拡大された投影像1802に対して再び、単一の輝点を得ることができる。このためには、現像用パターン801の係数βをβ/αとすることで補正が可能である。これにより、必ずしも無限遠でない距離の点1801からの光を選択的に再生することができる。これによって、任意の位置に焦点合わせて撮影を行うことができる。
Figure 2019149674
It can be calculated as follows. Therefore, a single bright spot cannot be obtained if the development pattern designed for parallel light is used as it is. Therefore, if the development pattern 801 is enlarged in accordance with the projected image of the photographing pattern 105 that is uniformly enlarged, a single bright spot can be obtained again with respect to the enlarged projected image 1802. it can. For this purpose, correction can be performed by setting the coefficient β of the development pattern 801 to β / α 2 . Thereby, light from the point 1801 at a distance that is not necessarily infinite can be selectively reproduced. As a result, it is possible to perform shooting while focusing on an arbitrary position.

さらに、本構成によれば、撮影後に任意の距離にフォーカスを合わせることも可能となる。図19は、フォーカス機能を有する撮像装置101の構成例を示す図である。図1と異なり、撮像装置101は、フォーカス設定部1901を備える。フォーカス設定部1901は、撮像装置101に備え付けられた摘み等のハードウェアスイッチやGUI(Graphical User Interface)の操作により入力されるフォーカス距離を、コントローラ108を介して取得可能であり、フォーカス距離情報を画像処理部107に出力する。フォーカス設定部1901は、コントローラ108内で実現されてもよい。   Furthermore, according to this configuration, it is possible to focus on an arbitrary distance after shooting. FIG. 19 is a diagram illustrating a configuration example of the imaging apparatus 101 having a focus function. Unlike FIG. 1, the imaging apparatus 101 includes a focus setting unit 1901. A focus setting unit 1901 can acquire a focus distance input by operating a hardware switch such as a knob provided in the imaging apparatus 101 or a GUI (Graphical User Interface) via the controller 108, and obtain focus distance information. The image is output to the image processing unit 107. The focus setting unit 1901 may be realized in the controller 108.

さらに、このように撮影後のフォーカス調整が可能ということは、奥行情報を有しているということであり、オートフォーカスや測距といった様々な機能を画像処理部107において実現することが可能になる。このようなフォーカス調整をはじめとする機能を実現する上では、現像用パターン801の係数βを自由に変更することが必要となるが、本実施形態で説明したフリンジスキャン処理部106における処理のように、センサ画像だけを用いてフリンジスキャン演算を実施することにより、現像用パターン801を用いた画像処理を独立して実施することが可能となり、処理を簡易化することができる。すなわち撮像後にフォーカス調整等を行おうとした際、画像処理部にてフリンジスキャンを再度行うことなく、かつ複素センサ画像に対し現像用パターンを演算するため演算量を大幅に削減することができる。   Furthermore, the fact that focus adjustment after shooting is possible in this way means that depth information is included, and various functions such as autofocus and distance measurement can be realized in the image processing unit 107. . In order to realize such functions as focus adjustment, it is necessary to freely change the coefficient β of the development pattern 801. However, like the processing in the fringe scan processing unit 106 described in the present embodiment. In addition, by performing the fringe scan calculation using only the sensor image, it is possible to perform the image processing using the development pattern 801 independently, and the processing can be simplified. In other words, when focus adjustment or the like is performed after imaging, the amount of calculation can be greatly reduced because the development pattern is calculated for the complex sensor image without performing the fringe scan again in the image processing unit.

本実施形態に係る方法・構成によれば、撮像後のフォーカス調整、オートフォーカス、および測距の画像処理と、フリンジスキャン処理とを分離して実施可能な撮像装置を実現することが可能となる。すなわち撮像後にフォーカス調整等を行おうとした際、画像処理部にてフリンジスキャンを再度行うことなく、かつ複素センサ画像に対し現像用パターンを演算するため演算量を大幅に削減することができる。   According to the method and configuration according to the present embodiment, it is possible to realize an imaging apparatus capable of separately performing focus adjustment, autofocus, and ranging image processing after imaging and fringe scanning processing. . In other words, when focus adjustment or the like is performed after imaging, the amount of calculation can be greatly reduced because the development pattern is calculated for the complex sensor image without performing the fringe scan again in the image processing unit.

[第2実施形態]
第1実施形態の撮像装置101では、フォーカス調整、オートフォーカス、測距などの高機能化により、画像処理部107の処理が重くなり、さらに、撮像装置101のサイズ、コスト、消費電力が大きくなってしまう可能性がある。そこで、第2実施形態では、撮像装置101の処理、サイズ、コスト、消費電力等の少なくとも1つを低減するための処理分割方法について説明する。以下、第1実施形態と異なる点を中心に説明する。
[Second Embodiment]
In the imaging apparatus 101 according to the first embodiment, processing by the image processing unit 107 becomes heavy due to enhancement of functions such as focus adjustment, autofocus, and distance measurement, and further, the size, cost, and power consumption of the imaging apparatus 101 increase. There is a possibility that. Therefore, in the second embodiment, a process division method for reducing at least one of processing, size, cost, power consumption, and the like of the imaging apparatus 101 will be described. Hereinafter, a description will be given focusing on differences from the first embodiment.

図20は、第2実施形態に係る撮像システムの構成例を示す図である。撮像システムは、第1実施形態の撮像装置101を、送信側装置である撮像装置2001と受信側装置である画像処理装置2002に分割したものである。本撮像システムにおいて、撮像装置2001と画像処理装置2002は、有線もしくは無線もしくはこれらの組み合わせの通信手段、または記憶媒体を介してデータを送受信する。通信手段は、例えば、LAN(Local Area Network)、インターネット等の様々な通信ネットワークの1つ以上の組み合わせで構成できる。この場合、画像処理装置2002は、例えばサーバコンピュータで実現でき、このサーバコンピュータは、複数の撮像装置2001と通信することができてもよい。   FIG. 20 is a diagram illustrating a configuration example of an imaging system according to the second embodiment. The imaging system is obtained by dividing the imaging apparatus 101 of the first embodiment into an imaging apparatus 2001 that is a transmission side apparatus and an image processing apparatus 2002 that is a reception side apparatus. In this imaging system, the imaging device 2001 and the image processing device 2002 transmit and receive data via a wired or wireless communication method or a combination thereof, or a storage medium. The communication means can be composed of one or more combinations of various communication networks such as a LAN (Local Area Network) and the Internet. In this case, the image processing apparatus 2002 can be realized by a server computer, for example, and the server computer may be able to communicate with a plurality of imaging apparatuses 2001.

撮像装置2001は、撮像部102、及びフリンジスキャン処理部106に加え、データ送信部2003を有する。データ送信部2003は、フリンジスキャン処理部106が出力した複素センサ画像を、所定の通信ネットワークあるいは記憶媒体に伝送する形式に変換して送信する。データ送信部2003は、例えば、有線もしくは無線LANの通信規格に準拠したインターフェイスであってもよいし、移動体通信網の通信規格に準拠したインターフェイスであってもよいし、USB(Universal Serial Bus)などの通信規格に準拠したインターフェイスであってもよい。撮像装置2001は、異なる通信規格の複数のデータ送信部2003を備えてもよく、通信環境に合わせて使い分けてもよい。   The imaging apparatus 2001 includes a data transmission unit 2003 in addition to the imaging unit 102 and the fringe scan processing unit 106. The data transmission unit 2003 converts the complex sensor image output from the fringe scan processing unit 106 into a format to be transmitted to a predetermined communication network or storage medium and transmits the complex sensor image. The data transmission unit 2003 may be, for example, an interface that conforms to a wired or wireless LAN communication standard, an interface that conforms to a mobile communication network communication standard, or a USB (Universal Serial Bus). An interface conforming to a communication standard such as The imaging device 2001 may include a plurality of data transmission units 2003 with different communication standards, and may be used properly according to the communication environment.

画像処理装置2002は、画像処理部107、およびコントローラ108に加え、データ受信部2004を有する。データ受信部2004は、撮像装置2001から送信されたデータ(複素センサ画像)を受信し、画像処理部107で扱う所定の形式に変換して出力する。データ受信部2004は、上述したデータ送信部2003と同様のインターフェイスである。画像処理部107は、データ受信部2004から出力される複素センサ画像を用いて、フォーカス調整、オートフォーカス、測距などの機能を実現する。   The image processing apparatus 2002 includes a data receiving unit 2004 in addition to the image processing unit 107 and the controller 108. The data receiving unit 2004 receives data (complex sensor image) transmitted from the imaging device 2001, converts the data into a predetermined format handled by the image processing unit 107, and outputs the data. The data reception unit 2004 is an interface similar to the data transmission unit 2003 described above. The image processing unit 107 uses the complex sensor image output from the data receiving unit 2004 to realize functions such as focus adjustment, autofocus, and distance measurement.

本実施形態に係る方法・構成によれば、センサ画像を外部装置に伝送することにより、撮像装置2001の構成を簡単にでき、小型で軽量、低コストを実現することができる。また、フリンジスキャン演算後の複素センサ画像を外部装置に伝送することで、例えば撮像装置2001より高速な画像処理装置2002で、フォーカス調整、オートフォーカス、測距などの高機能化を実現できる。   According to the method and configuration according to the present embodiment, by transmitting a sensor image to an external device, the configuration of the imaging device 2001 can be simplified, and a small size, light weight, and low cost can be realized. Further, by transmitting the complex sensor image after the fringe scan calculation to an external device, it is possible to realize high functions such as focus adjustment, autofocus, and distance measurement with an image processing device 2002 that is faster than the imaging device 2001, for example.

[第3実施形態]
第2実施形態の撮像システムでは、撮像装置2001と画像処理装置2002の間の通信データ量が大きく、通信に必要な伝送帯域および消費電力が大きくなってしまう可能性がある。そこで、第3実施形態では、通信データ量を小さくするためのデータ量低減方法について説明する。以下、第2実施形態と異なる点を中心に説明する。
[Third Embodiment]
In the imaging system of the second embodiment, the amount of communication data between the imaging device 2001 and the image processing device 2002 is large, and there is a possibility that the transmission band and power consumption necessary for communication will increase. Therefore, in the third embodiment, a data amount reduction method for reducing the communication data amount will be described. Hereinafter, a description will be given focusing on differences from the second embodiment.

まず、センサ画像のデータ量を低減する方法について述べる。図21は、ある被写体を撮影した場合の画像センサ103の出力であるセンサ画像の例を示す。図22は、センサ画像の輝度分布の一例を示す図であり、図21のABを結んだ直線上の各ピクセル位置の輝度をマッピングした結果を示す。このように、センサ画像は、センサダイナミックレンジに対して信号成分がレンジ中央付近に集中していることから、データ圧縮を行い易い形式であると言える。具体的には、信号成分の最大値と最小値の範囲内のデータだけを抽出し、それ以外のデータを削減することにより、必要なビット数を低減する(例えば上位ビットを削減する)などして、データ量低減が可能である。   First, a method for reducing the data amount of the sensor image will be described. FIG. 21 shows an example of a sensor image that is an output of the image sensor 103 when a certain subject is photographed. FIG. 22 is a diagram showing an example of the luminance distribution of the sensor image, and shows the result of mapping the luminance of each pixel position on the straight line connecting AB in FIG. As described above, the sensor image has a signal component concentrated near the center of the range with respect to the sensor dynamic range. Specifically, only the data within the range of the maximum and minimum values of the signal component is extracted, and other data is reduced, thereby reducing the number of necessary bits (for example, reducing the upper bits). Thus, the data amount can be reduced.

しかし、撮影する条件によっては、図23(センサ画像の輝度分布の他の例を示す図)に示すように、センサ上に輝度ムラが発生し、信号成分がセンサダイナミックレンジ全体に分布する場合があり、この場合にはデータ削減効率が悪くなる。   However, depending on the shooting conditions, as shown in FIG. 23 (a diagram showing another example of the luminance distribution of the sensor image), luminance unevenness may occur on the sensor, and the signal component may be distributed over the entire sensor dynamic range. In this case, the data reduction efficiency is deteriorated.

そこで、フリンジスキャン処理部106でのフリンジスキャン演算が有効である。例えば、図12に示したような4位相を用いたフリンジスキャンでは、Φ=0、π/2、π、3π/2の位相を使用しており、Φ=0とπ、ならびにΦ=π/2と3π/2のように位相差πの関係にある位相は、透過・非透過が反転しているパターンである。すなわち、輝度ムラは同じでパターンが反転しているので、この関係にあるセンサ画像間で減算を行えば、図24(複素センサ画像の輝度分布の一例を示す図)に示すように、輝度ムラが除去され平均値が略0となる信号成分を得ることが可能である。これにより、常に信号成分が所定の範囲内にあるデータに制限することが可能であり、データ量低減処理を効率的に実施可能である。なお、このΦ=0とπ、ならびにΦ=π/2と3π/2の減算結果とは、式(10)からも解るとおり、フリンジスキャン処理部106の出力である複素センサ画像の実部ならびに虚部のことである。   Therefore, the fringe scan calculation in the fringe scan processing unit 106 is effective. For example, in the fringe scan using four phases as shown in FIG. 12, phases of Φ = 0, π / 2, π, 3π / 2 are used, and Φ = 0 and π, and Φ = π / A phase having a phase difference π, such as 2 and 3π / 2, is a pattern in which transmission and non-transmission are reversed. That is, since the luminance unevenness is the same and the pattern is inverted, if subtraction is performed between sensor images having this relationship, as shown in FIG. 24 (a diagram showing an example of the luminance distribution of a complex sensor image), the luminance unevenness It is possible to obtain a signal component in which the average value is substantially zero by removing. Thereby, it is possible to always limit the signal component to data within a predetermined range, and the data amount reduction processing can be efficiently performed. Note that the subtraction results of Φ = 0 and π and Φ = π / 2 and 3π / 2 are the real part of the complex sensor image that is the output of the fringe scan processing unit 106 and the subtraction result of Φ = π / 2 and 3π / 2. It is an imaginary part.

次に、この複素センサ画像のデータ量を低減する方法について詳細に説明する。図25は、複素センサ画像のデータを複素空間上にマッピングした例を示す。このように、フリンジスキャン演算後の複素センサ画像は複素空間上に分布している。図26は、当該複素センサ画像の実部データのヒストグラムの例を示す。この分布2601の最大値(Imax)と最小値(Imin)を算出し、この範囲に存在する実部データのみを出力すればよい。当該複素センサ画像の虚部データについても同様である。 Next, a method for reducing the data amount of the complex sensor image will be described in detail. FIG. 25 shows an example in which complex sensor image data is mapped onto a complex space. As described above, the complex sensor image after the fringe scan calculation is distributed in the complex space. FIG. 26 shows an example of a histogram of real part data of the complex sensor image. It is only necessary to calculate the maximum value (I max ) and the minimum value (I min ) of this distribution 2601 and output only real part data existing in this range. The same applies to the imaginary part data of the complex sensor image.

なお、センサ画像にはパルス的なノイズも含まれることを鑑みると、最大値と最小値の範囲のデータを出力するだけでは、データ量を十分に低減できない可能性がある。また、本実施形態においては、現像後のデータはセンサ全面に散らばっていると考えられるため、センサ画像の一部のデータが不足していても現像後の品質に大きな影響を及ぼさない。よって、図26の分布2601において0を中心に分布の標準偏差σ内にある範囲のデータを出力する、もしくは3σの範囲のデータを出力するなど、分布する全てのデータを出力しない方法を取ってもよい。これにより、データ量をさらに低減可能である。   In view of the fact that the sensor image includes pulse-like noise, there is a possibility that the data amount cannot be sufficiently reduced only by outputting the data in the range of the maximum value and the minimum value. Further, in this embodiment, since the data after development is considered to be scattered over the entire surface of the sensor, even if a part of the data of the sensor image is insufficient, the quality after development is not greatly affected. Therefore, in the distribution 2601 of FIG. 26, a method of not outputting all the distributed data, such as outputting data in a range within the standard deviation σ of the distribution centering on 0, or outputting data in the range of 3σ. Also good. Thereby, the amount of data can be further reduced.

また、上記の最大値と最小値、または標準偏差ではなく、予め設定した範囲・精度に出力データを制限してもよい。例えば予め設定した範囲に制限する時、複素センサ画像のビット数が13ビットであった場合に、常に上位5ビットを削減し8ビットとして出力する、といった方法である。また例えば予め設定した精度に制限する時、複素センサ画像のビット数が13ビットであった場合に、常に下位5ビットを削減、もしくは丸め処理し8ビットとして出力する、といった方法である。これにより、最大値、最小値、標準偏差等を計算する必要がなくなり、演算量を低減可能である。   Further, the output data may be limited to a preset range / accuracy instead of the above-described maximum and minimum values or standard deviation. For example, when limiting to a preset range, when the number of bits of the complex sensor image is 13 bits, the upper 5 bits are always reduced and output as 8 bits. For example, when limiting to a preset accuracy, when the number of bits of the complex sensor image is 13 bits, the lower 5 bits are always reduced or rounded and output as 8 bits. Thereby, there is no need to calculate the maximum value, the minimum value, the standard deviation, etc., and the amount of calculation can be reduced.

また、動画を処理する場合、上記の最大値、最小値、標準偏差等は、処理中のフレームよりも前に処理したフレームの結果を用いて範囲・精度を決定し、出力データを制限してもよい。これにより、演算処理の遅延による影響を抑え、かつデータ量低減を効率よく実施可能である。   In addition, when processing moving images, the maximum value, minimum value, standard deviation, etc. described above are determined by using the results of frames processed before the frame being processed, and the output data is limited. Also good. Thereby, it is possible to suppress the influence due to the delay of the arithmetic processing and efficiently reduce the data amount.

図27は、複素センサ画像のデータを複素空間上にマッピングした他の例を示す。図28は、当該複素センサ画像の実部データのヒストグラムの例を示す。このように、分布2801の平均値μ0が0でない可能性もある。この場合には、データからμ0を減算してから出力してもよい。本実施形態では、画像処理部107がフーリエ変換を主とする現像処理を行うため、輝度のオフセットは現像画像に直接的な影響を及ぼさない。影響があるとすれば、モアレ現像方式における周波数スペクトルの直流成分としてピークを持つ可能性があるが、これは該当ピクセルをマスクするなどして解決可能である。   FIG. 27 shows another example in which complex sensor image data is mapped onto a complex space. FIG. 28 shows an example of a histogram of real part data of the complex sensor image. Thus, there is a possibility that the average value μ0 of the distribution 2801 is not zero. In this case, μ0 may be subtracted from the data before outputting. In the present embodiment, since the image processing unit 107 performs development processing mainly including Fourier transform, the luminance offset does not directly affect the developed image. If there is an influence, there is a possibility that the DC component of the frequency spectrum in the moire development method has a peak, but this can be solved by masking the corresponding pixel.

また、図25、図27では、複素空間で等方的な分布を有する例について記載したが、撮影状況によっては図29、図30に示すように分布に偏りが発生する場合もある。図29、図30は、複素センサ画像のデータを複素空間上にマッピングしたさらに他の例を示す。図29に示すような異方的な分布においては、偏角の平均値θが0のときは、実部と虚部で異なる範囲で出力データを制限すればよいが、偏角の平均値θが0でない場合には、複素センサ画像を極座標変換するのが有効である。極座標変換した後、偏角(−θ)を乗じ、実部と虚部で異なる範囲で出力データを制限すればよい。もしくは、複素センサ画像の位相データの範囲・精度を制限し、極座標の振幅・位相のデータを出力すればよい。同様に図30に示すような環状の分布においても、複素センサ画像を極座標変換するのが有効である。複素センサ画像の振幅の平均値rを中心に振幅データの範囲・精度を制限し、極座標の振幅・位相のデータを出力すればよい。 25 and 27 describe an example having an isotropic distribution in a complex space, but depending on the shooting situation, the distribution may be biased as shown in FIGS. 29 and 30. 29 and 30 show still another example in which the data of the complex sensor image is mapped on the complex space. In the anisotropic distribution as shown in FIG. 29, when the average value θ 0 of the declination is 0, the output data may be limited in different ranges between the real part and the imaginary part. If θ 0 is not 0, it is effective to convert the complex sensor image into polar coordinates. After the polar coordinate conversion, the output data may be limited within a range different between the real part and the imaginary part by multiplying by the declination angle (−θ 0 ). Alternatively, the range / accuracy of the phase data of the complex sensor image may be limited, and polar coordinate amplitude / phase data may be output. Similarly, in the annular distribution as shown in FIG. 30, it is effective to convert the complex sensor image into polar coordinates. Limit the scope and accuracy of the amplitude data around the average value r 0 of the amplitude of the complex sensor image may output the data of polar coordinates of amplitude and phase.

さらに、図29に示したような分布の偏りが極端な場合には、実部・虚部のどちらか一方、あるいは振幅・位相のどちらか一方のデータだけを出力する方法を取ってもよい。これにより、大幅なデータ量低減が可能となる。   Furthermore, when the distribution bias as shown in FIG. 29 is extreme, a method of outputting only one of the real part and the imaginary part, or only one of the amplitude and the phase may be employed. As a result, the data amount can be significantly reduced.

以上のデータ低減処理を実施するための構成について説明する。図31は、第3実施形態に係る撮像システムの構成例を示す図である。第2実施形態の撮像システム(図20)と異なる点は、撮像装置2001に替わる撮像装置3101である。撮像装置3101は、撮像装置2001と異なり、データ量低減部3102を備える。撮像装置3101では、フリンジスキャン処理部106が複素センサ画像を出力し、データ量低減部3102が複素センサ画像のビット数を低減するなどしてデータ量を低減し、データ送信部2003がデータ量低減された複素センサ画像を外部装置に送信する。   A configuration for performing the above data reduction processing will be described. FIG. 31 is a diagram illustrating a configuration example of an imaging system according to the third embodiment. A difference from the imaging system (FIG. 20) of the second embodiment is an imaging apparatus 3101 that replaces the imaging apparatus 2001. Unlike the imaging apparatus 2001, the imaging apparatus 3101 includes a data amount reduction unit 3102. In the imaging apparatus 3101, the fringe scan processing unit 106 outputs a complex sensor image, the data amount reduction unit 3102 reduces the data amount by reducing the number of bits of the complex sensor image, and the data transmission unit 2003 reduces the data amount. The obtained complex sensor image is transmitted to an external device.

図32は、データ量低減部3102の処理例を示すフローチャートである。まず、データ量低減部3102は、フリンジスキャン処理部106から出力される複素センサ画像を取得し、平均値μ0が0でない場合は平均値μ0を減算する(3201)。次に、データ量低減部3102は、複素センサ画像を虚部・実部に分離する(3202)。続いて、データ量低減部3102は、虚部・実部それぞれについて、最大値・最小値を求めるなどして出力データ範囲を決定し(3203)、その範囲に必要なビット精度を決定した後(3204)、決定した範囲・精度で出力データのビット数を制限して出力する(3205)。   FIG. 32 is a flowchart illustrating a processing example of the data amount reduction unit 3102. First, the data amount reduction unit 3102 acquires the complex sensor image output from the fringe scan processing unit 106, and subtracts the average value μ0 if the average value μ0 is not 0 (3201). Next, the data amount reduction unit 3102 separates the complex sensor image into an imaginary part and a real part (3202). Subsequently, the data amount reduction unit 3102 determines the output data range by obtaining the maximum value and the minimum value for each of the imaginary part and the real part (3203), and after determining the bit precision necessary for the range ( 3204), the number of bits of the output data is limited within the determined range / accuracy and output (3205).

図33は、データ量低減部3102の処理の他の例を示すフローチャートである。図33が図32の処理と異なるのは、極座標変換して出力する点である。まず、データ量低減部3102は、フリンジスキャン処理部106から出力される複素センサ画像を取得し、平均値μ0が0でない場合は平均値μ0を減算する(3201)。次に、データ量低減部3102は、複素センサ画像を極座標に変換した後、振幅・位相に分離する(3301)。続いて、データ量低減部3102は、振幅・位相それぞれについて、最大値・最小値を求めるなどして出力データ範囲を決定し(3302)、その範囲に必要なビット精度を決定した後(3303)、決定した範囲・精度で出力データのビット数を制限して出力する(3304)。これにより、分布が複素空間において異方的である場合にデータ低減効率を上げることが可能である。   FIG. 33 is a flowchart illustrating another example of processing of the data amount reduction unit 3102. FIG. 33 differs from the processing of FIG. 32 in that polar coordinates are converted and output. First, the data amount reduction unit 3102 acquires the complex sensor image output from the fringe scan processing unit 106, and subtracts the average value μ0 if the average value μ0 is not 0 (3201). Next, the data amount reduction unit 3102 converts the complex sensor image into polar coordinates, and then separates the complex sensor image into amplitude and phase (3301). Subsequently, the data amount reduction unit 3102 determines the output data range by obtaining the maximum value and the minimum value for each of the amplitude and phase (3302), and after determining the bit precision necessary for the range (3303). The number of bits of the output data is limited within the determined range / accuracy and output (3304). Thereby, it is possible to increase the data reduction efficiency when the distribution is anisotropic in the complex space.

図34は、データ量低減部3102の処理のさらに他の例を示すフローチャートである。図34のフローチャートは、処理3301と処理3302の間に処理3401が追加されている点で、図33と異なる。データ量低減部3102は、分離した振幅・位相データから、分布の形状に応じた位相平均値θ・振幅平均値rを減算する(3401)。これにより、さらに効率的にデータ低減を行うことができる。 FIG. 34 is a flowchart illustrating still another example of the processing of the data amount reduction unit 3102. The flowchart in FIG. 34 differs from FIG. 33 in that a process 3401 is added between the processes 3301 and 3302. The data amount reduction unit 3102 subtracts the phase average value θ 0 and the amplitude average value r 0 corresponding to the distribution shape from the separated amplitude / phase data (3401). Thereby, data reduction can be performed more efficiently.

本実施形態に係る方法・構成によれば、センサ画像データをビット数削減することによりデータ通信量を小さくし、ネットワーク伝送にかかる伝送帯域および消費電力を低減することができる。   According to the method / configuration according to the present embodiment, the amount of data communication can be reduced by reducing the number of bits of sensor image data, and the transmission band and power consumption for network transmission can be reduced.

以上、本発明について複数の実施形態を用いて説明した。もちろん、本発明は上記の実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。   The present invention has been described using a plurality of embodiments. Of course, the present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described.

また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD(Digital Versatile Disc)等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function is stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD (Digital Versatile Disc). Can be put.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

本発明は、撮像装置、撮像方法、および画像処理装置に限られず、撮像システム、画像処理方法、コンピュータ読み取り可能なプログラムなどの様々な態様で提供できる。   The present invention is not limited to an imaging device, an imaging method, and an image processing device, and can be provided in various modes such as an imaging system, an image processing method, and a computer-readable program.

101…撮像装置、102…撮像部、103…画像センサ、103a…画素、104…パターン基板、105…撮影用パターン、106…フリンジスキャン処理部、107…画像処理部、108…コントローラ、301…支持部材、801…現像用パターン、1701…点、1702…投影像、1801…点、1802…投影像、1901…フォーカス設定部、2001…撮像装置、2002…画像処理装置、2003…データ送信部、2004…データ受信部、2601…分布、2801…分布、3101…撮像装置、3102…データ量低減部 DESCRIPTION OF SYMBOLS 101 ... Imaging device, 102 ... Imaging part, 103 ... Image sensor, 103a ... Pixel, 104 ... Pattern substrate, 105 ... Imaging pattern, 106 ... Fringe scan processing part, 107 ... Image processing part, 108 ... Controller, 301 ... Support 801 ... Development pattern, 1701 ... Point, 1702 ... Projected image, 1801 ... Point, 1802 ... Projected image, 1901 ... Focus setting unit, 2001 ... Imaging device, 2002 ... Image processing device, 2003 ... Data transmission unit, 2004 ... Data receiver, 2601 ... distribution, 2801 ... distribution, 3101 ... imaging device, 3102 ... data amount reduction part

Claims (23)

格子パターンに基づいて光の強度を変調する変調器と、
前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、
前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、
前記複素センサ画像を送信するデータ送信部とを有することを特徴とする撮像装置。
A modulator that modulates the intensity of light based on a grating pattern;
An image sensor that converts the light transmitted through the modulator into an electrical signal to generate a sensor image;
A complex sensor image processing unit for generating a complex sensor image having a complex number from the sensor image;
An image pickup apparatus comprising: a data transmission unit that transmits the complex sensor image.
請求項1に記載の撮像装置であって、
前記複素センサ画像処理部は、少なくとも2つ以上のそれぞれ異なる位相パターンの前記センサ画像から前記複素センサ画像を生成することを特徴とする撮像装置。
The imaging apparatus according to claim 1,
The imaging apparatus, wherein the complex sensor image processing unit generates the complex sensor image from at least two sensor images having different phase patterns.
請求項1に記載の撮像装置であって、
下記式に基づき、前記複素センサ画像処理部は前記複素センサ画像を生成することを特徴とする撮像装置。
Figure 2019149674
The imaging apparatus according to claim 1,
The complex sensor image processing unit generates the complex sensor image based on the following expression.
Figure 2019149674
請求項1に記載の撮像装置であって、
前記複素センサ画像のデータ量を低減するデータ量低減部を有することを特徴とする撮像装置。
The imaging apparatus according to claim 1,
An image pickup apparatus comprising: a data amount reducing unit that reduces the data amount of the complex sensor image.
請求項4に記載の撮像装置であって、
前記データ量低減部は、前記複素センサ画像を実部と虚部に分離してデータ量を低減することを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The data amount reducing unit reduces the data amount by separating the complex sensor image into a real part and an imaginary part.
請求項4に記載の撮像装置であって、
前記データ量低減部は、前記複素センサ画像を振幅と位相に分離してデータ量を低減することを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The data amount reduction unit reduces the data amount by separating the complex sensor image into an amplitude and a phase.
請求項4に記載の撮像装置であって、
前記データ量低減部は、前記複素センサ画像の最大値と最小値に基づいてデータ範囲ならびに精度を決定し、出力ビット数を低減することを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The data amount reducing unit determines a data range and accuracy based on a maximum value and a minimum value of the complex sensor image, and reduces the number of output bits.
請求項4に記載の撮像装置であって、
前記データ量低減部は、前記複素センサ画像の分布の標準偏差に基づいてデータ範囲ならびに精度を決定し、出力ビット数を低減することを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The data amount reduction unit determines a data range and accuracy based on a standard deviation of the distribution of the complex sensor image, and reduces the number of output bits.
撮像装置と通信する画像処理装置であって、
前記撮像装置は、第1の格子パターンに基づいて光の強度を変調する変調器と、前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、前記複素センサ画像を送信するデータ送信部とを有し、
前記画像処理装置は、
前記複素センサ画像を受信するデータ受信部と、
前記複素センサ画像と第2の格子パターンのデータとの演算に基づいて像を復元する画像処理部とを有することを特徴とする画像処理装置。
An image processing device that communicates with an imaging device,
The imaging apparatus includes: a modulator that modulates light intensity based on a first grating pattern; an image sensor that converts light transmitted through the modulator into an electrical signal to generate a sensor image; and A complex sensor image processing unit that generates a complex sensor image having a complex number; and a data transmission unit that transmits the complex sensor image;
The image processing apparatus includes:
A data receiver for receiving the complex sensor image;
An image processing apparatus comprising: an image processing unit that restores an image based on a calculation of the complex sensor image and data of a second lattice pattern.
請求項9に記載の画像処理装置であって、
前記複素センサ画像処理部は、少なくとも2以上のそれぞれ異なる位相パターンの前記センサ画像から前記複素センサ画像を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 9,
The complex sensor image processing unit generates the complex sensor image from at least two sensor images having different phase patterns.
請求項9に記載の画像処理装置であって、
下記式に基づき、前記複素センサ画像処理部は前記複素センサ画像を生成することを特徴とする画像処理装置。
Figure 2019149674
The image processing apparatus according to claim 9,
The complex sensor image processing unit generates the complex sensor image based on the following expression.
Figure 2019149674
請求項9に記載の画像処理装置であって、
前記撮像装置は、前記複素センサ画像のデータ量を低減するデータ量低減部を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 9,
The image processing apparatus includes a data amount reducing unit that reduces a data amount of the complex sensor image.
請求項12に記載の画像処理装置であって、
前記データ量低減部は、前記複素センサ画像を実部と虚部に分離してデータ量を低減することを特徴とする画像処理装置。
The image processing apparatus according to claim 12,
The data amount reducing unit reduces the data amount by separating the complex sensor image into a real part and an imaginary part.
請求項12に記載の画像処理装置であって、
前記データ量低減部は、前記複素センサ画像を振幅と位相に分離してデータ量を低減することを特徴とする画像処理装置。
The image processing apparatus according to claim 12,
The data amount reduction unit reduces the data amount by separating the complex sensor image into an amplitude and a phase.
請求項12に記載の画像処理装置であって、
前記データ量低減部は、前記複素センサ画像の最大値と最小値に基づいてデータ範囲ならびに精度を決定し、出力ビット数を低減する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 12,
The data amount reducing unit determines a data range and accuracy based on a maximum value and a minimum value of the complex sensor image, and reduces the number of output bits.
請求項12に記載の画像処理装置であって、
前記データ量低減部は、前記複素センサ画像の分布の標準偏差に基づいてデータ範囲ならびに精度を決定し、出力ビット数を低減することを特徴とする画像処理装置。
The image processing apparatus according to claim 12,
The data amount reduction unit determines a data range and accuracy based on a standard deviation of the distribution of the complex sensor image, and reduces the number of output bits.
第1の格子パターンに基づいて光の強度を変調する変調器と、
前記変調器を透過した光を電気信号に変換してセンサ画像を生成する画像センサと、
前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理部と、
前記複素センサ画像と第2の格子パターンのデータとの演算に基づいて像を復元する画像処理部とを有することを特徴とする撮像装置。
A modulator that modulates the intensity of the light based on the first grating pattern;
An image sensor that converts the light transmitted through the modulator into an electrical signal to generate a sensor image;
A complex sensor image processing unit for generating a complex sensor image having a complex number from the sensor image;
An imaging apparatus comprising: an image processing unit that restores an image based on a calculation of the complex sensor image and data of a second lattice pattern.
請求項17に記載の撮像装置であって、
前記複素センサ画像処理部は、少なくとも2以上のそれぞれ異なる位相パターンの前記センサ画像から前記複素センサ画像を生成することを特徴とする撮像装置。
The imaging device according to claim 17,
The complex sensor image processing unit generates the complex sensor image from at least two sensor images having different phase patterns.
請求項17に記載の撮像装置であって、
下記式に基づき前記複素センサ画像処理部は前記複素センサ画像を生成することを特徴とする撮像装置。
Figure 2019149674
The imaging device according to claim 17,
The complex sensor image processing unit generates the complex sensor image based on the following expression.
Figure 2019149674
第1の格子パターンに基づいて光の強度を変調する変調ステップと、
前記変調された光を電気信号に変換してセンサ画像を生成する画像生成ステップと、
前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像処理ステップと、
前記複素センサ画像を送信するデータ送信ステップとを有することを特徴とする撮像方法。
A modulation step for modulating the intensity of the light based on the first grating pattern;
An image generation step of converting the modulated light into an electrical signal to generate a sensor image;
A complex sensor image processing step of generating a complex sensor image having a complex number from the sensor image;
And a data transmission step of transmitting the complex sensor image.
請求項20に記載の撮像方法であって、
前記複素センサ画像処理ステップは、少なくとも2以上のそれぞれ異なる位相パターンの前記センサ画像から前記複素センサ画像を生成することを特徴とする撮像方法。
The imaging method according to claim 20, wherein
The complex sensor image processing step generates the complex sensor image from at least two sensor images having different phase patterns.
請求項20に記載の撮像方法であって、
下記式に基づき、前記複素センサ画像処理ステップで前記複素センサ画像を生成することを特徴とする撮像方法。
Figure 2019149674
The imaging method according to claim 20, wherein
An imaging method, wherein the complex sensor image is generated in the complex sensor image processing step based on the following equation.
Figure 2019149674
請求項20に記載の撮像方法であって、
前記複素センサ画像と第2の格子パターンのデータとの演算に基づいて像を復元する画像処理ステップとを有することを特徴とする撮像方法。
The imaging method according to claim 20, wherein
An image processing method comprising: an image processing step of restoring an image based on a calculation of the complex sensor image and data of a second lattice pattern.
JP2018033062A 2018-02-27 2018-02-27 Imaging apparatus, imaging method, and image processing apparatus Pending JP2019149674A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018033062A JP2019149674A (en) 2018-02-27 2018-02-27 Imaging apparatus, imaging method, and image processing apparatus
CN201910035165.5A CN110198391B (en) 2018-02-27 2019-01-15 Image pickup device, image pickup method, and image processing device
US16/278,857 US10951793B2 (en) 2018-02-27 2019-02-19 Imaging device, imaging method, and image processing device generating a complex sensor image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018033062A JP2019149674A (en) 2018-02-27 2018-02-27 Imaging apparatus, imaging method, and image processing apparatus

Publications (1)

Publication Number Publication Date
JP2019149674A true JP2019149674A (en) 2019-09-05

Family

ID=67686251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018033062A Pending JP2019149674A (en) 2018-02-27 2018-02-27 Imaging apparatus, imaging method, and image processing apparatus

Country Status (3)

Country Link
US (1) US10951793B2 (en)
JP (1) JP2019149674A (en)
CN (1) CN110198391B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6999820B2 (en) * 2018-08-08 2022-01-19 マクセル株式会社 Imaging device, imaging system, and imaging method
US11740468B2 (en) * 2018-09-18 2023-08-29 Maxell, Ltd. Distance measuring apparatus, imaging device, distance measuring system, distance measuring method, and imaging method
US12333737B2 (en) * 2021-09-23 2025-06-17 Rolls-Royce Corporation Powder flow measurement in additive manufacturing systems

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6943827B2 (en) * 2001-04-16 2005-09-13 Kddi Corporation Apparatus for monitoring quality of picture in transmission
JP2014045869A (en) * 2012-08-30 2014-03-17 Canon Inc Imaging apparatus, image processing device, and image processing method
CN103604373B (en) * 2013-11-20 2016-04-20 沈阳工业大学 Optical grating Moire fringe small echo divided method and grating displacement measuring device
CN113726997A (en) * 2015-06-17 2021-11-30 麦克赛尔株式会社 Imaging device and image generation method
CN108702440B (en) 2016-02-26 2021-06-29 株式会社日立制作所 camera
JP6571266B2 (en) 2016-03-02 2019-09-04 株式会社日立製作所 Imaging device

Also Published As

Publication number Publication date
US10951793B2 (en) 2021-03-16
CN110198391A (en) 2019-09-03
CN110198391B (en) 2021-07-27
US20190268507A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
US10551532B2 (en) Imaging device and imaging method
JP2018098623A (en) Imaging device
JP7061883B2 (en) Image display device and image display method
US11743480B2 (en) Imaging apparatus and imaging system
CN110198391B (en) Image pickup device, image pickup method, and image processing device
CN110324513B (en) Image pickup apparatus, image pickup module, and image pickup method
CN109900249B (en) Distance measuring device and distance measuring method
JP6646619B2 (en) Imaging device
JP7097787B2 (en) Imaging device and imaging method
JP2023016864A (en) Imaging apparatus and method
JP6807281B2 (en) Imaging device, imaging system, and imaging method
JP6864604B2 (en) Imaging device
JP6807286B2 (en) Imaging device and imaging method
JP7146698B2 (en) Imaging device, imaging method, transmitting device of imaging system, and receiving device of imaging system
US20220263992A1 (en) Imaging device, portable terminal, and exposure control method
JP7159118B2 (en) Imaging device
CN110278350B (en) camera
WO2020178905A1 (en) Imaging device and imaging method
JP7065761B2 (en) Distance measuring device and distance measuring method
JP7278454B2 (en) image display device
JP2022180800A (en) Imaging device