[go: up one dir, main page]

JP2017183870A - Imaging processing device, imaging processing method, computer program and electronic equipment - Google Patents

Imaging processing device, imaging processing method, computer program and electronic equipment Download PDF

Info

Publication number
JP2017183870A
JP2017183870A JP2016065220A JP2016065220A JP2017183870A JP 2017183870 A JP2017183870 A JP 2017183870A JP 2016065220 A JP2016065220 A JP 2016065220A JP 2016065220 A JP2016065220 A JP 2016065220A JP 2017183870 A JP2017183870 A JP 2017183870A
Authority
JP
Japan
Prior art keywords
image
exposure
imaging processing
processing apparatus
exposure time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016065220A
Other languages
Japanese (ja)
Inventor
淳 橋爪
Atsushi Hashizume
淳 橋爪
真生 全
Masao ZEN
真生 全
洋輔 田中
Yosuke Tanaka
洋輔 田中
中島 務
Tsutomu Nakajima
務 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016065220A priority Critical patent/JP2017183870A/en
Priority to PCT/JP2017/005575 priority patent/WO2017169233A1/en
Publication of JP2017183870A publication Critical patent/JP2017183870A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging processing device that can realize suppression of a blur of a composite image and settable range extension of exposure time at the same time in executing imaging based on a plurality of frames by means of one time shutter trigger.SOLUTION: An imaging processing device is provided, the imaging processing device comprising a control unit that generates a first image by performing a first exposure on a pixel for first exposure time, and generates a second image by performing a second exposure on a pixel for a second exposure time following the first image. The control unit minimizes an interval between a lead start of the first exposure and a shutter start of the second exposure in a predetermined row of the pixel.SELECTED DRAWING: Figure 1

Description

本開示は、撮像処理装置、撮像処理方法、コンピュータプログラム及び電子機器に関する。   The present disclosure relates to an imaging processing apparatus, an imaging processing method, a computer program, and an electronic apparatus.

デジタルスチルカメラには、事前に複数フレーム分の設定をしておき、所定の撮像トリガを起点として、1枚ずつ自動で設定を変更しながら連続した複数のフレームを撮像する機能が備えられているものがある。その設定のうち、露光時間、ゲイン、フラッシュ、高感度モードなどの露光系の設定を変更しながら撮像する機能のことをAEB(Auto Exposure Bracketing)と呼ぶ(例えば特許文献1参照)。   The digital still camera has a function of setting a plurality of frames in advance and imaging a plurality of consecutive frames while automatically changing the setting one by one from a predetermined imaging trigger as a starting point. There is something. Of these settings, the function of imaging while changing the exposure system settings such as exposure time, gain, flash, and high sensitivity mode is called AEB (Auto Exposure Bracketing) (see, for example, Patent Document 1).

特開2009−284181号公報JP 2009-284181 A

既存のAEBは、複数フレームを同じフレームレートで撮像していた。従って、露光時間が短いと、フレーム間に大きな間隔が生じる。フレーム間に大きな間隔が生じた撮像画像を合成するとブラー(被写体ぶれ)が目立つ。一方で、読出し間隔を狭めればブラーを抑制できるが、その反面で最大露光時間の上限が短くなり、露光時間の設定可能範囲が狭まる。   Existing AEB images multiple frames at the same frame rate. Therefore, when the exposure time is short, a large interval is generated between the frames. Blur (subject blurring) becomes noticeable when captured images with large intervals between frames are combined. On the other hand, blurring can be suppressed by narrowing the readout interval, but on the other hand, the upper limit of the maximum exposure time is shortened, and the settable range of exposure time is narrowed.

そこで、本開示では、一度のシャッタトリガで複数フレームでの撮像を実行する際に、合成画像のブラーの抑制と露光時間の設定可能範囲の広範化とを同時に実現可能な、新規かつ改良された撮像処理装置、撮像処理方法、コンピュータプログラム及び電子機器を提案する。   Therefore, in the present disclosure, when performing imaging in a plurality of frames with a single shutter trigger, it is possible to simultaneously realize suppression of blurring of a composite image and widening of a settable range of exposure time. An imaging processing apparatus, an imaging processing method, a computer program, and an electronic device are proposed.

本開示によれば、第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成する制御部を備え、前記制御部は、前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化する、撮像処理装置が提供される。   According to the present disclosure, a first image is generated by exposing a pixel by first exposure with a first exposure time, and a pixel is exposed by second exposure with a second exposure time following the first image. An imaging processing apparatus comprising: a control unit that generates a second image, wherein the control unit minimizes an interval between a read start of the first exposure and a shutter start of the second exposure in a predetermined row of the pixels. Provided.

また本開示によれば、第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成することと、前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化することと、を含む、撮像処理方法が提供される。   According to the present disclosure, the first image is generated by exposing the pixel by the first exposure with the first exposure time, and the pixel is exposed by the second exposure by the second exposure time following the first image. Providing an imaging processing method including: generating a second image; and minimizing an interval between the read start of the first exposure and the shutter start of the second exposure in a predetermined row of the pixels. Is done.

また本開示によれば、コンピュータに、第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成することと、前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化することと、を実行させる、コンピュータプログラムが提供される。   Further, according to the present disclosure, the computer generates a first image by exposing the pixel by the first exposure according to the first exposure time, and then the pixel is performed by the second exposure by the second exposure time following the first image. A computer that generates a second image by exposure and minimizes the interval between the read start of the first exposure and the shutter start of the second exposure in a predetermined row of the pixels. A program is provided.

また本開示によれば、上記撮像処理装置を備える電子機器が提供される。   Moreover, according to this indication, an electronic device provided with the said imaging processing apparatus is provided.

以上説明したように本開示によれば、一度のシャッタトリガで複数フレームでの撮像を実行する際に、合成画像のブラーの抑制と露光時間の設定可能範囲の広範化とを同時に実現可能な、新規かつ改良された撮像処理装置、撮像処理方法、コンピュータプログラム及び電子機器を提供することが出来る。   As described above, according to the present disclosure, when performing imaging in a plurality of frames with a single shutter trigger, it is possible to simultaneously realize suppression of blurring of a composite image and widening of a settable range of exposure time. A new and improved imaging processing apparatus, imaging processing method, computer program, and electronic apparatus can be provided.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。   Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.

従来のAEB機能を説明する説明図である。It is explanatory drawing explaining the conventional AEB function. 従来のAEB機能を説明する説明図である。It is explanatory drawing explaining the conventional AEB function. 従来のAEB機能を説明する説明図である。It is explanatory drawing explaining the conventional AEB function. 露光間隔が開いた複数の画像を合成する例を示す説明図である。It is explanatory drawing which shows the example which synthesize | combines the some image with which the exposure space | interval opened. 本開示の実施の形態に係る電子機器10の機能構成例を示す説明図である。3 is an explanatory diagram illustrating a functional configuration example of an electronic device 10 according to an embodiment of the present disclosure. FIG. 撮像部11に含まれるセンサモジュール100の構成例を示す説明図である。2 is an explanatory diagram illustrating a configuration example of a sensor module 100 included in an imaging unit 11. FIG. 同実施の形態に係るセンサモジュール100の機能構成例を示す説明図である。It is explanatory drawing which shows the function structural example of the sensor module 100 which concerns on the same embodiment. 同実施の形態に係るセンサモジュール100の動作例を示す流れ図である。It is a flowchart which shows the operation example of the sensor module 100 which concerns on the same embodiment. 同実施の形態に係るセンサモジュール100が実行するAEB機能の様子の一例を示す説明図である。It is explanatory drawing which shows an example of the mode of the AEB function which the sensor module 100 concerning the embodiment performs. 同実施形態に係るセンサモジュール100の効果例を示す説明図である。It is explanatory drawing which shows the example of an effect of the sensor module 100 which concerns on the same embodiment. 同実施形態に係るセンサモジュール100における画素のリセット期間の一例を示す説明図である。5 is an explanatory diagram illustrating an example of a pixel reset period in the sensor module 100 according to the embodiment. FIG. 同開示の実施の形態に係るセンサモジュール100が実行するAEB機能の様子の一例を示す説明図である。It is explanatory drawing which shows an example of the mode of the AEB function which the sensor module 100 which concerns on embodiment of the same execution performs. 同実施形態に係るセンサモジュール100によるフレームレートの変換処理の例を示す説明図である。It is explanatory drawing which shows the example of the conversion process of the frame rate by the sensor module 100 concerning the embodiment. 同実施形態に係るセンサモジュール100が、画素に対するシャッタやリードに掛かる時間を高速化した場合の例を示す説明図である。It is explanatory drawing which shows the example when the sensor module 100 which concerns on the same embodiment speeds up the time concerning the shutter and lead with respect to a pixel. センサモジュール100による、画像記憶部121を介したフレームレートの変換処理をより詳細に示す説明図である。It is explanatory drawing which shows the conversion process of the frame rate via the image memory | storage part 121 by the sensor module 100 in detail.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は以下の順序で行うものとする。
1.本開示の実施の形態
1.1.概要
1.2.機能構成例
1.3.センサモジュールの構成例
1.4.動作例
2.まとめ
The description will be made in the following order.
1. Embodiment of the present disclosure 1.1. Outline 1.2. Functional configuration example 1.3. Configuration example of sensor module 1.4. Example of operation Summary

<1.本開示の実施の形態>
[1.1.概要]
本開示の実施の形態について詳細に説明する前に、まず本開示の実施の形態の概要について説明する。
<1. Embodiment of the present disclosure>
[1.1. Overview]
Before describing the embodiments of the present disclosure in detail, an outline of the embodiments of the present disclosure will be described first.

上述のように、デジタルスチルカメラには、事前に複数フレーム分の設定をしておき、所定の撮像トリガを起点として、1枚ずつ自動で設定を変更しながら連続した複数のフレームを撮像する機能が備えられているものがある。その設定のうち、露光時間、ゲイン、フラッシュ、高感度モードなどの露光系の設定を変更しながら撮像する機能のことをAEBと称する。   As described above, the digital still camera has a setting for a plurality of frames in advance, and images a plurality of continuous frames while automatically changing the settings one by one starting from a predetermined imaging trigger. Some are equipped with. Among these settings, a function for imaging while changing exposure system settings such as exposure time, gain, flash, and high sensitivity mode is referred to as AEB.

従来のAEB機能は、所定の撮像トリガを起点として、複数フレームを同じフレームレートで撮像していた。図1は、従来のAEB機能を説明する説明図であり、複数フレームを同じフレームレートで撮像する従来のAEB機能について説明する説明図である。図1の実線は撮像素子に対するシャッタタイミングを示し、破線は撮像素子からデータを読み出すリードタイミングを示している。   The conventional AEB function images a plurality of frames at the same frame rate starting from a predetermined imaging trigger. FIG. 1 is an explanatory diagram illustrating a conventional AEB function, and is an explanatory diagram illustrating a conventional AEB function for imaging a plurality of frames at the same frame rate. The solid line in FIG. 1 indicates the shutter timing for the image sensor, and the broken line indicates the read timing for reading data from the image sensor.

複数フレームを同じフレームレートで撮像する場合、画素からのデータの読出し間隔は、図1に示したように定常間隔となる。従って、画素のシャッタタイミングは、画素からのデータの読出しタイミングに合わせる必要がある。そのため、図1に示したように、露光時間次第では、前のフレームのデータの読出しタイミングと、次のフレームのシャッタタイミングに大きなブランクが生じうる。   When multiple frames are imaged at the same frame rate, the data reading interval from the pixels is a steady interval as shown in FIG. Therefore, it is necessary to match the shutter timing of the pixel with the timing of reading data from the pixel. Therefore, as shown in FIG. 1, depending on the exposure time, a large blank may occur in the data read timing of the previous frame and the shutter timing of the next frame.

図2は、垂直同期信号(V同期信号)のタイミングで画素からデータを読み出すことで連続した複数のフレームで画像を生成する従来のAEB機能を説明する説明図である。図2には、フレームf1からf4までの4つの連続したフレームで、露光時間を変えた画像を生成する様子が示されている。なお、リードとシャッタとの間には、画素をリセットするリセット期間が少なくとも必要である。従って、露光間隔は、この画素のリセット期間が含まれている。このように垂直同期信号のタイミングで画素からデータを読み出すことで連続した複数のフレームで画像を生成する場合、露光時間次第では露光間隔が長くなる。   FIG. 2 is an explanatory diagram for explaining a conventional AEB function for generating an image with a plurality of continuous frames by reading data from a pixel at the timing of a vertical synchronization signal (V synchronization signal). FIG. 2 shows a state in which images with different exposure times are generated in four consecutive frames from frames f1 to f4. Note that at least a reset period for resetting the pixels is required between the lead and the shutter. Therefore, the exposure interval includes this pixel reset period. In this way, when an image is generated with a plurality of continuous frames by reading data from the pixel at the timing of the vertical synchronization signal, the exposure interval becomes longer depending on the exposure time.

図3は、垂直同期信号(V同期信号)のタイミングで画素からデータを読み出すことで連続した複数のフレームで画像を生成する従来のAEB機能を説明する説明図である。図3には、図2と同様にフレームf1からf4までの4つの連続したフレームで、露光時間を変えた画像を生成する様子が示されている。このように露光時間が垂直同期信号の間隔に比べて短くなるような場合、前のフレームのデータのリードと、次のフレームのシャッタとの間の露光間隔が長くなる。   FIG. 3 is an explanatory diagram for explaining a conventional AEB function for generating an image with a plurality of continuous frames by reading data from a pixel at the timing of a vertical synchronization signal (V synchronization signal). FIG. 3 shows a state in which images having different exposure times are generated in four consecutive frames from frames f1 to f4, as in FIG. Thus, when the exposure time is shorter than the interval of the vertical synchronization signal, the exposure interval between the data read of the previous frame and the shutter of the next frame becomes longer.

このように、露光間隔が開いた複数の画像が生成される場合、その複数の画像を合成すると被写体ぶれ(ブラー)が発生しうる。   As described above, when a plurality of images having an exposure interval are generated, subject blurring may occur when the plurality of images are combined.

図4は、露光間隔が開いた複数の画像を合成する例を示す説明図である。図4では、長い露光時間での撮像と、短い露光時間での撮像を繰り返し、長い露光時間で撮像された画像と、短い露光時間で撮像された画像とを合成する例が示されている。なお、以下の説明では、長い露光時間での撮像を「長蓄」、短い露光時間での撮像を「短蓄」とも称する。   FIG. 4 is an explanatory diagram showing an example of combining a plurality of images with an exposure interval wide. FIG. 4 shows an example in which imaging with a long exposure time and imaging with a short exposure time are repeated, and an image captured with a long exposure time and an image captured with a short exposure time are combined. In the following description, imaging with a long exposure time is also referred to as “long accumulation”, and imaging with a short exposure time is also referred to as “short accumulation”.

図4に示した例では、長蓄による画像と短蓄による画像とを合成しているが、上述したように、垂直同期信号のタイミングで画素からデータを読み出すと、前のフレームのデータのリードと、次のフレームのシャッタとの間の露光間隔が長くなる。従って、動きのある被写体を連続して撮像して、長蓄による画像と短蓄による画像とを合成すると、図4に示したように合成画像のブラーが大きくなってしまう。   In the example shown in FIG. 4, an image by long accumulation and an image by short accumulation are synthesized. However, as described above, when data is read from the pixel at the timing of the vertical synchronization signal, the data of the previous frame is read. And the exposure interval between the shutter of the next frame becomes longer. Therefore, when a moving subject is continuously imaged and an image with long accumulation and an image with short accumulation are combined, blurring of the combined image increases as shown in FIG.

垂直同期信号のタイミングで画素からデータを読み出しつつ、合成画像のブラーを抑えるためには、画素からのデータの読出し間隔、すなわち垂直同期信号の間隔を狭めればよい。しかし、垂直同期信号の間隔を狭めると、その反面で最大露光時間の上限が短くなり、露光時間の設定可能範囲が狭まる。露光時間の設定可能範囲が狭まると、図4に示したような長蓄による画像を生成することが出来なくなってしまう。   In order to suppress blurring of the composite image while reading data from the pixel at the timing of the vertical synchronization signal, the data read interval from the pixel, that is, the vertical synchronization signal interval may be narrowed. However, if the interval of the vertical synchronization signals is narrowed, the upper limit of the maximum exposure time is shortened and the settable range of the exposure time is narrowed. When the settable range of the exposure time is narrowed, it becomes impossible to generate an image based on long accumulation as shown in FIG.

そこで本件開示者は、上述した点に鑑みて、ブラーの抑制と露光時間の設定可能範囲の広範化とを同時に実現可能な技術について鋭意検討を行った。その結果、本件開示者は、以下で説明するように、画素からのデータの読出し間隔を極小化することでブラーの抑制と露光時間の設定可能範囲の広範化とを同時に実現可能な技術を考案するに至った。   Therefore, in view of the above-described points, the present disclosure has intensively studied a technique that can simultaneously realize suppression of blur and widening of a settable range of exposure time. As a result, as described below, the present inventor has devised a technology that can simultaneously realize blur suppression and widening of a settable range of exposure time by minimizing the data reading interval from the pixel. It came to do.

以上、本開示の実施の形態の概要を説明した。   The outline of the embodiment of the present disclosure has been described above.

[1.2.機能構成例]
続いて、本開示の実施の形態に係る電子機器の機能構成例について説明する。図5は、本開示の実施の形態に係る電子機器10の機能構成例を示す説明図である。以下、図5を用いて本開示の実施の形態に係る電子機器10の機能構成例について説明する。
[1.2. Functional configuration example]
Subsequently, a functional configuration example of the electronic device according to the embodiment of the present disclosure will be described. FIG. 5 is an explanatory diagram illustrating a functional configuration example of the electronic device 10 according to the embodiment of the present disclosure. Hereinafter, a functional configuration example of the electronic device 10 according to the embodiment of the present disclosure will be described with reference to FIG.

図5に示したように、本開示の実施の形態に係る電子機器10は、撮像部11と、画像処理部12と、表示部13と、制御部14と、記憶部15と、操作部16と、を含んで構成される。   As illustrated in FIG. 5, the electronic device 10 according to the embodiment of the present disclosure includes an imaging unit 11, an image processing unit 12, a display unit 13, a control unit 14, a storage unit 15, and an operation unit 16. And comprising.

撮像部11は、レンズや、センサモジュール等を含んで構成され、レンズを通じてセンサモジュールの受光面に結像される像に応じて、所定期間電子を蓄積する。撮像部11は、その蓄積された電子に応じた信号に対して所定の信号処理を行う。そして撮像部11は、信号処理を行った後の信号を画像処理部12に出力する。なお、撮像部11に含まれるセンサモジュールの構成については後に詳述する。   The imaging unit 11 includes a lens, a sensor module, and the like, and accumulates electrons for a predetermined period according to an image formed on the light receiving surface of the sensor module through the lens. The imaging unit 11 performs predetermined signal processing on a signal corresponding to the accumulated electrons. Then, the imaging unit 11 outputs the signal after the signal processing to the image processing unit 12. The configuration of the sensor module included in the imaging unit 11 will be described in detail later.

撮像部11は、上記所定の信号処理として、電子式手振れ補正方式による手振れ補正処理、自動ホワイトバランス処理、自動露出処理、歪補正処理、欠陥補正処理、ノイズ低減処理、ハイダイナミックレンジ合成処理などの信号処理を実行しうる。   The imaging unit 11 includes, as the predetermined signal processing, camera shake correction processing using an electronic camera shake correction method, automatic white balance processing, automatic exposure processing, distortion correction processing, defect correction processing, noise reduction processing, high dynamic range synthesis processing, and the like. Signal processing may be performed.

画像処理部12は、例えばアプリケーションプロセッサ(AP)で構成され、撮像部11から出力される信号を用いて画像処理を実行する。画像処理部12が実行する画像処理には、例えば撮像部11から出力される信号を用いたデモザイク処理、デモザイク処理後の画像の表示部13への表示処理や、記憶部15への記憶処理などがある。   The image processing unit 12 includes, for example, an application processor (AP), and executes image processing using a signal output from the imaging unit 11. The image processing executed by the image processing unit 12 includes, for example, demosaic processing using a signal output from the imaging unit 11, display processing of the demosaiced image on the display unit 13, storage processing in the storage unit 15, and the like. There is.

表示部13は、例えば液晶ディスプレイ、有機ELディスプレイなどで構成される表示デバイスである。表示部13は、制御部14によって表示内容が制御される。例えば、表示部13は、撮像部11によって撮像されて、画像処理部12によって画像処理が行われた画像を、制御部14の制御に基づいて表示する。   The display unit 13 is a display device configured by, for example, a liquid crystal display or an organic EL display. Display contents of the display unit 13 are controlled by the control unit 14. For example, the display unit 13 displays an image captured by the imaging unit 11 and subjected to image processing by the image processing unit 12 based on the control of the control unit 14.

制御部14は、例えばCPU(Central Processing Unit)等のプロセッサや、ROM、RAMなどで構成され、電子機器10の各部の動作を制御する。   The control unit 14 includes, for example, a processor such as a CPU (Central Processing Unit), a ROM, a RAM, and the like, and controls the operation of each unit of the electronic device 10.

記憶部15は、例えばフラッシュメモリその他の不揮発性メモリなどの記憶媒体で構成される。記憶部15は、撮像部11によって撮像されて、画像処理部12によって画像処理が行われた画像を記憶する。記憶部15が記憶した画像は、電子機器10のユーザの操作に応じて表示部13に表示されうる。   The storage unit 15 is configured by a storage medium such as a flash memory or other nonvolatile memory. The storage unit 15 stores an image captured by the imaging unit 11 and subjected to image processing by the image processing unit 12. The image stored in the storage unit 15 can be displayed on the display unit 13 in accordance with the operation of the user of the electronic device 10.

操作部16は、電子機器10の操作のためのデバイスであり、例えばボタンやタッチパネルなどで構成される。操作部16がタッチパネルを含む場合、タッチパネルは表示部13の表示面に設けられる。電子機器10のユーザは、撮像部11が撮像する画像を電子機器10に記録したい場合には、操作部16の所定のボタンを操作することでシャッタトリガを発生させる。撮像部11や画像処理部12は、シャッタトリガの発生を検知すると、そのシャッタトリガの発生に応じて画像を電子機器10に記録するための処理を実行する。   The operation unit 16 is a device for operating the electronic device 10 and includes, for example, buttons and a touch panel. When the operation unit 16 includes a touch panel, the touch panel is provided on the display surface of the display unit 13. When the user of the electronic device 10 wants to record the image captured by the imaging unit 11 in the electronic device 10, the user triggers a shutter trigger by operating a predetermined button of the operation unit 16. When the imaging unit 11 and the image processing unit 12 detect the occurrence of the shutter trigger, the imaging unit 11 and the image processing unit 12 execute a process for recording an image on the electronic device 10 according to the generation of the shutter trigger.

図5に示した電子機器10は、特定の機器に限定されるものでは無く、例えばデジタルカメラ、スマートフォン、タブレット型携帯端末、携帯型音楽再生装置、ゲーム機などの様々な形態をとりうる。   The electronic device 10 illustrated in FIG. 5 is not limited to a specific device, and may take various forms such as a digital camera, a smartphone, a tablet portable terminal, a portable music playback device, and a game machine.

以上、本開示の実施の形態に係る電子機器10の機能構成例について説明した。続いて、本開示の実施の形態に係る電子機器10の、撮像部11に含まれるイメージセンサの構成例について説明する。   Heretofore, the functional configuration example of the electronic device 10 according to the embodiment of the present disclosure has been described. Next, a configuration example of the image sensor included in the imaging unit 11 of the electronic device 10 according to the embodiment of the present disclosure will be described.

[1.3.センサモジュールの構成例]
図6は、撮像部11に含まれるセンサモジュール100の構成例を示す説明図である。本開示の実施の形態に係るセンサモジュール100は、本開示の画像処理装置の一例で有り、図6に示したように、3つの基盤が積層されて構成されている。本開示の実施の形態に係るセンサモジュール100は、画素基板110と、メモリ基板120と、信号処理基板130と、の順に積層された構成を有する。
[1.3. Example of sensor module configuration]
FIG. 6 is an explanatory diagram illustrating a configuration example of the sensor module 100 included in the imaging unit 11. The sensor module 100 according to the embodiment of the present disclosure is an example of the image processing apparatus of the present disclosure, and is configured by stacking three substrates as illustrated in FIG. 6. The sensor module 100 according to the embodiment of the present disclosure has a configuration in which a pixel substrate 110, a memory substrate 120, and a signal processing substrate 130 are stacked in this order.

画素基板110は、単位画素がアレイ状に形成された画素領域からなる撮像素子を有する基板である。各単位画素は、被写体からの光を受光し、その入射光を光電変換して電荷を蓄積し、所定のタイミングにおいて、その電荷を画素信号として出力する。画素基板110が出力する画素信号は、メモリ基板120に蓄えられ、また信号処理基板130において信号処理が施される。なお、画素基板110は、アナログ信号をデジタル信号に変換するAD変換器を備える。すなわち画素基板110が出力する画素信号はデジタル信号である。   The pixel substrate 110 is a substrate having an image sensor composed of pixel regions in which unit pixels are formed in an array. Each unit pixel receives light from a subject, photoelectrically converts the incident light, accumulates charges, and outputs the charges as pixel signals at a predetermined timing. Pixel signals output from the pixel substrate 110 are stored in the memory substrate 120, and signal processing is performed in the signal processing substrate 130. The pixel substrate 110 includes an AD converter that converts an analog signal into a digital signal. That is, the pixel signal output from the pixel substrate 110 is a digital signal.

メモリ基板120は、画素基板110が出力する画素信号を一時的に蓄えるDRAM(Dynamic Random Access Memory)などのメモリを有する基板である。メモリ基板120は、複数フレームの画素信号を一時的に蓄えることができる容量を有する。メモリ基板120に蓄えられた画素信号は、信号処理基板130からの読出し命令に基づいて読み出される。   The memory substrate 120 is a substrate having a memory such as a DRAM (Dynamic Random Access Memory) that temporarily stores pixel signals output from the pixel substrate 110. The memory substrate 120 has a capacity capable of temporarily storing pixel signals of a plurality of frames. The pixel signal stored in the memory substrate 120 is read based on a read command from the signal processing substrate 130.

信号処理基板130は、メモリ基板120に蓄えられた画素信号に対する各種信号処理を実行する。信号処理基板130が実行する信号処理は、メモリ基板120に蓄えられた画素信号に対する画質に関する信号処理であり、例えば、電子式手振れ補正方式による手振れ補正処理、自動ホワイトバランス処理、自動露出処理、歪補正処理、欠陥補正処理、ノイズ低減処理、ハイダイナミックレンジ合成処理などの信号処理を実行しうる。また信号処理基板130は、複数フレームで撮像された画像の合成処理を実行しうる。   The signal processing board 130 performs various signal processes on the pixel signals stored in the memory board 120. The signal processing executed by the signal processing board 130 is signal processing related to image quality with respect to the pixel signals stored in the memory board 120. For example, camera shake correction processing by an electronic camera shake correction method, automatic white balance processing, automatic exposure processing, distortion Signal processing such as correction processing, defect correction processing, noise reduction processing, and high dynamic range synthesis processing can be executed. In addition, the signal processing board 130 can execute a synthesis process of images captured in a plurality of frames.

なお、図6にはセンサモジュール100が画素基板110と、メモリ基板120と、信号処理基板130と、の順に積層された構成の図を示したが、本開示は係る例に限定されない。例えば、センサモジュール100が画素基板110と、信号処理基板130と、メモリ基板120と、の順に積層された構成を有していても良い。   6 illustrates a configuration in which the sensor module 100 is stacked in the order of the pixel substrate 110, the memory substrate 120, and the signal processing substrate 130. However, the present disclosure is not limited to such an example. For example, the sensor module 100 may have a configuration in which a pixel substrate 110, a signal processing substrate 130, and a memory substrate 120 are stacked in this order.

以上、図6を用いてセンサモジュール100の構成例について説明した。続いて、センサモジュール100の機能構成例について説明する。   The configuration example of the sensor module 100 has been described above with reference to FIG. Subsequently, a functional configuration example of the sensor module 100 will be described.

図7は、本開示の実施の形態に係るセンサモジュール100の機能構成例を示す説明図である。以下、図7を用いて本開示の実施の形態に係るセンサモジュール100の機能構成例について説明する。   FIG. 7 is an explanatory diagram illustrating a functional configuration example of the sensor module 100 according to the embodiment of the present disclosure. Hereinafter, a functional configuration example of the sensor module 100 according to the embodiment of the present disclosure will be described with reference to FIG.

画素基板110は、単位画素がアレイ状に形成された画素領域からなる撮像素子111と、所定のクロック信号やタイミング信号を撮像素子111に供給する制御部112と、を備える。制御部112からの信号に応じて撮像素子111が出力する画素信号は信号処理基板130に一旦送られた後に、メモリ基板120に送られる。   The pixel substrate 110 includes an image sensor 111 having a pixel region in which unit pixels are formed in an array, and a control unit 112 that supplies a predetermined clock signal and timing signal to the image sensor 111. A pixel signal output from the image sensor 111 in response to a signal from the control unit 112 is once sent to the signal processing board 130 and then sent to the memory board 120.

本実施形態では、撮像素子111は、CMOSイメージセンサが用いられ、露光によって生成される画素信号がローリングシャッタ方式により読み出される。制御部112は、後述するように、AEB機能を実行する場合には、あるフレームにおける露光(第1露光)のリード開始と、次のフレームにおける露光(第2露光)のシャッタ開始との間隔を極小化するように、タイミング信号を撮像素子111に供給する。このように制御部112がタイミング信号を撮像素子111に供給することで、本開示の実施の形態に係るセンサモジュール100は、ブラーの抑制と露光時間の設定可能範囲の広範化とを同時に実現することができる。   In the present embodiment, the image sensor 111 uses a CMOS image sensor, and a pixel signal generated by exposure is read out by a rolling shutter system. As will be described later, when executing the AEB function, the control unit 112 sets an interval between the read start of exposure (first exposure) in a certain frame and the shutter start of exposure (second exposure) in the next frame. A timing signal is supplied to the image sensor 111 so as to minimize it. In this way, the control unit 112 supplies the timing signal to the image sensor 111, so that the sensor module 100 according to the embodiment of the present disclosure simultaneously realizes suppression of blur and widening of a settable range of exposure time. be able to.

メモリ基板120は、DRAM(Dynamic Random Access Memory)などで構成される画像記憶部121を有する。画像記憶部121は、撮像素子111が出力する画素信号を一時的に蓄える。画像記憶部121は、例えば、複数フレームの画素信号を一時的に蓄えることができる容量を有する。画像記憶部121に蓄えられた画素信号は、信号処理基板130からの読出し命令に基づいて読み出される。   The memory substrate 120 includes an image storage unit 121 configured by a DRAM (Dynamic Random Access Memory) or the like. The image storage unit 121 temporarily stores pixel signals output from the image sensor 111. For example, the image storage unit 121 has a capacity capable of temporarily storing pixel signals of a plurality of frames. The pixel signal stored in the image storage unit 121 is read based on a read command from the signal processing board 130.

信号処理基板130は、前処理部131と、後処理部132と、を含んで構成される。   The signal processing board 130 includes a pre-processing unit 131 and a post-processing unit 132.

前処理部131は、撮像素子111が出力する画素信号に対する信号処理を施す。前処理部131は、信号処理を施した後の画素信号を画像記憶部121に記憶させる。前処理部131が実行する信号処理には、例えば、ゲイン調整処理やクランプ処理、画素加算処理などが含まれうる。   The preprocessing unit 131 performs signal processing on the pixel signal output from the image sensor 111. The preprocessing unit 131 stores the pixel signal after the signal processing in the image storage unit 121. The signal processing executed by the preprocessing unit 131 can include, for example, gain adjustment processing, clamping processing, pixel addition processing, and the like.

後処理部132は、画像記憶部121に記憶された画素信号に対する信号処理を実行する。後処理部132は、画像記憶部121に記憶された画素信号に対する信号処理を実行すると、信号処理後の画素信号を画像処理部12へ出力する。後処理部132が実行する信号処理としては、例えば、自動ホワイトバランス処理、自動露出処理、歪補正処理、欠陥補正処理、ノイズ低減処理、ハイダイナミックレンジ合成処理などが含まれうる。また後処理部132は、複数フレームで撮像された画像の合成処理を実行しうる。   The post-processing unit 132 performs signal processing on the pixel signal stored in the image storage unit 121. When the post-processing unit 132 performs signal processing on the pixel signal stored in the image storage unit 121, the post-processing unit 132 outputs the pixel signal after the signal processing to the image processing unit 12. The signal processing executed by the post-processing unit 132 can include, for example, automatic white balance processing, automatic exposure processing, distortion correction processing, defect correction processing, noise reduction processing, high dynamic range synthesis processing, and the like. Further, the post-processing unit 132 can execute a composition process of images captured in a plurality of frames.

以上、本開示の実施の形態に係るセンサモジュール100の機能構成例を説明した。本開示の実施の形態に係るセンサモジュール100は、係る構成を有することで、AEB機能のように、一度のシャッタトリガで複数フレームでの撮像を実行する際に、合成画像のブラーの抑制と露光時間の設定可能範囲の広範化とを同時に実現することが可能となる。   The functional configuration example of the sensor module 100 according to the embodiment of the present disclosure has been described above. The sensor module 100 according to the embodiment of the present disclosure has such a configuration, so that blurring of composite images and exposure are performed when performing imaging in a plurality of frames with a single shutter trigger, like the AEB function. It is possible to simultaneously realize a wide setting range of time.

[1.4.動作例]
続いて、本開示の実施の形態に係るセンサモジュール100の動作例を説明する。図8は、本開示の実施の形態に係るセンサモジュール100の動作例を示す流れ図である。図8に示したのは、AEB機能のように、一度のシャッタトリガで連続して複数の画像を撮像する際の本開示の実施の形態に係るセンサモジュール100の動作例である。以下、図8を用いて本開示の実施の形態に係るセンサモジュール100の動作例について説明する。
[1.4. Example of operation]
Subsequently, an operation example of the sensor module 100 according to the embodiment of the present disclosure will be described. FIG. 8 is a flowchart illustrating an operation example of the sensor module 100 according to the embodiment of the present disclosure. FIG. 8 illustrates an operation example of the sensor module 100 according to the embodiment of the present disclosure when a plurality of images are continuously captured with a single shutter trigger as in the AEB function. Hereinafter, an operation example of the sensor module 100 according to the embodiment of the present disclosure will be described with reference to FIG.

一度のシャッタトリガで連続して複数のM枚の画像を撮像する場合、センサモジュール100は、連続する画像のN枚目(Nは1以上M未満の整数)のリード時間より、N+1枚目の露光時間の方が長いかどうか判断する(ステップS101)。ステップS101の判断は、例えば制御部112が実行しうる。   When a plurality of M images are continuously captured with a single shutter trigger, the sensor module 100 determines the N + 1th image from the read time of the Nth image (N is an integer of 1 or more and less than M) of consecutive images. It is determined whether the exposure time is longer (step S101). The determination in step S101 can be executed by the control unit 112, for example.

連続する画像のN枚目のリード時間より、N+1枚目の露光時間の方が長いかどうかとは、N枚目について撮像素子111の先頭の行から最後の行まで読み込む時間より、N+1枚目の露光時間が長いかどうか、を意味する。   Whether or not the exposure time of the (N + 1) th sheet is longer than the read time of the Nth sheet of consecutive images means that the (N + 1) th sheet is longer than the reading time from the first line to the last line of the image sensor 111 for the Nth sheet. This means whether the exposure time is long.

連続する画像のN枚目のリード時間より、N+1枚目の露光時間の方が長ければ(ステップS101、Yes)、センサモジュール100は、撮像素子111に設けられる画素のある行についてN枚目のリード開始とN+1枚目のシャッタ開始との間隔を極小化する(ステップS102)。ステップS102の制御は、例えば制御部112が実行しうる。   If the exposure time of the (N + 1) th sheet is longer than the read time of the Nth sheet of consecutive images (step S101, Yes), the sensor module 100 performs the Nth sheet for a row with pixels provided in the image sensor 111. The interval between the start of reading and the start of the (N + 1) th shutter is minimized (step S102). The control in step S102 can be executed by the control unit 112, for example.

図9は、本開示の実施の形態に係るセンサモジュール100が実行するAEB機能の様子の一例を示す説明図である。図9には、フレームf1からf4までの4つの連続したフレームで、露光時間を変えた画像を生成する様子が示されている。   FIG. 9 is an explanatory diagram illustrating an example of a state of the AEB function executed by the sensor module 100 according to the embodiment of the present disclosure. FIG. 9 shows a state in which images having different exposure times are generated in four consecutive frames from frames f1 to f4.

上述したように、リードとシャッタとの間には、画素をリセットするリセット期間が少なくとも必要である。このリセット期間は、例えば後述するように、画素における所定回のAD変換に要する期間に相当する期間である。本実施形態では、センサモジュール100は、リードとシャッタとの間隔を極小化する。センサモジュール100は、例えば、撮像素子111に設けられる画素をリセットするリセット期間に相当する間隔にまでリードとシャッタとの間隔を狭めている。すなわち、本実施形態では、図9に示したように、垂直同期信号の間隔が一定ではない。フレームf1で信号を画素から読み出すための垂直同期信号から、フレームf2で信号を画素から読み出すための垂直同期信号との間隔は、フレームf2の画像の露光時間に、リセット期間を加えた時間に相当する。   As described above, at least a reset period for resetting the pixels is required between the lead and the shutter. This reset period is a period corresponding to a period required for predetermined AD conversion in a pixel, for example, as will be described later. In the present embodiment, the sensor module 100 minimizes the distance between the lead and the shutter. In the sensor module 100, for example, the interval between the lead and the shutter is narrowed to an interval corresponding to a reset period for resetting pixels provided in the image sensor 111. That is, in this embodiment, as shown in FIG. 9, the interval of the vertical synchronization signal is not constant. The interval between the vertical synchronization signal for reading the signal from the pixel in frame f1 and the vertical synchronization signal for reading the signal from the pixel in frame f2 corresponds to the exposure time of the image in frame f2 plus the reset period. To do.

図10は、本実施形態に係るセンサモジュール100の効果例を示す説明図である。本実施形態に係るセンサモジュール100は、リードとシャッタとの間隔を極小化することで、長蓄による画像と短蓄による画像とを交互に撮像して合成するような場合における合成画像のブラーを小さく抑えることができる。この合成処理は例えば後処理部132が実行する。これは、リードとシャッタとの間隔を極小化することで、被写体の移動量も極小化することができるからである。   FIG. 10 is an explanatory diagram illustrating an effect example of the sensor module 100 according to the present embodiment. The sensor module 100 according to the present embodiment minimizes the interval between the lead and the shutter, thereby blurring the synthesized image in the case where the image by the long accumulation and the image by the short accumulation are alternately captured and synthesized. It can be kept small. For example, the post-processing unit 132 executes this synthesis process. This is because the amount of movement of the subject can be minimized by minimizing the distance between the lead and the shutter.

ここで本実施形態に係るセンサモジュール100における画素のリセット期間の一例を説明する。図11は、本実施形態に係るセンサモジュール100における画素のリセット期間の一例を示す説明図である。画素には、垂直同期信号と水平同期信号とが供給される。   Here, an example of a pixel reset period in the sensor module 100 according to the present embodiment will be described. FIG. 11 is an explanatory diagram illustrating an example of a pixel reset period in the sensor module 100 according to the present embodiment. A vertical synchronization signal and a horizontal synchronization signal are supplied to the pixel.

本実施形態では、撮像素子111の1アクセス単位を32ラインとしている。この1アクセス単位は、8本のラインを同時に読み出して、読み出したアナログのデータをデジタルのデータに変換するAD変換を4回行うことを意味している。   In this embodiment, one access unit of the image sensor 111 is 32 lines. This one access unit means that eight lines are read simultaneously, and AD conversion for converting the read analog data into digital data is performed four times.

1アクセス単位の画素に対しては、リードアクセスとシャッタアクセスを同時には出来ない。従って、リードからシャッタまでは、この4回分のAD変換に要する期間をリセット期間とした間隔を空ける。なお、1アクセス単位の量はイメージセンサによって異なる。従ってリセット期間もイメージセンサによって異なる。   Read access and shutter access cannot be performed simultaneously for a pixel in one access unit. Therefore, the interval from the lead to the shutter is set with the period required for the four AD conversions as a reset period. Note that the amount of one access unit varies depending on the image sensor. Accordingly, the reset period also varies depending on the image sensor.

リセット期間に影響する要素を整理すると、1水平期間中のAD変換の回数と、同時に読み出すことが出来るライン数と、の2つがある。本実施形態に係るセンサモジュール100は、この2つの要素で決定されるリセット期間に相当する間隔まで、リードとシャッタとの間隔を狭めていることになる。   When the factors affecting the reset period are arranged, there are two: the number of AD conversions during one horizontal period and the number of lines that can be read simultaneously. In the sensor module 100 according to the present embodiment, the interval between the lead and the shutter is narrowed to the interval corresponding to the reset period determined by these two elements.

一方、連続する画像のN枚目のリード時間が、N+1枚目の露光時間未満であれば(ステップS101、No)、センサモジュール100は、撮像素子111に設けられる画素のある行についてN枚目のリードとN+1枚目のリードとが重ならないように、N枚目のリード開始とN+1枚目のシャッタ開始との間隔を極小化する(ステップS103)。ステップS103の制御は、例えば制御部112が実行しうる。   On the other hand, if the N-th read time of consecutive images is less than the (N + 1) -th exposure time (No in step S101), the sensor module 100 determines the N-th sheet for a row with pixels provided in the image sensor 111. The interval between the N-th read start and the N + 1-th shutter start is minimized so that the N + 1th lead and the (N + 1) th lead do not overlap (step S103). The control in step S103 can be executed by the control unit 112, for example.

露光時間が短くなると、N枚目のリード開始とN+1枚目のシャッタ開始との間隔を詰めすぎた場合に、N枚目のリード時間とN+1枚目のリード時間とが重なる場合が生じうる。   If the exposure time is shortened, the N-th lead time and the (N + 1) -th lead time may overlap when the interval between the N-th lead start and the (N + 1) -th shutter start is too short.

図12は、本開示の実施の形態に係るセンサモジュール100が実行するAEB機能の様子の一例を示す説明図である。図12には、フレームf1からf4までの4つの連続したフレームで、露光時間を変えた画像を生成する様子が示されている。   FIG. 12 is an explanatory diagram illustrating an example of a state of the AEB function executed by the sensor module 100 according to the embodiment of the present disclosure. FIG. 12 shows a state in which images with different exposure times are generated in four consecutive frames from frames f1 to f4.

図12に示した例では、フレームf1のリード期間(リード期間1)と、フレームf2のリード期間(リード期間2)とが重複している。同様に、リード期間2と、フレームf3のリード期間(リード期間3)とが、リード期間3と、フレームf4のリード期間(リード期間4)とが、それぞれ重複している。   In the example shown in FIG. 12, the read period (read period 1) of the frame f1 and the read period (read period 2) of the frame f2 overlap. Similarly, the read period 2, the read period of the frame f3 (read period 3), the read period 3 and the read period of the frame f4 (read period 4) overlap each other.

このようにリード期間が前後のフレームで重複してしまうような露光時間の条件で撮像される場合、このままではセンサモジュール100は後の方のフレームの画像を外部(例えば画像処理部12)に出力することが出来ない。   In this way, when imaging is performed under an exposure time condition in which the lead period overlaps between the preceding and following frames, the sensor module 100 outputs the image of the later frame to the outside (for example, the image processing unit 12) as it is. I can't do it.

そこで本実施形態では、センサモジュール100は、リード期間が前後のフレームで重複しないようにシャッタ開始タイミングを調整してもよい。すなわちセンサモジュール100は、フレーム間のリードとシャッタとの間隔を、リセット期間に相当する時間から長くしてもよい。リード期間が前後のフレームで重複しないようにシャッタ開始タイミングを調整することで、センサモジュール100は、露光時間が短いフレームが発生しても画像を外部(例えば画像処理部12)に出力することが出来る。   Therefore, in the present embodiment, the sensor module 100 may adjust the shutter start timing so that the lead period does not overlap between the previous and next frames. That is, the sensor module 100 may increase the interval between the lead between the frame and the shutter from the time corresponding to the reset period. By adjusting the shutter start timing so that the lead period does not overlap between the previous and next frames, the sensor module 100 can output an image to the outside (for example, the image processing unit 12) even if a frame with a short exposure time occurs. I can do it.

また本実施形態に係るセンサモジュール100は、画像記憶部121を備えている。従って本実施形態に係るセンサモジュール100は、フレーム間のリードとシャッタとの間隔を、リセット期間に相当する時間に極小化した上で、撮像素子111から読み出したデータを画像記憶部121に一度記憶させてから、外部(例えば画像処理部12)に出力してもよい。   The sensor module 100 according to this embodiment includes an image storage unit 121. Therefore, the sensor module 100 according to the present embodiment stores the data read from the image sensor 111 once in the image storage unit 121 after minimizing the interval between the lead and the shutter between frames to a time corresponding to the reset period. Then, it may be output to the outside (for example, the image processing unit 12).

図13は、本実施形態に係るセンサモジュール100によるフレームレートの変換処理の例を示す説明図である。図13は、本実施形態に係るセンサモジュール100が、撮像素子111から読み出した画像を画像記憶部121に一度記憶させてから出力する様子を示している。このように、撮像素子111から読み出した画像を画像記憶部121に一度記憶させておき、画像記憶部121に記憶された画像を順次読み出すことで、本実施形態に係るセンサモジュール100は、リード期間が前後のフレームで重複する場合であっても、フレーム間のリードとシャッタとの間隔を、リセット期間に相当する時間に極小化することができる。   FIG. 13 is an explanatory diagram illustrating an example of frame rate conversion processing by the sensor module 100 according to the present embodiment. FIG. 13 shows a state in which the sensor module 100 according to the present embodiment stores an image read from the image sensor 111 once in the image storage unit 121 and outputs the image. As described above, the image read from the image sensor 111 is stored once in the image storage unit 121, and the images stored in the image storage unit 121 are sequentially read, so that the sensor module 100 according to the present embodiment can perform the read period. Even when the frames overlap in the preceding and following frames, the interval between the lead and the shutter between the frames can be minimized to a time corresponding to the reset period.

本実施形態に係るセンサモジュール100は、画素に対するシャッタやリードに掛かる時間を高速化することも出来る。図14は、本実施形態に係るセンサモジュール100が、画素に対するシャッタやリードに掛かる時間を高速化した場合の例を示す説明図である。このようにセンサモジュール100は、画素に対するシャッタやリードに掛かる時間を高速化することで、リード期間が前後のフレームで重複しないようにすることが出来る。   The sensor module 100 according to the present embodiment can also speed up the time required for shutter and reading for the pixels. FIG. 14 is an explanatory diagram illustrating an example in which the sensor module 100 according to the present embodiment speeds up the time required for shutter and reading for a pixel. As described above, the sensor module 100 can speed up the time required for the shutter and the lead for the pixel so that the lead period does not overlap between the previous and next frames.

なお、画素に対するシャッタやリードに掛かる時間を高速化すると、センサモジュール100から外部へ出力するためのインタフェース帯域が足りなくなる場合がありうる。そのような場合を考慮し、本実施形態に係るセンサモジュール100は、撮像素子111から読み出した画像を画像記憶部121に一度記憶させておき、画像記憶部121に記憶された画像を、フレームレートを変換して外部(例えば画像処理部12)に出力してもよい。例えば、撮像素子111からは高速に(例えば120fps〜240fps程度の速度で)読み出すことが出来るが、センサモジュール100からはその速度で出力することが出来ない場合、センサモジュール100は、撮像素子111から読み出した画像を画像記憶部121に一度記憶させておき、画像記憶部121に記憶された画像を、例えば30fpsに変換して外部に出力しても良い。   Note that if the time required for shutter and reading for the pixels is increased, the interface band for outputting from the sensor module 100 to the outside may be insufficient. Considering such a case, the sensor module 100 according to the present embodiment stores an image read from the image sensor 111 in the image storage unit 121 once, and the image stored in the image storage unit 121 is converted into a frame rate. May be converted and output to the outside (for example, the image processing unit 12). For example, when data can be read from the image sensor 111 at a high speed (for example, at a speed of about 120 fps to 240 fps) but cannot be output from the sensor module 100 at that speed, the sensor module 100 can be read from the image sensor 111. The read image may be stored once in the image storage unit 121, and the image stored in the image storage unit 121 may be converted to, for example, 30 fps and output to the outside.

図15は、センサモジュール100による、画像記憶部121を介したフレームレートの変換処理をより詳細に示す説明図である。センサモジュール100は、撮像素子111から読み出す際には、センサモジュール100から画像を出力するフレームレートよりも高速に(例えば画像を出力するフレームレートが30fpsで、撮像素子111から読み出すフレームレートは120fps〜240fps程度の速度で)読み出し、画像を画像記憶部121に一度記憶させておく。そしてセンサモジュール100は、画像を外部に出力する際には、外部出力のインタフェース帯域に律速した速度で、所定の後段処理を実行して、画像を出力する。   FIG. 15 is an explanatory diagram showing the frame rate conversion processing by the sensor module 100 via the image storage unit 121 in more detail. When reading from the image sensor 111, the sensor module 100 is faster than the frame rate for outputting an image from the sensor module 100 (for example, the frame rate for outputting an image is 30 fps, and the frame rate for reading from the image sensor 111 is 120 fps to Read out at a speed of about 240 fps), and the image is stored in the image storage unit 121 once. When the sensor module 100 outputs an image to the outside, the sensor module 100 executes a predetermined subsequent process at a rate limited to the interface band of the external output and outputs the image.

このように画像記憶部121を介することで、本実施形態に係るセンサモジュール100は、撮像素子111からの読み出し速度と、センサモジュール100からの出力速度とを変換することが可能になる。   As described above, the sensor module 100 according to the present embodiment can convert the reading speed from the image sensor 111 and the output speed from the sensor module 100 through the image storage unit 121.

本実施形態に係るセンサモジュール100は、一度のシャッタトリガで複数の画像を撮像する際に、全ての画像について同じ露光時間による撮像を行っても良い。そしてセンサモジュール100は、同じ露光時間による複数の画像を合成する3Dノイズリダクション(3DNR)処理を実行することで、ノイズを抑えた画像を出力できる。もちろん、センサモジュール100は、同じ露光時間で複数の画像を撮像する際に、前後のフレーム間でリードとシャッタとの期間を極小化する。本実施形態に係るセンサモジュール100は、3DNR処理を実行する際に、それぞれの画素信号を画像記憶部121に一度記憶させてから、後処理部132で、画像記憶部121に記憶された画素信号を読み出して、合成処理を行う。   The sensor module 100 according to the present embodiment may perform imaging with the same exposure time for all images when capturing a plurality of images with a single shutter trigger. And the sensor module 100 can output the image which suppressed noise by performing the 3D noise reduction (3DNR) process which synthesize | combines several images by the same exposure time. Of course, the sensor module 100 minimizes the period between the lead and the shutter between the previous and next frames when capturing a plurality of images with the same exposure time. When the sensor module 100 according to the present embodiment executes the 3DNR process, each pixel signal is stored once in the image storage unit 121, and then the pixel signal stored in the image storage unit 121 by the post-processing unit 132. Is read out and the composition processing is performed.

本実施形態に係るセンサモジュール100は、前後のフレーム間でリードとシャッタとの期間を極小化することで、3DNRの際に、被写体のブラーが少ないために探索範囲を狭めることが出来る。従って、本実施形態に係るセンサモジュール100は、前後のフレーム間でリードとシャッタとの期間を極小化することで、3DNRを行う回路を軽量化することが出来る。   The sensor module 100 according to the present embodiment can narrow the search range by minimizing the period between the lead and the shutter between the frames before and after, since there is less subject blur during 3DNR. Therefore, the sensor module 100 according to this embodiment can reduce the circuit for performing 3DNR by minimizing the period between the lead and the shutter between the front and rear frames.

本実施形態に係るセンサモジュール100は、上述の長蓄による画像と短蓄による画像とを合成したり、3DNR処理を行ったりする際には、一度のシャッタトリガで所定の枚数、例えば6枚の画像を撮像してもよく、所定の枚数以上、例えば7枚以上の枚数の画像を撮像しても良い。本実施形態に係るセンサモジュール100は、所定の枚数を超える枚数の画像を撮像する際に、その中から所定の枚数を選択して長蓄による画像と短蓄による画像とを合成したり、3DNR処理を行ったりしてもよい。   The sensor module 100 according to the present embodiment synthesizes a predetermined number of images, for example, six images, with a single shutter trigger when combining the above-described image with long accumulation and the image with short accumulation or when performing 3DNR processing. Images may be taken, or a predetermined number or more, for example, 7 or more images may be taken. When the sensor module 100 according to the present embodiment captures more than a predetermined number of images, the sensor module 100 selects a predetermined number from the images and synthesizes an image based on long accumulation and an image based on short accumulation, or 3DNR. Processing may be performed.

<2.まとめ>
以上説明したように本開示の実施の形態によれば、一度のシャッタトリガで複数の画像を撮像する際に、前後のフレーム間でリードとシャッタとの期間を極小化するセンサモジュール100が提供される。
<2. Summary>
As described above, according to the embodiment of the present disclosure, there is provided the sensor module 100 that minimizes the period between the lead and the shutter between the previous and next frames when a plurality of images are captured with a single shutter trigger. The

本開示の実施の形態に係るセンサモジュール100は、前後のフレーム間でリードとシャッタとの期間を極小化することで、ブラーの抑制と露光時間の設定可能範囲の広範化とを同時に実現することができる。   The sensor module 100 according to the embodiment of the present disclosure minimizes the period between the lead and the shutter between the front and rear frames, thereby simultaneously realizing the suppression of blur and the wide setting range of the exposure time. Can do.

本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   Each step in the processing executed by each device in the present specification does not necessarily have to be processed in time series in the order described as a sequence diagram or flowchart. For example, each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.

また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。   In addition, it is possible to create a computer program for causing hardware such as a CPU, ROM, and RAM incorporated in each device to exhibit functions equivalent to the configuration of each device described above. A storage medium storing the computer program can also be provided. In addition, by configuring each functional block shown in the functional block diagram with hardware or a hardware circuit, a series of processing can be realized with hardware or a hardware circuit.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

例えば、上記実施形態では、画素基板110と、メモリ基板120と、信号処理基板130と、の順に積層された構成を有しているセンサモジュール100を示したが、本開示は係る例に限定されるものではない。センサモジュール100は、画素基板110と、信号処理基板130と、の2枚の基盤が積層された構造を有していても良い。この場合、センサモジュール100は、信号処理基板130の上に画素基板110が積層された構造を有することになる。   For example, in the above-described embodiment, the sensor module 100 having a configuration in which the pixel substrate 110, the memory substrate 120, and the signal processing substrate 130 are stacked in this order is shown, but the present disclosure is limited to such an example. It is not something. The sensor module 100 may have a structure in which two substrates of a pixel substrate 110 and a signal processing substrate 130 are stacked. In this case, the sensor module 100 has a structure in which the pixel substrate 110 is stacked on the signal processing substrate 130.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。   Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成する制御部を備え、
前記制御部は、前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化する、撮像処理装置。
(2)
前記第1露光のリード期間と前記第2露光のリード期間とは重ならない、前記(1)に記載の撮像処理装置。
(3)
前記第1露光される画素と前記第2露光される画素とは同一である、前記(1)または(2)に記載の撮像処理装置。
(4)
前記制御部は、前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を、前記画素のリセット期間に相当する間隔とする、前記(1)〜(3)のいずれかに記載の撮像処理装置。
(5)
前記リセット期間は、前記画素から読み出したデータの所定回のAD変換に要する期間に相当する期間である、前記(4)に記載の撮像処理装置。
(6)
前記制御部は、前記第2露光時間が前記第1露光のリード時間より長い場合、前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化し、
前記第2露光時間が前記第1露光のリード時間未満の場合、前記第1露光のリード期間と前記第2露光のリード期間とが重ならない条件で前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化する、前記(1)〜(5)のいずれに記載の撮像処理装置。
(7)
前記第1画像と前記第2画像とを合成する画像処理部をさらに備える、前記(1)〜(6)のいずれかに記載の撮像処理装置。
(8)
前記制御部により前記第1画像と前記第2画像とが記憶される記憶部をさらに備える、前記(1)〜(7)のいずれかに記載の撮像処理装置。
(9)
前記第1画像及び前記第2画像が前記制御部から前記記憶部に記憶されて前記記憶部から読み出される速度は、前記画素から直接読み出される速度と比べて低速である、前記(8)に記載の撮像処理装置。
(10)
前記制御部は、前記記憶部から前記第1画像及び前記第2画像を読み出す速度を可変とする、前記(8)または(9)に記載の撮像処理装置。
(11)
第1半導体基板、及び第2半導体基板からなる2枚の半導体基板を積層して構成され、
前記第1半導体基板には、前記画素及び前記制御部が少なくとも形成され、
前記第2半導体基板では、前記第1画像と前記第2画像とに対する画像処理が行われる、前記(1)〜(7)のいずれかに記載の画像処理装置。
(12)
第1半導体基板、第2半導体基板、及び第3半導体基板からなる3枚の半導体基板を積層して構成され、
前記第1半導体基板には、前記画素及び前記制御部が少なくとも形成され、
前記第3半導体基板には、前記記憶部が少なくとも形成され、
前記第2半導体基板では、前記第1画像と前記第2画像とに対する画像処理が行われる、前記(8)〜(10)のいずれかに記載の撮像処理装置。
(13)
前記第2半導体基板が、前記第1半導体基板と前記第3半導体基板との間に設けられる、前記(12)に記載の画像処理装置。
(14)
前記第3半導体基板が、前記第1半導体基板と前記第2半導体基板との間に設けられる、前記(12)に記載の画像処理装置。
(15)
前記制御部は、さらに、前記第2画像に続いて、第3露光時間から第6露光時間による第3露光から第6露光でそれぞれ画素へ露光することで第3画像から第6画像を生成する、前記(1)〜(14)のいずれかに記載の撮像処理装置。
(16)
前記制御部により前記第1画像から前記第6画像が少なくとも記憶される記憶部をさらに備え、
前記制御部は、前記第1画像から前記第6画像を前記記憶部に記憶させた後に前記第1画像から前記第6画像を前記記憶部から読み出す、前記(15)に記載の撮像処理装置。
(17)
前記制御部は、さらに、前記第6画像に続いて、少なくとも第7露光時間による第7露光で画素へ露光することで第7画像を生成し、生成した一連の画像から6つの画像を選択する、前記(16)に記載の撮像処理装置。
(18)
前記第1露光時間は、前記第2露光時間よりも長い、前記(1)〜(17)のいずれかに記載の撮像処理装置。
(19)
前記第1画像及び前記第2画像は、前記画素からローリングシャッタにより読み出される、前記(1)〜(18)のいずれかに記載の撮像処理装置。
(20)
前記第1露光時間と前記第2露光時間とは等しい、前記(1)〜(17)のいずれかに記載の撮像処理装置。
(21)
第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成することと、
前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化することと、
を含む、撮像処理方法。
(22)
コンピュータに、
第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成することと、
前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化することと、
を実行させる、コンピュータプログラム。
(23)
前記(1)〜(20)のいずれかに記載の撮像処理装置を備える、電子機器。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A first image is generated by exposing pixels to the first exposure with the first exposure time, and a second image is generated by exposing pixels to the second exposure with the second exposure time following the first image. With a control unit,
The control unit is an imaging processing apparatus that minimizes an interval between a read start of the first exposure and a shutter start of the second exposure in a predetermined row of the pixels.
(2)
The imaging processing apparatus according to (1), wherein the lead period of the first exposure and the lead period of the second exposure do not overlap.
(3)
The imaging processing apparatus according to (1) or (2), wherein the first exposed pixel and the second exposed pixel are the same.
(4)
The control unit according to any one of (1) to (3), wherein an interval between the read start of the first exposure and the shutter start of the second exposure is an interval corresponding to a reset period of the pixel. The imaging processing apparatus described.
(5)
The imaging processing apparatus according to (4), wherein the reset period is a period corresponding to a period required for predetermined AD conversion of data read from the pixels.
(6)
When the second exposure time is longer than the read time of the first exposure, the control unit minimizes the interval between the read start of the first exposure and the shutter start of the second exposure in a predetermined row of the pixel. ,
When the second exposure time is less than the lead time of the first exposure, the lead of the first exposure in a predetermined row of the pixel under the condition that the lead period of the first exposure and the lead period of the second exposure do not overlap. The imaging processing apparatus according to any one of (1) to (5), wherein an interval between the start and the shutter start of the second exposure is minimized.
(7)
The imaging processing apparatus according to any one of (1) to (6), further including an image processing unit that synthesizes the first image and the second image.
(8)
The imaging processing apparatus according to any one of (1) to (7), further including a storage unit that stores the first image and the second image by the control unit.
(9)
The speed at which the first image and the second image are stored in the storage unit from the control unit and read from the storage unit is lower than the speed at which the first image and the second image are directly read from the pixels. Imaging processing apparatus.
(10)
The imaging processing apparatus according to (8) or (9), wherein the control unit is configured to change a speed at which the first image and the second image are read from the storage unit.
(11)
It is configured by laminating two semiconductor substrates consisting of a first semiconductor substrate and a second semiconductor substrate,
The first semiconductor substrate includes at least the pixel and the control unit,
The image processing apparatus according to any one of (1) to (7), wherein image processing is performed on the first image and the second image on the second semiconductor substrate.
(12)
It is configured by stacking three semiconductor substrates consisting of a first semiconductor substrate, a second semiconductor substrate, and a third semiconductor substrate,
The first semiconductor substrate includes at least the pixel and the control unit,
The third semiconductor substrate is formed with at least the storage unit,
The imaging processing apparatus according to any one of (8) to (10), wherein image processing is performed on the first image and the second image on the second semiconductor substrate.
(13)
The image processing apparatus according to (12), wherein the second semiconductor substrate is provided between the first semiconductor substrate and the third semiconductor substrate.
(14)
The image processing apparatus according to (12), wherein the third semiconductor substrate is provided between the first semiconductor substrate and the second semiconductor substrate.
(15)
The control unit further generates a sixth image from the third image by exposing the pixels from the third exposure time to the sixth exposure time through the third exposure time to the sixth exposure time, respectively, following the second image. The imaging processing apparatus according to any one of (1) to (14).
(16)
A storage unit for storing at least the sixth image from the first image by the control unit;
The imaging processing apparatus according to (15), wherein the control unit reads the sixth image from the first image from the storage unit after storing the sixth image from the first image in the storage unit.
(17)
The control unit further generates a seventh image by exposing the pixels by the seventh exposure with at least a seventh exposure time following the sixth image, and selects six images from the generated series of images. The imaging processing apparatus according to (16).
(18)
The imaging processing apparatus according to any one of (1) to (17), wherein the first exposure time is longer than the second exposure time.
(19)
The imaging processing apparatus according to any one of (1) to (18), wherein the first image and the second image are read from the pixels by a rolling shutter.
(20)
The imaging processing apparatus according to any one of (1) to (17), wherein the first exposure time and the second exposure time are equal.
(21)
A first image is generated by exposing pixels to the first exposure with the first exposure time, and a second image is generated by exposing pixels to the second exposure with the second exposure time following the first image. And
Minimizing the interval between the read start of the first exposure and the shutter start of the second exposure in a predetermined row of the pixels;
An imaging processing method.
(22)
On the computer,
A first image is generated by exposing pixels to the first exposure with the first exposure time, and a second image is generated by exposing pixels to the second exposure with the second exposure time following the first image. And
Minimizing the interval between the read start of the first exposure and the shutter start of the second exposure in a predetermined row of the pixels;
A computer program that executes
(23)
An electronic apparatus comprising the imaging processing device according to any one of (1) to (20).

10 電子機器
100 センサモジュール
10 Electronic device 100 Sensor module

Claims (23)

第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成する制御部を備え、
前記制御部は、前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化する、撮像処理装置。
A first image is generated by exposing pixels to the first exposure with the first exposure time, and a second image is generated by exposing pixels to the second exposure with the second exposure time following the first image. With a control unit,
The control unit is an imaging processing apparatus that minimizes an interval between a read start of the first exposure and a shutter start of the second exposure in a predetermined row of the pixels.
前記第1露光のリード期間と前記第2露光のリード期間とは重ならない、請求項1に記載の撮像処理装置。   The imaging processing apparatus according to claim 1, wherein a lead period of the first exposure and a lead period of the second exposure do not overlap. 前記第1露光される画素と前記第2露光される画素とは同一である、請求項1に記載の撮像処理装置。   The imaging processing apparatus according to claim 1, wherein the first exposed pixel and the second exposed pixel are the same. 前記制御部は、前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を、前記画素のリセット期間に相当する間隔とする、請求項1に記載の撮像処理装置。   The imaging processing apparatus according to claim 1, wherein the control unit sets an interval between the read start of the first exposure and the shutter start of the second exposure as an interval corresponding to a reset period of the pixels. 前記リセット期間は、前記画素から読み出したデータの所定回のAD変換に要する期間に相当する期間である、請求項4に記載の撮像処理装置。   The imaging processing apparatus according to claim 4, wherein the reset period is a period corresponding to a period required for predetermined AD conversion of data read from the pixels. 前記制御部は、前記第2露光時間が前記第1露光のリード時間より長い場合、前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化し、
前記第2露光時間が前記第1露光のリード時間未満の場合、前記第1露光のリード期間と前記第2露光のリード期間とが重ならない条件で前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化する、請求項1に記載の撮像処理装置。
When the second exposure time is longer than the read time of the first exposure, the control unit minimizes the interval between the read start of the first exposure and the shutter start of the second exposure in a predetermined row of the pixel. ,
When the second exposure time is less than the lead time of the first exposure, the lead of the first exposure in a predetermined row of the pixel under the condition that the lead period of the first exposure and the lead period of the second exposure do not overlap. The imaging processing apparatus according to claim 1, wherein an interval between a start and a shutter start of the second exposure is minimized.
前記第1画像と前記第2画像とを合成する画像処理部をさらに備える、請求項1に記載の撮像処理装置。   The imaging processing apparatus according to claim 1, further comprising an image processing unit that synthesizes the first image and the second image. 前記制御部により前記第1画像と前記第2画像とが記憶される記憶部をさらに備える、請求項1に記載の撮像処理装置。   The imaging processing apparatus according to claim 1, further comprising a storage unit that stores the first image and the second image by the control unit. 前記第1画像及び前記第2画像が前記制御部から前記記憶部に記憶されて前記記憶部から読み出される速度は、前記画素から直接読み出される速度と比べて低速である、請求項8に記載の撮像処理装置。   The speed at which the first image and the second image are stored in the storage unit from the control unit and read from the storage unit is lower than a speed at which the first image and the second image are directly read from the pixel. Imaging processing device. 前記制御部は、前記記憶部から前記第1画像及び前記第2画像を読み出す速度を可変とする、請求項8に記載の撮像処理装置。   The imaging processing apparatus according to claim 8, wherein the control unit is configured to change a speed at which the first image and the second image are read from the storage unit. 第1半導体基板、及び第2半導体基板からなる2枚の半導体基板を積層して構成され、
前記第1半導体基板には、前記画素及び前記制御部が少なくとも形成され、
前記第2半導体基板では、前記第1画像と前記第2画像とに対する画像処理が行われる、請求項1に記載の撮像処理装置。
It is configured by laminating two semiconductor substrates consisting of a first semiconductor substrate and a second semiconductor substrate,
The first semiconductor substrate includes at least the pixel and the control unit,
The imaging processing apparatus according to claim 1, wherein image processing is performed on the first image and the second image on the second semiconductor substrate.
第1半導体基板、第2半導体基板、及び第3半導体基板からなる3枚の半導体基板を積層して構成され、
前記第1半導体基板には、前記画素及び前記制御部が少なくとも形成され、
前記第3半導体基板には、前記記憶部が少なくとも形成され、
前記第2半導体基板では、前記第1画像と前記第2画像とに対する画像処理が行われる、請求項8に記載の撮像処理装置。
It is configured by stacking three semiconductor substrates consisting of a first semiconductor substrate, a second semiconductor substrate, and a third semiconductor substrate,
The first semiconductor substrate includes at least the pixel and the control unit,
The third semiconductor substrate is formed with at least the storage unit,
The imaging processing apparatus according to claim 8, wherein image processing is performed on the first image and the second image on the second semiconductor substrate.
前記第2半導体基板が、前記第1半導体基板と前記第3半導体基板との間に設けられる、請求項12に記載の撮像処理装置。   The imaging processing apparatus according to claim 12, wherein the second semiconductor substrate is provided between the first semiconductor substrate and the third semiconductor substrate. 前記第3半導体基板が、前記第1半導体基板と前記第2半導体基板との間に設けられる、請求項12に記載の撮像処理装置。   The imaging processing apparatus according to claim 12, wherein the third semiconductor substrate is provided between the first semiconductor substrate and the second semiconductor substrate. 前記制御部は、さらに、前記第2画像に続いて、第3露光時間から第6露光時間による第3露光から第6露光でそれぞれ画素へ露光することで第3画像から第6画像を生成する、請求項1に記載の撮像処理装置。   The control unit further generates a sixth image from the third image by exposing the pixels from the third exposure time to the sixth exposure time through the third exposure time to the sixth exposure time, respectively, following the second image. The imaging processing apparatus according to claim 1. 前記制御部により前記第1画像から前記第6画像が少なくとも記憶される記憶部をさらに備え、
前記制御部は、前記第1画像から前記第6画像を前記記憶部に記憶させた後に前記第1画像から前記第6画像を前記記憶部から読み出す、請求項15に記載の撮像処理装置。
A storage unit for storing at least the sixth image from the first image by the control unit;
The imaging processing apparatus according to claim 15, wherein the control unit reads the sixth image from the first image after storing the sixth image from the first image in the storage unit.
前記制御部は、さらに、前記第6画像に続いて、少なくとも第7露光時間による第7露光で画素へ露光することで第7画像を生成し、生成した一連の画像から6つの画像を選択する、請求項16に記載の撮像処理装置。   The control unit further generates a seventh image by exposing the pixels by the seventh exposure with at least a seventh exposure time following the sixth image, and selects six images from the generated series of images. The imaging processing apparatus according to claim 16. 前記第1露光時間は、前記第2露光時間よりも長い、請求項1に記載の撮像処理装置。   The imaging processing apparatus according to claim 1, wherein the first exposure time is longer than the second exposure time. 前記第1画像及び前記第2画像は、前記画素からローリングシャッタにより読み出される、請求項1に記載の撮像処理装置。   The imaging processing apparatus according to claim 1, wherein the first image and the second image are read from the pixels by a rolling shutter. 前記第1露光時間と前記第2露光時間とは等しい、請求項1に記載の撮像処理装置。   The imaging processing apparatus according to claim 1, wherein the first exposure time and the second exposure time are equal. 第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成することと、
前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化することと、
を含む、撮像処理方法。
A first image is generated by exposing pixels to the first exposure with the first exposure time, and a second image is generated by exposing pixels to the second exposure with the second exposure time following the first image. And
Minimizing the interval between the read start of the first exposure and the shutter start of the second exposure in a predetermined row of the pixels;
An imaging processing method.
コンピュータに、
第1露光時間による第1露光で画素へ露光することで第1画像を生成し、該第1画像に続いて第2露光時間による第2露光で画素へ露光することで第2画像を生成することと、
前記画素の所定行における前記第1露光のリード開始と、前記第2露光のシャッタ開始との間隔を極小化することと、
を実行させる、コンピュータプログラム。
On the computer,
A first image is generated by exposing pixels to the first exposure with the first exposure time, and a second image is generated by exposing pixels to the second exposure with the second exposure time following the first image. And
Minimizing the interval between the read start of the first exposure and the shutter start of the second exposure in a predetermined row of the pixels;
A computer program that executes
請求項1に記載の撮像処理装置を備える、電子機器。
An electronic apparatus comprising the imaging processing apparatus according to claim 1.
JP2016065220A 2016-03-29 2016-03-29 Imaging processing device, imaging processing method, computer program and electronic equipment Pending JP2017183870A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016065220A JP2017183870A (en) 2016-03-29 2016-03-29 Imaging processing device, imaging processing method, computer program and electronic equipment
PCT/JP2017/005575 WO2017169233A1 (en) 2016-03-29 2017-02-15 Imaging processing device, imaging processing method, computer program and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016065220A JP2017183870A (en) 2016-03-29 2016-03-29 Imaging processing device, imaging processing method, computer program and electronic equipment

Publications (1)

Publication Number Publication Date
JP2017183870A true JP2017183870A (en) 2017-10-05

Family

ID=59963931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016065220A Pending JP2017183870A (en) 2016-03-29 2016-03-29 Imaging processing device, imaging processing method, computer program and electronic equipment

Country Status (2)

Country Link
JP (1) JP2017183870A (en)
WO (1) WO2017169233A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137665A1 (en) * 2018-12-27 2020-07-02 富士フイルム株式会社 Imaging element, imaging device, imaging method, and program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7129264B2 (en) 2018-08-03 2022-09-01 キヤノン株式会社 Imaging device
WO2020250831A1 (en) * 2019-06-13 2020-12-17 ソニー株式会社 Image capturing device, image capturing control method, and program
WO2021010355A1 (en) * 2019-07-16 2021-01-21 株式会社ニコン Imaging device and imaging method
CN113395482A (en) * 2020-03-12 2021-09-14 平湖莱顿光学仪器制造有限公司 Color-related intelligent two-dimensional video device and two-dimensional video playing method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006135501A (en) * 2004-11-04 2006-05-25 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2010078635A (en) * 2008-09-24 2010-04-08 Sanyo Electric Co Ltd Blur correcting device and imaging apparatus
JP5375142B2 (en) * 2009-02-05 2013-12-25 ソニー株式会社 Solid-state imaging device, driving method of solid-state imaging device, and electronic apparatus
JP5947625B2 (en) * 2012-06-08 2016-07-06 キヤノン株式会社 Imaging apparatus and control method thereof
JP6314477B2 (en) * 2013-12-26 2018-04-25 ソニー株式会社 Electronic devices

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137665A1 (en) * 2018-12-27 2020-07-02 富士フイルム株式会社 Imaging element, imaging device, imaging method, and program
CN113228609A (en) * 2018-12-27 2021-08-06 富士胶片株式会社 Imaging element, imaging device, imaging method, and program
JPWO2020137665A1 (en) * 2018-12-27 2021-10-07 富士フイルム株式会社 Image sensor, image sensor, image pickup method and program
US11509823B2 (en) 2018-12-27 2022-11-22 Fujifilm Corporation Imaging element, imaging apparatus, imaging method, and program
CN113228609B (en) * 2018-12-27 2023-05-05 富士胶片株式会社 Imaging element, imaging apparatus, imaging method, and computer-readable storage medium
US11758292B2 (en) 2018-12-27 2023-09-12 Fujifilm Corporation Imaging element, imaging apparatus, imaging method, and program
JP7460588B2 (en) 2018-12-27 2024-04-02 富士フイルム株式会社 Image pickup device, image pickup method, and program
US12149838B2 (en) 2018-12-27 2024-11-19 Fujifilm Corporation Imaging element, imaging apparatus, imaging method, and program

Also Published As

Publication number Publication date
WO2017169233A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
US9800806B2 (en) Image processing device that generates an image from pixels with different exposure times
US9185308B2 (en) Imaging apparatus and imaging method
JP2017183870A (en) Imaging processing device, imaging processing method, computer program and electronic equipment
JP2007336314A (en) Device and method for processing image, recording medium, and program
JP5746521B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US9025065B2 (en) Solid-state imaging device, image processing method, and camera module for creating high dynamic range images
JP2017188760A (en) Image processing apparatus, image processing method, computer program, and electronic apparatus
JP2013236298A (en) Imaging apparatus
JP6261397B2 (en) Imaging apparatus and control method thereof
US20180220058A1 (en) Image capture apparatus, control method therefor, and computer-readable medium
JP2017184094A (en) Imaging control device, imaging control method, computer program and electronic equipment
JP2014150444A (en) Solid-state imaging device
US11240442B2 (en) Signal processing apparatus and signal processing method
JP5829122B2 (en) Imaging apparatus and evaluation value generation apparatus
JP6674255B2 (en) Solid-state imaging device and imaging device
JP2019140648A (en) Imaging apparatus and control method of imaging apparatus
US12114073B2 (en) Imaging element including processor configured to receive vibration information related to a vibration exerted on the imaging element, imaging apparatus, operation method of imaging element, and program
JP2017158084A (en) Image processing device, image processing method, computer program and electronic apparatus
US11461882B2 (en) Image processing apparatus, image processing method, computer-readable medium for performing image processing using reduced image
JP6167473B2 (en) Imaging device
JP6590055B2 (en) Imaging device
JP7020463B2 (en) Imaging device
JP2009027634A (en) Imaging apparatus and its control method
JP6402807B2 (en) Imaging device
JP2005150886A (en) Digital camera