[go: up one dir, main page]

JP7231598B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP7231598B2
JP7231598B2 JP2020184969A JP2020184969A JP7231598B2 JP 7231598 B2 JP7231598 B2 JP 7231598B2 JP 2020184969 A JP2020184969 A JP 2020184969A JP 2020184969 A JP2020184969 A JP 2020184969A JP 7231598 B2 JP7231598 B2 JP 7231598B2
Authority
JP
Japan
Prior art keywords
image
resolution
unit
input unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020184969A
Other languages
Japanese (ja)
Other versions
JP2021029050A (en
Inventor
宏 清水
明 石山
和彦 吉澤
康宣 橋本
基之 鈴木
光信 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2020184969A priority Critical patent/JP7231598B2/en
Publication of JP2021029050A publication Critical patent/JP2021029050A/en
Priority to JP2023022132A priority patent/JP7467714B2/en
Application granted granted Critical
Publication of JP7231598B2 publication Critical patent/JP7231598B2/en
Priority to JP2024060289A priority patent/JP2024086776A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Processing (AREA)

Description

撮像装置、撮像制御方法及び撮像プログラムに係り、特に複数のカメラの露光量を変えて撮像した画像を合成してHDR(High Dynamic Range)合成画像を生成する撮像装置、撮像制御方法及び撮像プログラムに関する。 The present invention relates to an imaging device, an imaging control method, and an imaging program, and more particularly to an imaging device, an imaging control method, and an imaging program for synthesizing images captured by changing exposure amounts of a plurality of cameras to generate an HDR (High Dynamic Range) composite image. .

被写体像を、例えばCCD(Charge Coupled Device)等の電子デバイスにより電気信号に変換し、変換した電気信号をメモリに記録するデジタルカメラの普及が著しい。また、最近では、デジタルカメラが搭載された携帯電話、スマートフォン、タブレット端末等の情報端末機器も広く普及している。 2. Description of the Related Art A digital camera that converts an object image into an electric signal using an electronic device such as a CCD (Charge Coupled Device) and records the converted electric signal in a memory has become widespread. Recently, information terminal devices such as mobile phones, smart phones, and tablet terminals equipped with digital cameras are also widely used.

デジタルカメラ等に用いられる撮像素子は、フィルムと比較するとダイナミックレンジが非常に狭いため、撮像条件によっては、いわゆる黒つぶれや白とびを生じ、画質が著しく劣化することがある。このような欠点を解消するために、露出を変えつつ複数枚の画像を撮像し、これらを合成する時に、露出を長くした画像から暗部を抽出し、露出を短くした画像から明部を抽出することで、白とびや黒つぶれを抑えた幅広いダイナミックレンジを得るHDR合成機能が注目されている。 An imaging element used in a digital camera or the like has a very narrow dynamic range compared to a film, and therefore, depending on the imaging conditions, so-called blocked up shadows or blown out highlights may occur, resulting in significant deterioration in image quality. In order to eliminate such a drawback, multiple images are taken while changing the exposure, and when combining these images, dark areas are extracted from the long-exposure image, and bright areas are extracted from the short-exposure image. Therefore, an HDR synthesis function that obtains a wide dynamic range while suppressing blown-out highlights and blocked-up shadows is attracting attention.

例えば特許文献1には、2つの撮像素子を有し、一方は高解像度で露光量小画像を撮像し、他方は低解像度で露光量大画像を露出時間を短くして撮像することにより、手振れ等によるノイズを低減させたHDR合成画像を作成する映像生成装置が開示されている。 For example, Japanese Patent Laid-Open No. 2002-200001 discloses that two image sensors are provided, one of which captures a high-resolution, low-exposure image, and the other captures a low-resolution, high-exposure image with a short exposure time to reduce camera shake. A video generation device that creates an HDR composite image with reduced noise due to, etc., is disclosed.

特開2007-336561公報Japanese Unexamined Patent Application Publication No. 2007-336561

しかしながら、特許文献1に記載の技術は、露光量の多い画像を撮像する際の露出時間を短くすることにより、手振れ等のノイズを低減することを目的としているが、被写体の動き、明るさ、手振れ等の撮像環境に応じたより好ましい画質を得るためのHDR合成方法については考慮されていない。また、2つの撮像素子の有効な利用方法についても言及されていない。 However, the technique described in Patent Document 1 aims to reduce noise such as camera shake by shortening the exposure time when capturing an image with a large amount of exposure. No consideration is given to an HDR synthesis method for obtaining more preferable image quality according to the imaging environment such as camera shake. Also, no mention is made of how to effectively use the two imaging elements.

そこで、本発明の目的は、撮像環境に対応させた高品質なHDR合成画像を生成する撮像装置、撮像制御方法及びプログラムを提供することにある。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an imaging apparatus, an imaging control method, and a program that generate a high-quality HDR composite image adapted to an imaging environment.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。 A brief outline of typical inventions disclosed in the present application is as follows.

本発明の代表的な実施の形態による撮像装置は、被写体を撮像し、被写体の画像信号を生成する映像入力部と、画像信号に基づいて被写体の撮像画像を生成する映像信号処理部と、画像信号に基づいて被写体の動き情報を検出し、動き情報に基づいて、映像入力部に対し露光量を異ならせて被写体を複数回撮像させ、映像信号処理部に対し、露光量が異なる複数の画像信号に基づいて被写体のHDR合成画像を生成させる制御部と、を備える。 An imaging apparatus according to a representative embodiment of the present invention includes a video input unit that captures an image of a subject and generates an image signal of the subject; a video signal processing unit that generates a captured image of the subject based on the image signal; Based on the signal, motion information of the subject is detected, based on the motion information, the subject is imaged a plurality of times with different exposure amounts to the video input unit, and a plurality of images with different exposure amounts are sent to the video signal processing unit. a controller for generating an HDR composite image of the subject based on the signal.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。 Among the inventions disclosed in the present application, the effects obtained by representative ones are briefly described below.

すなわち、本発明の代表的な実施の形態によれば、撮像環境に対応させた高品質なHDR合成画像を生成する撮像装置、撮像制御方法及びプログラムを提供することが可能となる。 That is, according to the representative embodiments of the present invention, it is possible to provide an imaging apparatus, an imaging control method, and a program that generate a high-quality HDR composite image adapted to the imaging environment.

本発明の実施の形態1に係る撮像装置100の一例を示す外観図である。BRIEF DESCRIPTION OF THE DRAWINGS It is an external view which shows an example of the imaging device 100 which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る撮像装置の構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an imaging device according to Embodiment 1 of the present invention; FIG. 本発明の実施の形態1に係る撮像装置の構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an imaging device according to Embodiment 1 of the present invention; FIG. 本発明の実施の形態1に係る映像信号処理部及び映像入力部の構成の一例を示すブロック図である。3 is a block diagram showing an example of the configuration of a video signal processing section and a video input section according to Embodiment 1 of the present invention; FIG. 本発明の実施の形態1の撮像方法に係るフローチャート図である。FIG. 2 is a flow chart diagram relating to an imaging method according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る、動き情報検出ステップ、撮像ステップ、撮像画像生成ステップ等における処理の一例を示すフローチャート図である。FIG. 4 is a flow chart diagram showing an example of processing in a motion information detection step, an imaging step, a captured image generation step, etc., according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る、動き情報検出ステップ、撮像ステップ、撮像画像生成ステップ等における処理の一例を示すフローチャート図である。FIG. 4 is a flow chart diagram showing an example of processing in a motion information detection step, an imaging step, a captured image generation step, etc., according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る撮像についてのタイミングチャートを示す図である。FIG. 4 is a diagram showing a timing chart for imaging according to Embodiment 1 of the present invention; 本発明の実施の形態1に係るHDR合成処理を模式的に示す図である。FIG. 4 is a diagram schematically showing HDR synthesis processing according to Embodiment 1 of the present invention; 本発明の実施の形態1に係るHDR合成処理を模式的に示す図である。FIG. 4 is a diagram schematically showing HDR synthesis processing according to Embodiment 1 of the present invention; 本発明の実施の形態1に係るHDR合成処理を模式的に示す図である。FIG. 4 is a diagram schematically showing HDR synthesis processing according to Embodiment 1 of the present invention; 本発明の実施の形態2に係る撮像装置の構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the configuration of an imaging device according to Embodiment 2 of the present invention; 本発明の実施の形態2に係る撮像装置の構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the configuration of an imaging device according to Embodiment 2 of the present invention; 本発明の実施の形態2の撮像方法に係るフローチャート図である。FIG. 9 is a flow chart diagram relating to an imaging method according to Embodiment 2 of the present invention. 本発明の実施の形態2の撮像方法に係るフローチャート図である。FIG. 9 is a flow chart diagram relating to an imaging method according to Embodiment 2 of the present invention. 本発明の実施の形態2に係るHDR合成処理を模式的に示す図である。FIG. 9 is a diagram schematically showing HDR synthesis processing according to Embodiment 2 of the present invention; 本発明の実施の形態2に係るHDR合成処理を模式的に示す図である。FIG. 9 is a diagram schematically showing HDR synthesis processing according to Embodiment 2 of the present invention; 本発明の実施の形態2に係るHDR合成処理を模式的に示す図である。FIG. 9 is a diagram schematically showing HDR synthesis processing according to Embodiment 2 of the present invention;

以下、本発明の実施形態の例を、図面を用いて説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって、適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成されても良い。
(実施の形態1)
図1は、本発明の実施の形態1に係る撮像装置の外観の一例を示す図であり、図1(A)は撮像装置の平面図、図1(B)は撮像装置100の背面図である。図2は、本発明の実施の形態1に係る撮像装置の構成の一例を示すブロック図である。図3は、本発明の実施の形態1に係る撮像装置のソフトウェア構成の一例を示す図である。
Hereinafter, examples of embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions. It is not limited to the following embodiments. Moreover, it may be configured by appropriately combining a part of each embodiment described later.
(Embodiment 1)
1A and 1B are diagrams showing an example of the appearance of an imaging device according to Embodiment 1 of the present invention. FIG. 1A is a plan view of the imaging device, and FIG. be. FIG. 2 is a block diagram showing an example of the configuration of the imaging device according to Embodiment 1 of the present invention. FIG. 3 is a diagram showing an example of the software configuration of the imaging device according to Embodiment 1 of the present invention.

図1は、スマートフォンに搭載された撮像装置について例示しているが、これ以外にも、撮像装置が、例えば、携帯電話、タブレット端末等のPDA(Personal Digital Assistants)、ノート型PC(Personal Computer)等の情報処理装置に搭載されてもよい。また、撮像装置がデジタルスチルカメラで構成されてもよい。 Although FIG. 1 exemplifies an imaging device mounted on a smartphone, other imaging devices may also be used, for example, mobile phones, PDA (Personal Digital Assistants) such as tablet terminals, and laptop PCs (Personal Computers). It may be installed in an information processing device such as. Also, the imaging device may be configured by a digital still camera.

撮像装置100は、図1、図2に示すように、主制御部(制御部)101、システムバス102、メモリ部104、ストレージ部110、映像処理部120、音声処理部130、操作部140、通信処理部150、センサ部160、拡張インタフェース部170、表示部121等を備えている。 As shown in FIGS. 1 and 2, the imaging apparatus 100 includes a main control unit (control unit) 101, a system bus 102, a memory unit 104, a storage unit 110, a video processing unit 120, an audio processing unit 130, an operation unit 140, It includes a communication processing unit 150, a sensor unit 160, an extended interface unit 170, a display unit 121, and the like.

システムバス102は、撮像装置100の各構成要素を接続するデータ通信路である。、主制御部101と撮像装置100内の各部との間では、システムバス102を介してデータの出入力が実施される。 A system bus 102 is a data communication path that connects each component of the imaging device 100 . , data input/output is performed between the main control unit 101 and each unit in the imaging apparatus 100 via the system bus 102 .

ストレージ部110は、例えばフラッシュROM(Read Only Memory)、SSD(Solid State Drive)、HDD(Hard Disc Drive)等の不揮発性メモリで構成され、撮像装置100に電源が供給されていない状態でも情報が記憶される。 The storage unit 110 is composed of a nonvolatile memory such as a flash ROM (Read Only Memory), SSD (Solid State Drive), HDD (Hard Disc Drive), or the like, and can store information even when power is not supplied to the imaging apparatus 100 . remembered.

ストレージ部110は、例えば図3に示すように、撮像装置100の基本動作を実行させる基本動作プログラムを記憶する基本動作プログラム記憶領域110a、カメラ機能を実現させるカメラ機能プログラムを記憶するカメラ機能プログラム記憶領域110b、音声認識機能を実現させる音声認識プログラムを記憶する音声認識プログラム記憶領域110c、タイミング報知機能を実現させるタイミング報知プログラムを記憶するタイミング報知プログラム記憶領域110d、その他のプログラム等を記憶するその他プログラム記憶領域110e、撮像装置100の動作設定値、ユーザー情報等の各種情報を記憶する各種情報/データ記憶領域110f等を備えている。 For example, as shown in FIG. 3, the storage unit 110 includes a basic operation program storage area 110a for storing basic operation programs for executing basic operations of the imaging apparatus 100, and a camera function program storage area for storing camera function programs for realizing camera functions. A region 110b, a voice recognition program storage region 110c for storing a voice recognition program for realizing the voice recognition function, a timing notification program storage region 110d for storing a timing notification program for realizing the timing notification function, and other programs for storing other programs. It includes a storage area 110e, various information/data storage area 110f for storing various information such as operation setting values of the imaging device 100 and user information.

また、ストレージ部110は、撮像装置100で撮像した撮像画像、動画像、後述するHDR合成画像、これらのサムネイル画像等を、例えば各種情報/データ記憶領域110fに記憶する。また、ストレージ部110は、インターネット上のアプリケーションサーバからダウンロードされた新規アプリケーションプログラムを、例えばその他プログラム記憶領域110eに記憶する。 Further, the storage unit 110 stores captured images captured by the imaging device 100, moving images, HDR composite images described later, thumbnail images thereof, and the like in the various information/data storage area 110f, for example. The storage unit 110 also stores new application programs downloaded from application servers on the Internet, for example, in the other program storage area 110e.

また、ストレージ部110は、後述する被写体の動きを判定する際の基準となる第1の動き閾値、第1の動き閾値より大きい第2の動き閾値を記憶する。これらの動き閾値は、例えば、実験等により適宜設定される。 The storage unit 110 also stores a first motion threshold that serves as a reference for determining the motion of a subject, which will be described later, and a second motion threshold that is greater than the first motion threshold. These motion thresholds are appropriately set through experiments or the like, for example.

メモリ部104では、ストレージ部110の各部に記憶された各種プログラムが展開される。各種プログラムが主制御部101により実行されると、メモリ部104に、それぞれのプログラムの機能を実現する各種実行部が構成される。例えば、基本動作プログラム記憶領域110aに記憶された基本動作プログラムがメモリ部104で展開されると、メモリ部104には、撮像装置100の基本動作を実現する基本動作実行部104aが構成される。また、カメラ機能プログラム記憶領域110bに記憶されたカメラ機能プログラムがメモリ部104で展開されると、メモリ部104には、カメラ機能を実現するカメラ機能実行部104bが構成される。また、音声認識機能プログラム記憶領域110cに記憶された音声認識機能プログラムがメモリ部104で展開されると、メモリ部104には、音声認識機能を実現する音声認識機能実行部104cが構成される。また、タイミング報知機能プログラム記憶領域110dに記憶されたタイミング報知機能プログラムがメモリ部104で展開されると、メモリ部104には、タイミング報知機能を実現するタイミング報知機能実行部104dが構成される。また、メモリ部104は、必要に応じてデータが一時的に記憶される一時記憶領域104e等を有する。 In the memory unit 104, various programs stored in each unit of the storage unit 110 are developed. When various programs are executed by the main control unit 101, the memory unit 104 is configured with various execution units that implement the functions of the respective programs. For example, when the basic operation program stored in the basic operation program storage area 110 a is developed in the memory unit 104 , the memory unit 104 includes a basic operation execution unit 104 a that implements the basic operation of the imaging apparatus 100 . Further, when the camera function program stored in the camera function program storage area 110b is developed in the memory unit 104, the memory unit 104 is configured with a camera function executing unit 104b that implements the camera function. Further, when the speech recognition function program stored in the speech recognition function program storage area 110c is developed in the memory unit 104, the memory unit 104 includes a speech recognition function execution unit 104c that implements the speech recognition function. Further, when the timing notification function program stored in the timing notification function program storage area 110d is developed in the memory unit 104, the memory unit 104 includes a timing notification function execution unit 104d that implements the timing notification function. The memory unit 104 also has a temporary storage area 104e, etc., in which data is temporarily stored as needed.

なお、基本動作実行部104a、カメラ機能実行部104b、音声認識機能実行部104c、タイミング報知機能実行部104d等の各部が、これら各部と同様の機能を有するハードウェアで構成されてもよい。また、メモリ部104は、主制御部101と一体で構成されてもよい。 Note that each unit such as the basic operation execution unit 104a, the camera function execution unit 104b, the voice recognition function execution unit 104c, the timing notification function execution unit 104d, etc. may be configured by hardware having the same function as these units. Moreover, the memory unit 104 may be configured integrally with the main control unit 101 .

表示部121は、図1(A)に示すように、第3の映像入力部125が設けられた撮像装置100の表面100aに設けられている。表示部121は、例えば液晶パネル、有機EL(Electro Luminescence)パネル等の表示デバイスであり、映像信号処理部122で処理された後述するHDR合成画像、合成前の撮像画像、動画像、サムネイル画像等を表示する。 The display unit 121 is provided on the surface 100a of the imaging device 100 on which the third video input unit 125 is provided, as shown in FIG. 1(A). The display unit 121 is, for example, a display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel. display.

音声処理部130は、音声出力部131、音声信号処理部132、音声入力部133、で構成されている。音声出力部131は、スピーカであり、例えば図1(A)に示すように、撮像装置100の表面100aの表示部121の周辺部に設けられている。音声出力部131は、音声信号処理部132で処理された音声信号に基づいて音声を発する。音声入力部133は、マイクであり、例えば図1(A)、(B)に示すように、撮像装置100の側面であって、表示部121に対して音声出力部131と反対側に設けられている。音声入力部133は、撮像装置100のユーザー等の音声の入力を受け付け、入力された音声を音声信号に変換する。音声入力部133は、入力された音声信号を音声信号処理部132に出力する。なお、音声入力部133は、撮像装置100と別体で構成されてもよく、この場合、音声入力部133と撮像装置100とが、有線通信又は無線通信により接続されてもよい。 The audio processing unit 130 includes an audio output unit 131 , an audio signal processing unit 132 and an audio input unit 133 . The audio output unit 131 is a speaker, and is provided on the surface 100a of the imaging device 100 around the display unit 121, as shown in FIG. 1A, for example. The audio output unit 131 emits audio based on the audio signal processed by the audio signal processing unit 132 . The audio input unit 133 is a microphone, and is provided on the side of the imaging device 100 on the side opposite to the audio output unit 131 with respect to the display unit 121, as shown in FIGS. ing. The voice input unit 133 receives voice input from the user of the imaging device 100 or the like, and converts the input voice into a voice signal. The audio input unit 133 outputs the input audio signal to the audio signal processing unit 132 . Note that the audio input unit 133 may be configured separately from the imaging device 100, and in this case, the audio input unit 133 and the imaging device 100 may be connected by wired communication or wireless communication.

操作部140は、撮像装置100に対する操作指示の入力を行う指示入力部である。本実施の形態では、例えば図1(A)、(B)に示すように、表示部121に重ねて配置された、タッチパネル140a、撮像装置100の側面に設けられた操作キー140b、撮像装置100の表面100aの表示部121の近傍に設けられた操作キー140cで構成されている。ただし、これら全てを備えている必要はなく、これらのうちのいずれかを備えていればよい。また、タッチパネル140aは、表示部121と一体で構成されてもよい。また、操作部140は、後述する拡張インタフェース部170に接続される、図示しないキーボード等で構成されてもよい。また、操作部140は、有線通信または無線通信を介して接続される別体の情報端末機器で構成されてもよい。 The operation unit 140 is an instruction input unit that inputs an operation instruction to the imaging device 100 . In this embodiment, for example, as shown in FIGS. 1A and 1B, a touch panel 140a is arranged over the display unit 121, operation keys 140b are provided on the side surface of the imaging device 100, and the imaging device 100 operation keys 140c provided in the vicinity of the display unit 121 on the surface 100a. However, it is not necessary to have all of these, and any one of them may be provided. Also, the touch panel 140a may be configured integrally with the display unit 121 . Further, the operation unit 140 may be configured with a keyboard (not shown) or the like connected to the extended interface unit 170 described later. Further, the operation unit 140 may be configured by a separate information terminal device connected via wired communication or wireless communication.

通信処理部150は、例えば、LAN(Local Area Network)通信部151、移動体電話網通信部152、近接無線通信部153で構成されている。LAN通信部151は、例えば、インターネットの無線通信用アクセスポイントを経由して接続される無線通信を介してデータの送受信を行う。移動体電話網通信部152は、移動体電話通信網の基地局と接続され、基地局を経由した無線通信を介して、電話通信(通話)及びデータの送受信を行う。近接無線通信部153は、近接無線に対応するリーダ/ライタとの間でデータの送受信を行う。LAN通信部151、移動体電話網通信部152、近接無線通信部153は、例えば、図示しない符号回路、復号回路、アンテナ等の各種装置を備えている。また、通信処理部150は、赤外線通信を実施する赤外線通信部等を備えてもよい。 The communication processing unit 150 includes, for example, a LAN (Local Area Network) communication unit 151, a mobile phone network communication unit 152, and a close proximity wireless communication unit 153. The LAN communication unit 151 transmits and receives data via wireless communication connected via a wireless communication access point on the Internet, for example. The mobile phone network communication unit 152 is connected to a base station of the mobile phone network, and performs telephone communication (phone call) and data transmission/reception via wireless communication via the base station. The close proximity wireless communication unit 153 transmits and receives data to and from a reader/writer compatible with close proximity wireless. The LAN communication unit 151, the mobile telephone network communication unit 152, and the close proximity wireless communication unit 153 include various devices such as an encoding circuit, a decoding circuit, and an antenna (not shown). Further, the communication processing unit 150 may include an infrared communication unit or the like that performs infrared communication.

センサ部160は、撮像装置100の状態を検出するセンサ群である。本実施の形態では、センサ部160は、例えば、GPS(Global Positioning System)受信部161、加速度センサ162、ジャイロセンサ163、地磁気センサ164、光量センサ165、近接センサ166で構成されている。なお、センサ部160は、これら以外のセンサを備えていてもよい。 The sensor unit 160 is a sensor group that detects the state of the imaging device 100 . In this embodiment, the sensor unit 160 is composed of, for example, a GPS (Global Positioning System) receiver 161, an acceleration sensor 162, a gyro sensor 163, a geomagnetic sensor 164, a light amount sensor 165, and a proximity sensor 166. Note that the sensor unit 160 may include sensors other than these.

GPS受信部161は、GPSを利用して複数の衛星から送信されるGPS信号を受信する。GPS受信部161で受信されたGPS信号は、例えば主制御部101に出力され、主制御部101では、GPS信号に基づいて撮像装置100の位置が検出される。 The GPS receiver 161 receives GPS signals transmitted from a plurality of satellites using GPS. A GPS signal received by the GPS receiving unit 161 is output to, for example, the main control unit 101, and the main control unit 101 detects the position of the imaging device 100 based on the GPS signal.

加速度センサ162は、撮像装置100に掛かる加速度(例えば重力加速度)の大きさ、方向を測定する。加速度センサ部133で測定された加速度の大きさ、方向の測定値は、加速度情報として主制御部101に出力され、主制御部101では、加速度情報に基づいて、撮像装置100に掛かる加速度が検出される。 The acceleration sensor 162 measures the magnitude and direction of acceleration (for example, gravitational acceleration) applied to the imaging device 100 . The magnitude and direction of acceleration measured by the acceleration sensor unit 133 are output to the main control unit 101 as acceleration information, and the main control unit 101 detects the acceleration applied to the imaging device 100 based on the acceleration information. be done.

ジャイロセンサ163は、撮像装置100を使用者が動かした場合等に発生する撮像装置100の角速度を測定する。ジャイロセンサ部163で測定された角速度は、例えば角速度情報として主制御部101に出力される。主制御部101では、角速度情報に基づいて、撮像装置100の角速度が検出される。 The gyro sensor 163 measures the angular velocity of the imaging device 100 generated when the imaging device 100 is moved by the user. The angular velocity measured by the gyro sensor unit 163 is output to the main control unit 101 as angular velocity information, for example. The main control unit 101 detects the angular velocity of the imaging device 100 based on the angular velocity information.

地磁気センサ164は、撮像装置100に掛かる地磁気の大きさ、方向を測定する。地磁気センサ164で測定された地磁気の大きさ、方向の測定値は、地磁気情報として主制御部101に出力される。主制御部101では、地磁気情報に基づいて撮像装置100に掛かる地磁気が検出される。 A geomagnetic sensor 164 measures the magnitude and direction of the geomagnetism applied to the imaging device 100 . The magnitude and direction of the geomagnetism measured by the geomagnetic sensor 164 are output to the main control unit 101 as geomagnetism information. The main control unit 101 detects the geomagnetism applied to the imaging device 100 based on the geomagnetism information.

光量センサ165は、撮像装置100の周囲の明るさを測定する。光量センサ165は、例えば、被写体を撮像する際に被写体周辺の光量を測定する。光量センサ165で測定された光量の測定値は、光量情報として主制御部101に出力される。主制御部101では、光量情報に基づいて撮像装置100の周囲の光量が検出される。 A light sensor 165 measures the brightness around the imaging device 100 . For example, the light amount sensor 165 measures the amount of light around the subject when capturing an image of the subject. The light quantity measured by the light quantity sensor 165 is output to the main controller 101 as light quantity information. The main control unit 101 detects the amount of light around the imaging device 100 based on the information on the amount of light.

近接センサ166は、撮像装置100の周囲の物との近接状況を測定する。近接センサ166は、例えば、撮像装置100の周囲の物との距離、方向を測定する。近接センサ166で検出された近接状況の測定値は、近接状況情報として主制御部101に出力される。主制御部101では、近接状況情報に基づいて、撮像装置100の周囲の物との近接状況を検出する。 The proximity sensor 166 measures the proximity of the imaging device 100 to objects around it. The proximity sensor 166 measures, for example, the distance and direction to objects around the imaging device 100 . A proximity state measurement value detected by the proximity sensor 166 is output to the main control unit 101 as proximity state information. The main control unit 101 detects the proximity state of the imaging device 100 to surrounding objects based on the proximity state information.

拡張インタフェース部170は、撮像装置100の機能を拡張するためのインタフェース群である。拡張インタフェース部170は、例えば、映像/音声インタフェース171、USB(Universal Serial Bus)インタフェース172、メモリインタフェース173を備えている。 The extended interface unit 170 is a group of interfaces for extending the functions of the imaging device 100 . The expansion interface unit 170 includes, for example, a video/audio interface 171 , a USB (Universal Serial Bus) interface 172 and a memory interface 173 .

映像/音声インタフェース171は、外部の映像/音声出力機器と接続され、映像/音声出力機器から出力された映像信号/音声信号の入力を受け付ける。また、映像/音声インタフェース171は、映像/音声入力機器への映像信号/音声信号の出力等を行う。USBインタフェース172は、キーボード等のUSB機器と接続され、USB機器との間で情報の入出力を行う。メモリインタフェース173は、メモリカード等のメモリ媒体と接続され、メモリ媒体との間でデータの入出力を行う。 The video/audio interface 171 is connected to an external video/audio output device and receives input of video/audio signals output from the video/audio output device. Also, the video/audio interface 171 outputs video/audio signals to video/audio input devices. The USB interface 172 is connected to a USB device such as a keyboard, and inputs and outputs information to and from the USB device. The memory interface 173 is connected to a memory medium such as a memory card, and inputs/outputs data to/from the memory medium.

次に、映像入力部120、映像信号処理部122について説明する。図4は、本発明の実施の形態1に係る映像入力部及び映像信号処理部の構成の一例を示すブロック図である。なお、図4では、第3の映像入力部125を省略している。 Next, the video input section 120 and the video signal processing section 122 will be described. FIG. 4 is a block diagram showing an example of configurations of a video input unit and a video signal processing unit according to Embodiment 1 of the present invention. Note that the third video input unit 125 is omitted in FIG.

映像入力部120は、例えば図2、図4に示すように、第1の映像入力部123、第2映像入力部124、第3映像入力部125、露光制御部126を備えている。第1の映像入力部123及び第2の映像入力部124は、例えば図1(B)に示すように、撮像装置100の裏面100bに並んで設けられている。第3の映像入力部125は、図1(A)に示すように、撮像装置100の表面100aにおける表示部121の近傍に設けられている。 The video input unit 120 includes a first video input unit 123, a second video input unit 124, a third video input unit 125, and an exposure control unit 126, as shown in FIGS. 2 and 4, for example. The first video input unit 123 and the second video input unit 124 are arranged side by side on the rear surface 100b of the imaging device 100, as shown in FIG. 1B, for example. The third video input unit 125 is provided near the display unit 121 on the surface 100a of the imaging device 100, as shown in FIG. 1(A).

なお、図1(B)では、第1の映像入力部123及び第2の映像入力部124は、撮像装置100の背面100bに設けられているが、例えば、撮像装置100の表面100aに設けられてもよい。また、第1の映像入力部123及び第2の映像入力部124は、一体で構成されてもよい。 Note that in FIG. 1B, the first video input unit 123 and the second video input unit 124 are provided on the rear surface 100b of the imaging device 100, but are provided on the front surface 100a of the imaging device 100, for example. may Also, the first video input section 123 and the second video input section 124 may be configured as a single unit.

第1の映像入力部123は、例えば図4に示すように、第1の撮像光学系123a及び第1の撮像素子123bを備えている。第2の映像入力部124は、例えば図4に示すように、第2の撮像光学系124a及び第2の撮像素子124bを備えている。 The first video input unit 123 includes a first imaging optical system 123a and a first imaging element 123b, as shown in FIG. 4, for example. The second video input unit 124 includes a second imaging optical system 124a and a second imaging element 124b, as shown in FIG. 4, for example.

第1の撮像光学系123a及び第2の撮像光学系124aは、例えば、被写体からの入射光を集光する複数のレンズ、絞り(虹彩絞り等)、機械式又は電子式のシャッタ等で構成されている。第1の撮像素子123b及び第2の撮像素子124bは、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等で構成されている。 The first imaging optical system 123a and the second imaging optical system 124a are composed of, for example, a plurality of lenses for condensing incident light from a subject, an aperture (such as an iris aperture), a mechanical or electronic shutter, and the like. ing. The first imaging element 123b and the second imaging element 124b are configured by, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like.

第1の映像入力部123及び第2の映像入力部124は、被写体を撮像し、被写体の画像信号を生成する。具体的には、第1の撮像素子123bのそれぞれの画素では、第1の撮像光学系123aからの光が電荷として蓄えられることにより、入力光が電気信号に変換される。また、第2の撮像素子124bのそれぞれの画素でも、第2の撮像光学系124aからの光が電荷として蓄えられることにより、入力光が電気信号に変換される。このように、第1の撮像素子123及び第2の撮像素子124では、画像信号としての電気信号が生成される。 The first video input unit 123 and the second video input unit 124 capture an image of a subject and generate an image signal of the subject. Specifically, in each pixel of the first imaging element 123b, the light from the first imaging optical system 123a is stored as electric charge, thereby converting the input light into an electric signal. Also, in each pixel of the second imaging element 124b, the light from the second imaging optical system 124a is stored as electric charge, thereby converting the input light into an electric signal. Thus, the first image sensor 123 and the second image sensor 124 generate electric signals as image signals.

本実施の形態では、第1の撮像素子123bは第1の解像度(高解像度)の撮像素子であり、第2の撮像素子124bは、第1の撮像素子123bよりも解像度が低い第2の解像度(低解像度)の撮像素子である。 In this embodiment, the first imaging element 123b is an imaging element with a first resolution (high resolution), and the second imaging element 124b has a second resolution lower than that of the first imaging element 123b. (low resolution) imaging device.

露光制御部126は、主制御部101からの指示に基づいて、第1の撮像光学系123a及び第2の撮像光学系124aの絞り、シャッタ速度を規定し、第1の撮像素子123b及び第2の撮像素子124bに入力される露光量を制御する。 Based on instructions from the main control unit 101, the exposure control unit 126 defines the aperture and shutter speed of the first imaging optical system 123a and the second imaging optical system 124a, controls the amount of exposure input to the image sensor 124b.

映像信号処理部122は、画像信号に基づいて被写体の撮像画像を生成する。映像信号処理部122は、例えば図4に示すように、第1の画像処理部122a、第2の画像処理部122b、画像合成部122c、画像出力部124dを備えている。 The video signal processing unit 122 generates a captured image of the subject based on the image signal. For example, as shown in FIG. 4, the video signal processing section 122 includes a first image processing section 122a, a second image processing section 122b, an image synthesizing section 122c, and an image output section 124d.

第1の画像処理部122aは、第1の撮像素子123bと接続され、第1の撮像素子123bから出力された電気信号(画像信号)を所定のビットの階調幅を持ったデジタル画像データに変換する。そして、第1の画像処理部122aは、デジタル画像データに対し画像処理を行い、HDR画像合成に適した中間画像データを生成する。第1の画像処理部122aは、生成した中間画像データを画像合成部122cに出力する。また、第1の画像処理部122aは、合成前の撮像画像をストレージ部110に出力する。 The first image processing unit 122a is connected to the first imaging element 123b, and converts an electric signal (image signal) output from the first imaging element 123b into digital image data having a predetermined bit gradation width. do. Then, the first image processing unit 122a performs image processing on the digital image data to generate intermediate image data suitable for HDR image synthesis. The first image processing unit 122a outputs the generated intermediate image data to the image synthesizing unit 122c. Also, the first image processing unit 122 a outputs the captured image before synthesis to the storage unit 110 .

第2の画像処理部122bは、第2の撮像素子124bと接続され、第2の撮像素子124bから出力された電気信号(画像信号)を所定のビットの階調幅を持ったデジタル画像データに変換する。そして、第2の画像処理部122bは、デジタル画像データに対し画像処理を行い、HDR画像合成に適した中間画像データを生成する。第2の画像処理部122bは、生成した中間画像データを画像合成部122cに出力する。また、第2の画像処理部122bは、合成前の撮像画像をストレージ部110に出力する。 The second image processing unit 122b is connected to the second image pickup device 124b, and converts the electrical signal (image signal) output from the second image pickup device 124b into digital image data having a predetermined bit gradation width. do. Then, the second image processing unit 122b performs image processing on the digital image data to generate intermediate image data suitable for HDR image synthesis. The second image processing unit 122b outputs the generated intermediate image data to the image synthesizing unit 122c. Also, the second image processing unit 122b outputs the captured image before synthesis to the storage unit 110 .

画像合成部122cは、第1の画像処理部122a及び第2の画像処理部122bから入力された中間画像データを合成して、撮像画像としてのHDR合成画像を生成する。画像合成部122cは、生成したHDR合成画像をストレージ部110に出力する。 The image synthesizing unit 122c synthesizes the intermediate image data input from the first image processing unit 122a and the second image processing unit 122b to generate an HDR synthesized image as a captured image. The image composition unit 122c outputs the generated HDR composite image to the storage unit 110. FIG.

画像出力部122dは、画像合成部122cで生成されたHDR合成画像、合成前の撮像画像、動画像、これらのサムネイル画像等を表示部121に出力し表示させる。 The image output unit 122d outputs the HDR synthesized image generated by the image synthesizing unit 122c, the captured image before synthesizing, the moving image, thumbnail images thereof, and the like to the display unit 121 for display.

フラッシュ部129は、例えば図1(B)に示すように、撮像装置100の裏面100bの第1の映像入力部123、第2の映像入力部124に隣接して設けられている。フラッシュ部129は、例えば、第1の映像入力部123、第2の映像入力部124が撮像する際に、被写体にフラッシュ光を照射する。 The flash unit 129 is provided adjacent to the first image input unit 123 and the second image input unit 124 on the rear surface 100b of the imaging device 100, as shown in FIG. 1B, for example. The flash unit 129 irradiates a subject with flash light, for example, when the first image input unit 123 and the second image input unit 124 capture an image.

主制御部(制御部)101は、マイクロプロセッサユニット等のコンピュータで構成されている。主制御部101は、メモリ部104に構成された各実行部100a~100dを実行することにより、各プログラムの機能を実現し、撮像装置100の各構成要素を動作させる。 A main control unit (control unit) 101 is composed of a computer such as a microprocessor unit. The main control unit 101 executes each execution unit 100 a to 100 d configured in the memory unit 104 to realize the function of each program and operate each component of the imaging apparatus 100 .

主制御部101は、映像入力部120で生成された画像信号に基づいて被写体の動き情報を検出する。また、主制御部101は、動き情報に基づいて、映像入力部120に対し露光量を異ならせて被写体を複数回撮像させる。具体的には、主制御部101は、動き情報を、第1の動き閾値及び第2の動き閾値と比較し、その結果に基づいて後述する各撮像モードに切り替えて被写体を撮像させる。また、主制御部101は、画像信号、あるいは撮像画像に基づいて、第1の映像入力部123及び第2の映像入力部124に関する露光量、シャッター速度、絞り等の露出情報を生成する。主制御部101は、映像入力部120に出力する。また、主制御部101は、映像信号処理部122に対し、露光量が異なる複数の画像信号に基づいて被写体のHDR合成画像を生成させる。 The main control unit 101 detects subject motion information based on the image signal generated by the video input unit 120 . In addition, based on the motion information, the main control unit 101 causes the image input unit 120 to image the subject a plurality of times with different exposure amounts. Specifically, the main control unit 101 compares the motion information with a first motion threshold value and a second motion threshold value, and switches to each imaging mode to be described later based on the result to capture the subject. The main control unit 101 also generates exposure information such as the exposure amount, shutter speed, and aperture for the first video input unit 123 and the second video input unit 124 based on the image signal or the captured image. The main control section 101 outputs to the video input section 120 . Further, the main control unit 101 causes the video signal processing unit 122 to generate an HDR composite image of the subject based on a plurality of image signals with different exposure amounts.

次に、本実施の形態に係る撮像方法について説明する。本実施の形態では、例えば、図3に示すカメラ機能プログラム110b等の各種プログラムがメモリ部104に展開され、主制御部101が、カメラ機能実行部104b等の各実行部を実行することにより、撮像に係る動作が実施される。 Next, an imaging method according to this embodiment will be described. In this embodiment, for example, various programs such as the camera function program 110b shown in FIG. An operation related to imaging is performed.

図5は、本発明の実施の形態1の撮像方法に係るフローチャート図である。図5に示すように、撮像する際には、映像入力ステップS10、動き情報検出ステップS20、撮像ステップS30、HDR合成画像生成ステップS40が実施される。 FIG. 5 is a flowchart of the imaging method according to Embodiment 1 of the present invention. As shown in FIG. 5, when capturing an image, a video input step S10, a motion information detection step S20, an image capture step S30, and an HDR composite image generation step S40 are performed.

操作部140から撮像の指示がなされると、被写体の撮像に係る動作を開始する。映像入力ステップS10では、映像入力部120は、被写体を撮像し、被写体の画像信号を生成する。第1の映像入力部123及び第2の映像入力部124は、被写体を撮像し、第1の撮像素子123b及び第2の撮像素子124bにおいて、画像信号としての電気信号を生成する。第1の撮像素子123bは、生成した電気信号を、映像信号処理部122の第1の画像処理部122aに出力し、第2の撮像素子124bは、生成した電気信号を、映像信号処理部122の第2の画像処理部122bに出力する。なお、ここでは、第1の映像入力部123及び第2の映像入力部124のいずれもが、被写体を撮像する場合について説明したが、いずれかの映像入力部のみが被写体を撮像するようにしてもよい。そして、動き情報検出ステップS20に移行する。 When an imaging instruction is given from the operation unit 140, an operation related to imaging of the subject is started. In image input step S10, the image input unit 120 captures an image of a subject and generates an image signal of the subject. The first image input unit 123 and the second image input unit 124 capture an image of a subject, and the first image sensor 123b and the second image sensor 124b generate electric signals as image signals. The first imaging device 123b outputs the generated electrical signal to the first image processing unit 122a of the video signal processing unit 122, and the second imaging device 124b outputs the generated electrical signal to the video signal processing unit 122. to the second image processing unit 122b. Here, the case where both the first video input unit 123 and the second video input unit 124 capture an image of the subject has been described. good too. Then, the process proceeds to motion information detection step S20.

図6及び図7は、本発明の実施の形態1に係る、動き情報検出ステップ、撮像ステップ、撮像画像生成ステップ等における処理の一例を示すフローチャート図である。動き情報検出ステップS20では、主制御部101は、画像信号に基づいて被写体の動き情報を検出する。具体的には、映像信号処理部122の第1の画像処理部122aは、第1の撮像素子123bから出力された電気信号を主制御部101に出力する。映像信号処理部122の第2の画像処理部122bは、第2の撮像素子124bから出力された電気信号を主制御部101に出力する。なお、第1の画像処理部122a、第2の画像処理部122bは、電気信号に基づいて撮像画像を生成し、生成した撮像画像を主制御部101に出力してもよい。 6 and 7 are flowcharts showing an example of processing in a motion information detection step, an imaging step, a captured image generation step, etc., according to Embodiment 1 of the present invention. In motion information detection step S20, the main control unit 101 detects motion information of the subject based on the image signal. Specifically, the first image processing unit 122a of the video signal processing unit 122 outputs the electrical signal output from the first imaging element 123b to the main control unit 101. FIG. The second image processing section 122b of the video signal processing section 122 outputs to the main control section 101 the electrical signal output from the second imaging element 124b. Note that the first image processing unit 122 a and the second image processing unit 122 b may generate captured images based on the electrical signals and output the generated captured images to the main control unit 101 .

主制御部101は、入力されたこれらの電気信号(画像信号)に基づいて、被写体の動き情報(例えば動きベクトル)を検出する。主制御部101は、これらの画像信号に対し、周知のブロックマッチング法等を用いることにより被写体の動きベクトルを検出する。なお、主制御部101は、入力された撮像画像に基づいて被写体の動き情報を検出してもよい。そして、撮像ステップS30に移行する。 The main control unit 101 detects motion information (for example, motion vector) of the subject based on these input electrical signals (image signals). The main control unit 101 detects the motion vector of the subject by using a well-known block matching method or the like for these image signals. Note that the main control unit 101 may detect subject movement information based on the input captured image. Then, the process proceeds to imaging step S30.

撮像ステップS30では、映像入力部120は、動き情報検出ステップS20で検出された動き情報に基づいて、露光量を異ならせて被写体を複数回撮像する。撮像ステップS30では、まずステップS102が実施される。ステップS102では、動き情報に基づいて被写体の動きが判定される。具体的には、主制御部101は、動き情報検出ステップS20で検出した動きベクトルを、第1の動き閾値及び第2の動き閾値と比較することにより、被写体の動きを判定する。詳しくは、主制御部101は、ストレージ部110に記憶された第1の動き閾値及び第2の動き閾値をメモリ104に読み出し、動きベクトルを第1の動き閾値及び第2の動き閾値と比較する。 In the imaging step S30, the image input unit 120 images the subject a plurality of times with different exposure amounts based on the motion information detected in the motion information detection step S20. In the imaging step S30, step S102 is first performed. In step S102, the motion of the subject is determined based on the motion information. Specifically, the main control unit 101 determines the motion of the subject by comparing the motion vector detected in the motion information detection step S20 with the first motion threshold and the second motion threshold. Specifically, the main control unit 101 reads the first motion threshold and the second motion threshold stored in the storage unit 110 to the memory 104, and compares the motion vector with the first motion threshold and the second motion threshold. .

[静止画撮像モード]
ステップS102において、動きベクトルは第1の動き閾値未満であると、主制御部101が判定した場合には、ステップS113が実施される。すなわち、主制御部101は、被写体がほとんど動いていないものと判断し、静止画撮像モードに切り替える。
[Still image capture mode]
If the main control unit 101 determines in step S102 that the motion vector is less than the first motion threshold, step S113 is performed. That is, the main control unit 101 determines that the subject is hardly moving, and switches to the still image capturing mode.

図8は、本発明の実施の形態1に係る撮像についてのタイミングチャートを示す図である。図9は、本発明の実施の形態1に係るHDR合成処理を模式的に示す図である。ステップS113では、第1の映像入力部123が、例えば図8(A)に示すように、露光量を異ならせて被写体を連続して撮像する。具体的には、主制御部101は、第1の撮像素子123b又は第2の撮像素子124bから出力された電気信号(画像信号)に基づいて、それぞれの撮像における露光量(例えば、シャッタ速度、絞り値等)を決定する。主制御部101は、例えば図8(A)に示すように、1回目の撮像における露光量を、低照度側の暗い部分が黒つぶれしないような露光量LA0に設定し、2回目の撮像における露光量を、例えば高照度側の明るい部分が白とびしないよう、LA0より少ない露光量LA1に設定する(LA0>LA1)。主制御部101は、決定した露光量に関する情報を露光情報として映像入力部120に出力する。映像入力部120では、入力された露光情報に基づいて、第1の映像入力部123は、1回目は露光量LA0で被写体を撮像し、2回目は露光量LA1で被写体を撮像する。 FIG. 8 is a timing chart for imaging according to Embodiment 1 of the present invention. FIG. 9 is a diagram schematically showing HDR synthesis processing according to Embodiment 1 of the present invention. In step S113, the first image input unit 123 successively captures images of the subject with different exposure amounts, as shown in FIG. 8A, for example. Specifically, the main control unit 101 controls the exposure amount (for example, shutter speed, aperture value, etc.). For example, as shown in FIG. 8(A), the main control unit 101 sets the exposure amount in the first imaging to an exposure amount L A0 that does not cause the dark portion on the low illuminance side to be underexposed. is set to an exposure amount L A1 smaller than L A0 (L A0 >L A1 ), for example, so that bright portions on the high illuminance side are not overexposed. The main control unit 101 outputs information about the determined exposure amount to the image input unit 120 as exposure information. In the image input unit 120, based on the input exposure information, the first image input unit 123 images the subject with the exposure amount LA0 for the first time and images the subject with the exposure amount LA1 for the second time.

第1の撮像素子123bは、被写体を撮像するごとに、例えば図9に示すような撮像画像に関する電気信号を生成する。第1の撮像素子123bは、被写体を撮像するごとに、例えば図9に示すような露光量LA0の電気信号(A0)、露光量LA1の電気信号(A1)を生成し、生成した電気信号(A0、A1)を映像信号処理部122の第1の画像処理部122aに出力する。なお、ここでは、露光量を異ならせて2回被写体を撮像する場合を取り上げているが、例えば3回以上被写体を撮像してもよい。 The first imaging element 123b generates an electric signal related to a captured image as shown in FIG. 9, for example, each time an image of a subject is captured. The first imaging element 123b generates an electric signal (A0) with an exposure amount L A0 and an electric signal (A1) with an exposure amount L A1 as shown in FIG. The signal (A0, A1) is output to the first image processing section 122a of the video signal processing section 122. FIG. Although the subject is imaged twice with different exposure amounts, the subject may be imaged three times or more, for example.

一方、第2の映像入力部124は、例えば被写体の動画(Bm)を撮像する。また、第2映像入力部124は、例えば、絞り値を変更することにより、被写界深度を異ならせて被写体を撮像してもよい。第2の撮像素子124bは、動画等に関する画像信号を映像信号処理部122の第2の画像処理部122bに出力する。そして、HDR合成画像生成ステップS40に移行する。 On the other hand, the second image input unit 124 captures a moving image (Bm) of the subject, for example. In addition, the second video image input unit 124 may change the aperture value to change the depth of field to capture an image of the subject. The second image sensor 124b outputs an image signal related to a moving image or the like to the second image processing section 122b of the video signal processing section 122 . Then, the process proceeds to HDR composite image generation step S40.

HDR合成画像生成ステップS40では、ステップS114が実施される。ステップS114では、ステップS113で生成された、露光量の異なる複数の画像信号(A0、A1)に基づいて、第1の解像度のHDR合成画像が生成される。具体的には、映像信号処理部122の第1の画像処理部122aは、第1の撮像素子123bから入力された電気信号(A0、A1)のそれぞれを、所定のビットの階調幅を持ったデジタル画像データに変換する。そして、第1の画像処理部122aは、それぞれのデジタル画像データに対し画像処理を行い、HDR画像合成に適したそれぞれの中間画像データを生成する。そして、第1の画像処理部122aは、それぞれの中間画像データを画像合成部122cに出力する。また、第1の画像処理部122aは、電気信号(A0、A1)に基づいて、それぞれの合成前の撮像画像を生成する。また、第1の画像処理部122aは、合成前の撮像画像のそれぞれに対応するサムネイル画像を生成する。 Step S114 is performed in the HDR composite image generation step S40. In step S114, an HDR composite image of the first resolution is generated based on the plurality of image signals (A0, A1) with different exposure amounts generated in step S113. Specifically, the first image processing unit 122a of the video signal processing unit 122 converts each of the electrical signals (A0, A1) input from the first imaging element 123b into a predetermined bit width of gradation. Convert to digital image data. Then, the first image processing unit 122a performs image processing on each piece of digital image data to generate each piece of intermediate image data suitable for HDR image synthesis. Then, the first image processing unit 122a outputs each intermediate image data to the image synthesizing unit 122c. In addition, the first image processing unit 122a generates each captured image before synthesis based on the electrical signals (A0, A1). The first image processing unit 122a also generates thumbnail images corresponding to each of the captured images before synthesis.

第2の画像処理部122bは、第2の映像入力部124から入力された、画像信号に基づいて動画像を生成し、あるいは、被写界深度を異ならせた撮像画像を生成する。また、第2の画像処理部122bは、生成した動画像、撮像画像のそれぞれに対応するサムネイル画像を生成する。 The second image processing unit 122b generates a moving image based on the image signal input from the second video input unit 124, or generates captured images with different depths of field. The second image processing unit 122b also generates thumbnail images corresponding to the generated moving images and captured images.

画像合成部122cは、第1の画像処理部122aから入力されたそれぞれの中間画像データを重み付き合成することにより、例えば図9に示すような第1の解像度(高解像度)のHDR合成画像(撮像画像)(A0+A1)を生成する。このように生成されたHDR合成画像(A0+A1)は、暗い部分の黒つぶれや、明るい部分の白とびが解消され、ユーザーが肉眼で見た景色に近い画像となっている。また、画像合成部122cは、生成したHDR合成画像に対応するサムネイル画像を生成する。 The image synthesizing unit 122c weights and synthesizes the respective intermediate image data input from the first image processing unit 122a, thereby producing, for example, a first resolution (high resolution) HDR synthetic image ( Captured image) (A0+A1) is generated. The HDR composite image (A0+A1) generated in this manner eliminates blocked-up shadows in dark areas and blown-out highlights in bright areas, and is an image close to what the user sees with the naked eye. Also, the image composition unit 122c generates a thumbnail image corresponding to the generated HDR composite image.

なお、第1の画像処理部122a及び第2の画像処理部122bは、高解像度の画像信号を低解像度の画像信号に変換し、画像合成部122cが低解像度のHDR合成画像を生成してもよい。そして、ステップS115に移行する。 Note that even if the first image processing unit 122a and the second image processing unit 122b convert a high-resolution image signal into a low-resolution image signal, and the image synthesizing unit 122c generates a low-resolution HDR synthesized image, good. Then, the process proceeds to step S115.

ステップS115では、ステップS114で生成されたHDR合成画像、合成前の撮像画像、動画像、サムネイル画像等がストレージ部110に記憶される。具体的には、画像合成部122cは、生成したHDR合成画像(A0+A1)、サムネイル画像をストレージ110に出力し、ストレージ110は、入力されたHDR画像合成(A0+A1)、サムネイル画像を記憶する。また、第1の画像処理部122a、第2の画像処理部122bは、合成前の撮像画像、動画像、サムネイル画像をストレージ110に出力し、ストレージ110は、入力された合成前の撮像画像、動画像、サムネイル画像を記憶する。これらの処理が実施されると、HDR合成画像生成ステップS40の処理が完了し、ステップS104に移行する。ステップS104については後述する。 In step S<b>115 , the HDR composite image generated in step S<b>114 , the captured image before composite, the moving image, the thumbnail image, and the like are stored in the storage unit 110 . Specifically, the image synthesizing unit 122c outputs the generated HDR synthesized image (A0+A1) and thumbnail image to the storage 110, and the storage 110 stores the input HDR image synthesized image (A0+A1) and thumbnail image. In addition, the first image processing unit 122a and the second image processing unit 122b output the captured image before synthesis, the moving image, and the thumbnail image to the storage 110, and the storage 110 stores the input captured image before synthesis, Stores moving images and thumbnail images. When these processes are performed, the process of HDR synthetic image generation step S40 is completed, and the process proceeds to step S104. Step S104 will be described later.

[微動撮像モード]
図10、図11は、本発明の実施の形態1に係るHDR合成処理を模式的に示す図である。撮像ステップS30のステップS102において、動きベクトルは第1の動き閾値以上であると、主制御部101が判定した場合には、ステップS123又はステップS133が実施される。詳しくは、動きベクトルは第1の動き閾値以上、第2の動き閾値以下であると、主制御部101が判定した場合には、ステップS123が実施される。すなわち、主制御部101は、被写体が静止画撮像モードと比較すれば動きが大きいが、後述する動体撮像モードよりは動きが小さいものと判断し、微動撮像モードに切り替える。
[Fine motion imaging mode]
10 and 11 are diagrams schematically showing HDR synthesis processing according to Embodiment 1 of the present invention. If the main control unit 101 determines in step S102 of the imaging step S30 that the motion vector is greater than or equal to the first motion threshold, step S123 or step S133 is performed. Specifically, when the main control unit 101 determines that the motion vector is greater than or equal to the first motion threshold and less than or equal to the second motion threshold, step S123 is performed. That is, the main control unit 101 determines that the movement of the subject is larger than in the still image imaging mode, but smaller than in the moving object imaging mode, which will be described later, and switches to the fine motion imaging mode.

ステップS123では、主制御部101は、第1の映像入力部123及び第2の映像入力部124に対し、露光量を異ならせて被写体を同時に撮像させた後、第2の映像入力部124に対し、露光量を異ならせて被写体を撮像させる。具体的には、主制御部101は、例えば図8(B)に示すように、第1の映像入力部123の撮像における露光量を、低照度側の暗い被写体が黒つぶれしないような露光量LA0に設定する。言い換えれば、第1の映像入力部123は適切露出で被写体を撮像する。なお、ここでの適切露出とは、低照度側の暗い被写体を十分な露光量で撮像することをいう。また、主制御部101は、第2の映像入力部124による1回目の撮像における露光量を、例えば、低照度側が黒つぶれするような露光量と高照度側が白とびするような露光量の間の露光量LB0に設定し、第2の映像入力部124による2回目の撮像における露光量を、例えば明るい部分が白とびしないよう、LB0より少ない露光量LA1に設定する(LA0>LB0>LB1)。 In step S123, the main control unit 101 causes the first image input unit 123 and the second image input unit 124 to simultaneously image the subject with different exposure amounts, and then causes the second image input unit 124 to On the other hand, the subject is imaged with different exposure amounts. Specifically, as shown in FIG. 8B, for example, the main control unit 101 adjusts the exposure amount in imaging by the first image input unit 123 to an exposure amount that does not cause a dark subject on the low illuminance side to become blackened. Set to L A0 . In other words, the first image input unit 123 images the subject with proper exposure. It should be noted that the proper exposure here means capturing an image of a dark subject on the low-illuminance side with a sufficient amount of exposure. In addition, the main control unit 101 sets the exposure amount in the first imaging by the second image input unit 124, for example, between the exposure amount that causes blackout on the low illuminance side and the exposure amount that causes overexposure on the high illuminance side. is set to the exposure amount L B0 of , and the exposure amount in the second imaging by the second image input unit 124 is set to an exposure amount L A1 smaller than L B0 so as not to cause bright portions to be overexposed (L A0 > L B0 >L B1 ).

また、第2の撮像素子124bの解像度が第1の撮像素子123bよりも低いので、1画素当りの面積が大きくなり露光量が増えるので、第2の映像入力部124は、第1の映像入力部123よりも短い撮像時間(速いシャッタースピード)でも同じ露光量を得ることができる。したがって、第2の映像入力部124における撮像間隔(時間差)は、第1の映像入力部123より短くできるので、HDR合成処理を行った際における被写体の微動によるノイズの発生を低く抑えられる。 In addition, since the resolution of the second imaging element 124b is lower than that of the first imaging element 123b, the area per pixel increases and the amount of exposure increases. The same amount of exposure can be obtained even with a shorter imaging time (faster shutter speed) than the unit 123 . Therefore, the imaging interval (time difference) in the second image input unit 124 can be made shorter than that in the first image input unit 123, so that the generation of noise due to slight movement of the subject during HDR synthesis processing can be suppressed.

主制御部101は、決定した露光量に関する情報を露光情報として映像入力部120に出力する。映像入力部120では、入力された露光情報に基づいて、第1の映像入力部123は、露光量LA0で被写体を撮像し、第2の映像入力部124は、1回目は露光量LB0で被写体を撮像し、2回目は露光量LB1で被写体を撮像する。 The main control unit 101 outputs information about the determined exposure amount to the image input unit 120 as exposure information. In the video input unit 120, based on the input exposure information, the first video input unit 123 captures an image of the subject with an exposure amount of L A0 , and the second video input unit 124 captures an image of the subject with an exposure amount of L B0 for the first time. The subject is imaged at , and the subject is imaged at the exposure amount L B1 for the second time.

第1の撮像素子123bは、例えば図10(A)に示すような露光量LA0の電気信号(A0)を生成し、生成した電気信号(A0)を映像信号処理部122の第1の画像処理部122aに出力する。 The first image sensor 123b generates an electric signal (A0) with an exposure amount L A0 as shown in FIG. Output to the processing unit 122a.

第2の撮像素子124bは、被写体を撮像するごとに、例えば図10(A)に示すような露光量LB0の電気信号(B0)、露光量LB1の電気信号(B1)を生成し、生成した電気信号(B0、B1)を映像信号処理部122の第2の画像処理部122bに出力する。そして、HDR合成画像生成ステップS40に移行する。 The second imaging element 124b generates an electric signal (B0) with an exposure amount L B0 and an electric signal ( B1 ) with an exposure amount L B1 as shown in FIG. The generated electrical signals (B0, B1) are output to the second image processing section 122b of the video signal processing section 122. FIG. Then, the process proceeds to HDR composite image generation step S40.

HDR合成画像生成ステップS40では、まず、ステップS124が実施される。ステップS124では、ステップS123で生成された電気信号の撮像画像の解像度が変換される。具体的には、主制御部101は、映像信号処理部122に対し、第1の映像入力部123で生成された画像信号の解像度を第2の解像度に変換させ、第2の映像入力部124で生成された画像信号の解像度を第1の解像度に変換させる。 In HDR composite image generation step S40, step S124 is first performed. In step S124, the resolution of the captured image of the electrical signal generated in step S123 is converted. Specifically, the main control unit 101 causes the video signal processing unit 122 to convert the resolution of the image signal generated by the first video input unit 123 into the second resolution, and converts the resolution of the image signal generated by the first video input unit 123 into the second resolution. converts the resolution of the image signal generated in to a first resolution.

詳しくは、主制御部101は、第1の画像処理部122aに対し、第1の撮像素子123bで生成された電気信号(A0)の解像度を、第1の解像度から第2の解像度に変換させ、第2の画像処理部122bに対し、第2の撮像素子124bで生成された電気信号(B0)の解像度を、第2の解像度から第1の解像度に変換させる。より詳しくは、第1の画像処理部122aは、第1の解像度の電気信号(A0)に対して解像度変換を実施し、図10(B)に示す、第2の解像度の電気信号(A0d)を生成する。第2の画像処理部122bは、第2の解像度の電気信号(B0)に対して解像度変換を実施し、例えば補間処理等の処理を実施することにより、図10(A)に示す、第1の解像度の電気信号(B0u)を生成する。そして、ステップS125に移行する。 Specifically, the main control unit 101 causes the first image processing unit 122a to convert the resolution of the electrical signal (A0) generated by the first imaging device 123b from the first resolution to the second resolution. , causes the second image processing unit 122b to convert the resolution of the electric signal (B0) generated by the second imaging element 124b from the second resolution to the first resolution. More specifically, the first image processing unit 122a performs resolution conversion on the electric signal (A0) of the first resolution, and converts the electric signal (A0d) of the second resolution shown in FIG. to generate The second image processing unit 122b performs resolution conversion on the electric signal (B0) of the second resolution, and performs processing such as interpolation processing to obtain the first image shown in FIG. 10A. to generate an electrical signal (B0u) with a resolution of . Then, the process proceeds to step S125.

ステップS125では、ステップS124で生成された、複数の画像信号(A0、B0、B1、A0d、B0u)に基づいて、第1の解像度のHDR合成画像、第2の解像度のHDR合成画像が生成される。具体的には、第1の画像処理部122aは、第1の解像度の電気信号(A0)、第2の解像度の電気信号(A0d)のそれぞれを、所定のビットの階調幅を持ったデジタル画像データに変換する。そして、第1の画像処理部122aは、それぞれのデジタル画像データに対し画像処理を行い、HDR画像合成に適したそれぞれの中間画像データを生成する。そして、第1の画像処理部122aは、それぞれの中間画像データを画像合成部122cに出力する。また、第1の画像処理部122aは、電気信号(A0、A0d)に基づいて、それぞれの合成前の撮像画像を生成する。また、第1の画像処理部122aは、合成前の撮像画像のそれぞれに対応するサムネイル画像を生成する。 In step S125, a first resolution HDR composite image and a second resolution HDR composite image are generated based on the plurality of image signals (A0, B0, B1, A0d, B0u) generated in step S124. be. Specifically, the first image processing unit 122a converts each of the electric signal (A0) with the first resolution and the electric signal (A0d) with the second resolution into a digital image having a predetermined bit width of gradation. Convert to data. Then, the first image processing unit 122a performs image processing on each piece of digital image data to generate each piece of intermediate image data suitable for HDR image synthesis. Then, the first image processing unit 122a outputs each intermediate image data to the image synthesizing unit 122c. Also, the first image processing unit 122a generates each captured image before synthesis based on the electrical signals (A0, A0d). The first image processing unit 122a also generates thumbnail images corresponding to each of the captured images before synthesis.

第2の画像処理部122bは、第2の解像度の電気信号(B0、B1)、第1の解像度の電気信号(B0u)のそれぞれを、所定のビットの階調幅を持ったデジタル画像データに変換する。そして、第2の画像処理部122bは、それぞれのデジタル画像データに対し画像処理を行い、HDR画像合成に適したそれぞれの中間画像データを生成する。そして、第2の画像処理部122bは、それぞれの中間画像データを画像合成部122cに出力する。また、第2の画像処理部122bは、電気信号(B0、B1、B0u)に基づいて、それぞれの合成前の撮像画像を生成する。また、第2の画像処理部122bは、生成した合成前の撮像画像のそれぞれに対応するサムネイル画像を生成する。 The second image processing unit 122b converts each of the electrical signals (B0, B1) of the second resolution and the electrical signal (B0u) of the first resolution into digital image data having a predetermined bit width of gradation. do. Then, the second image processing unit 122b performs image processing on each piece of digital image data to generate each piece of intermediate image data suitable for HDR image synthesis. Then, the second image processing unit 122b outputs each intermediate image data to the image synthesizing unit 122c. In addition, the second image processing unit 122b generates each captured image before synthesis based on the electrical signals (B0, B1, B0u). In addition, the second image processing unit 122b generates thumbnail images corresponding to each of the generated captured images before synthesis.

画像合成部122cは、第1の画像処理部122aから出力されたそれぞれの中間画像データと、第2の画像処理部122bから出力されたそれぞれの中間画像データとを重み付き合成することにより第1の解像度のHDR合成画像、第2の解像度のHDR合成画像を生成する。 The image synthesizing unit 122c weights and synthesizes each intermediate image data output from the first image processing unit 122a and each intermediate image data output from the second image processing unit 122b to obtain the first image data. and a second resolution HDR composite image.

具体的には、画像合成部122cは、電気信号(A0)の中間画像データ及び電気信号(B0u)の中間画像データに基づいて、例えば図10(A)に示す、第1の解像度のHDR合成画像(A0+B0u)を生成する。また、画像合成部122cは、電気信号(A0d)の中間画像データ及び電気信号(B0)の中間画像データに基づいて、例えば図10(B)に示す、第2の解像度のHDR合成画像(A0d+B0)を生成する。また、画像合成部122cは、電気信号(B0)の中間画像データ及び電気信号(B1)の中間画像データに基づいて、例えば図11(A)に示す、第2の解像度のHDR合成画像(B0+B1)を生成する。また、画像合成部122cは、電気信号(A0d)の中間画像データ及び電気信号(B0、B1)の中間画像データに基づいて、例えば図11(B)に示す、第2の解像度のHDR合成画像(A0d+B0+B1)を生成する。また、画像合成部122cは、生成したHDR合成画像に対応するサムネイル画像を生成する。 Specifically, the image synthesizing unit 122c performs HDR synthesizing at the first resolution, for example, as shown in FIG. Generate an image (A0+B0u). Further, the image synthesizing unit 122c generates a second resolution HDR synthesized image (A0d+B0 ). Further, the image synthesizing unit 122c generates a second resolution HDR synthesized image (B0+B1 ). Further, the image synthesizing unit 122c generates an HDR synthesized image of the second resolution, for example, shown in FIG. Generate (A0d+B0+B1). Also, the image composition unit 122c generates a thumbnail image corresponding to the generated HDR composite image.

なお、ユーザーがHDR合成画像を後に閲覧する際に、これらの画像から目視でもっともよいと判断されるものをユーザーが選択し、HDR合成処理を施した最終処理結果の画像として取り扱ってもよい。そして、ステップS126に移行する。 When the user browses the HDR composite images later, the user may select the image that is visually judged to be the best from these images and handle it as the image of the final processing result of the HDR composite processing. Then, the process proceeds to step S126.

ステップS126では、ステップS125で生成されたHDR合成画像、合成前の撮像画像、サムネイル画像等がストレージ部110に記憶される。具体的には、画像合成部122cは、生成したHDR合成画像(A0+B0u)、(A0d+B0)、(B0+B1)、(A0d+B0+B1)、サムネイル画像をストレージ110に出力し、ストレージ110は、入力されたHDR画像合成(A0+B0u)、(A0d+B0)、(B0+B1)、(A0d+B0+B1)、サムネイル画像を記憶する。また、第1の画像処理部122a、第2の画像処理部122bは、合成前の撮像画像、サムネイル画像をストレージ110に出力し、ストレージ110は、入力された合成前の撮像画像、サムネイル画像を記憶する。これらの処理が実施されると、HDR合成画像生成ステップS40の処理が完了し、ステップS104に移行する。ステップS104については後述する。 In step S<b>126 , the HDR composite image generated in step S<b>125 , the captured image before composite, the thumbnail image, and the like are stored in the storage unit 110 . Specifically, the image composition unit 122c outputs the generated HDR composite images (A0+B0u), (A0d+B0), (B0+B1), (A0d+B0+B1) and thumbnail images to the storage 110, and the storage 110 stores the input HDR images Synthesis (A0+B0u), (A0d+B0), (B0+B1), (A0d+B0+B1), thumbnail images are stored. Further, the first image processing unit 122a and the second image processing unit 122b output the captured image before synthesis and the thumbnail image to the storage 110, and the storage 110 stores the input captured image before synthesis and the thumbnail image. Remember. When these processes are performed, the process of HDR synthetic image generation step S40 is completed, and the process proceeds to step S104. Step S104 will be described later.

[動体撮像モード]
撮像ステップS30のステップS102において、主制御部101が、動きベクトルは第2の動き閾値を超えていると判定した場合には、ステップS133が実施される。すなわち、主制御部101は、被写体が微動撮像モードよりも動きが大きいものと判断し、動体撮像モードに切り替える。
[Moving object imaging mode]
If the main control unit 101 determines in step S102 of the imaging step S30 that the motion vector exceeds the second motion threshold, step S133 is performed. That is, the main control unit 101 determines that the subject moves more than in the fine motion imaging mode, and switches to the moving object imaging mode.

ステップS133では、ステップS123と同様の処理が実施される。すなわち、ステップS123では、主制御部101は、第1の映像入力部123及び第2の映像入力部124に対し、露光量を異ならせて被写体を同時に撮像させる。第1の映像入力部123は、露光量LA0で被写体を撮像し、例えば図10(A)、(B)に示すような第1の解像度の撮像画像についての電気信号(A0)を生成する。第2の映像入力部124は、露光量LB0で被写体を撮像し、例えば図10(A)、(B)に示すような第2の解像度の撮像画像についての電気信号(B0)を生成する。なお、動体撮像モードでは、微動撮像モードのように、第2の映像入力部124が時間差をおいて被写体を撮像しない。これは、被写体の動きが大きいため、時間差をおいて撮像すると、生成されたHDR合成画像における被写体振れが顕著になるからである。 In step S133, the same processing as in step S123 is performed. That is, in step S123, the main control unit 101 causes the first image input unit 123 and the second image input unit 124 to simultaneously image the subject with different exposure amounts. The first video input unit 123 captures an image of the subject with an exposure amount L A0 , and generates an electric signal (A0) for the captured image of the first resolution as shown in FIGS. 10A and 10B, for example. . The second video input unit 124 captures an image of the subject with an exposure amount L B0 and generates an electrical signal (B0) for the captured image of the second resolution as shown in FIGS. 10A and 10B, for example. . Note that in the moving object imaging mode, unlike the fine motion imaging mode, the second image input unit 124 does not image the subject with a time lag. This is because the movement of the subject is large, and subject shake becomes noticeable in the generated HDR composite image if the images are captured with a time lag.

第1の撮像素子123bは、露光量LA0の電気信号(A0)を第1の画像処理部122aに出力する。第2の撮像素子124bは、露光量LB0の電気信号(B0)を第2の画像処理部122bに出力する。そして、HDR合成画像生成ステップS40に移行する。 The first imaging element 123b outputs an electric signal (A0) of the exposure amount L A0 to the first image processing section 122a. The second imaging element 124b outputs an electric signal (B0) of the exposure amount L B0 to the second image processing section 122b. Then, the process proceeds to HDR composite image generation step S40.

HDR合成画像生成ステップS40では、まず、ステップS134が実施される。ステップS134では、前述のステップS124と同様の処理が実施される。すなわち、ステップS134では、第1の画像処理部122aは、第1の解像度の電気信号(A0)に対して解像度変換を実施し、例えば図10(B)に示す、第2の解像度の電気信号(A0d)を生成する。第2の画像処理部122bは、第2の解像度の電気信号(B0)に対して解像度変換を実施し、図10(A)に示す、第1の解像度の電気信号(B0u)を生成する。そして、ステップS135に移行する。 In HDR composite image generation step S40, step S134 is first performed. In step S134, the same processing as in step S124 described above is performed. That is, in step S134, the first image processing unit 122a performs resolution conversion on the electrical signal (A0) of the first resolution, and converts the electrical signal (A0) of the second resolution to the electrical signal of the second resolution shown in FIG. 10B, for example. Generate (A0d). The second image processing unit 122b performs resolution conversion on the electric signal (B0) of the second resolution to generate the electric signal (B0u) of the first resolution shown in FIG. 10(A). Then, the process proceeds to step S135.

ステップS135では、前述のステップS125とほぼ同様の処理が実施される。すなわち、ステップS135では、ステップS134で生成された、複数の画像信号(A0、B0、A0d、B0u)に基づいて、第1の解像度のHDR合成画像、第2の解像度のHDR合成画像が生成される。具体的には、画像合成部122cは、図10(B)に示す第1の解像度のHDR合成画像(A0+B0u)及び図10(A)に示す第2の解像度のHDR合成画像(A0d+B0)を生成する。また、第1の画像処理部122a、第2の画像処理部122bは、合成前の撮像画像、合成前の撮像画像のそれぞれに対応するサムネイル画像を生成する。 In step S135, substantially the same processing as in step S125 described above is performed. That is, in step S135, a first resolution HDR composite image and a second resolution HDR composite image are generated based on the plurality of image signals (A0, B0, A0d, B0u) generated in step S134. be. Specifically, the image synthesizing unit 122c generates the first resolution HDR synthesized image (A0+B0u) shown in FIG. 10B and the second resolution HDR synthesized image (A0d+B0) shown in FIG. 10A. do. Also, the first image processing unit 122a and the second image processing unit 122b generate captured images before synthesis and thumbnail images respectively corresponding to the captured images before synthesis.

なお、ユーザーがHDR合成画像を後に閲覧する際に、これらの画像から目視でもっともよいと判断されるものをユーザーが選択し、HDR合成処理を施した最終処理結果の画像として取り扱ってもよい。そして、ステップS126に移行する。 When the user browses the HDR composite images later, the user may select the image that is visually judged to be the best from these images and handle it as the image of the final processing result of the HDR composite processing. Then, the process proceeds to step S126.

ステップS126では、ステップS135で生成されたHDR合成画像、合成前の撮像画像、サムネイル画像等がストレージ部110に記憶される。具体的には、画像合成部122cは、生成したHDR合成画像(A0+B0u)、(A0d+B0)、サムネイル画像をストレージ110に出力し、ストレージ110は、入力されたHDR画像合成(A0+B0u)、(A0d+B0)、サムネイル画像を記憶する。また、第1の画像処理部122a、第2の画像処理部122bは、合成前の撮像画像、サムネイル画像をストレージ110に出力し、ストレージ110は、入力された合成前の撮像画像、サムネイル画像を記憶する。これらの処理が実施されると、HDR合成画像生成ステップS40の処理が完了し、ステップS104に移行する。 In step S<b>126 , the HDR composite image generated in step S<b>135 , the captured image before composite, the thumbnail image, and the like are stored in the storage unit 110 . Specifically, the image composition unit 122c outputs the generated HDR composite images (A0+B0u), (A0d+B0), and the thumbnail image to the storage 110, and the storage 110 stores the input HDR image composites (A0+B0u), (A0d+B0). , store the thumbnail image. Further, the first image processing unit 122a and the second image processing unit 122b output the captured image before synthesis and the thumbnail image to the storage 110, and the storage 110 stores the input captured image before synthesis and the thumbnail image. Remember. When these processes are performed, the process of HDR synthetic image generation step S40 is completed, and the process proceeds to step S104.

ステップS104では、表示部121に表示させる画像等が選択される。具体的には、それぞれの撮像モードの各ステップS114、S125、S135で生成され、ストレージ部110に記憶された画像等(HDR合成画像、合成前の撮像画像、動画像)の中から、表示部121に表示させる画像等が選択される。 In step S104, an image or the like to be displayed on the display unit 121 is selected. Specifically, the images generated in steps S114, S125, and S135 of each imaging mode and stored in the storage unit 110 (HDR synthesized image, captured image before synthesis, moving image) are displayed on the display unit. An image or the like to be displayed on 121 is selected.

例えば、ストレージ部110は、記憶している画像等に関する情報(例えばサムネイル画像)を画像出力部122dに出力する。画像出力部122dは、入力されたサムネイル画像を表示部121に出力する。表示部121は、入力されたサムネイル画像を表示する。ユーザーは表示されたサムネイル画像から、表示部121に表示させる画像等を選択する。そして、ステップS105に移行する。 For example, the storage unit 110 outputs information (for example, thumbnail images) related to stored images and the like to the image output unit 122d. The image output unit 122 d outputs the input thumbnail image to the display unit 121 . The display unit 121 displays the input thumbnail images. The user selects an image or the like to be displayed on the display unit 121 from the displayed thumbnail images. Then, the process proceeds to step S105.

ステップS105では、選択されたサムネイル画像に対応する画像等が表示される。具体的には、画像出力部122dは、例えば、ユーザーが選択したサムネイル画像に対応する画像等をストレージ部110から出力する。画像出力部122dは、読み出した画像等を表示部121に出力する。表示部121は、入力された画像等を表示する。 In step S105, an image or the like corresponding to the selected thumbnail image is displayed. Specifically, the image output unit 122d outputs from the storage unit 110, for example, an image corresponding to the thumbnail image selected by the user. The image output unit 122 d outputs the read image and the like to the display unit 121 . The display unit 121 displays an input image or the like.

なお、ユーザーは、表示部121に表示させる画像等を任意に選択してもよいし、表示させる優先順位を事前に撮像装置100に登録し、この順位に従って画像等が順次表示されるようにしてもよい。 Note that the user may arbitrarily select the images and the like to be displayed on the display unit 121, or register the priority order of display in the imaging apparatus 100 in advance so that the images and the like are sequentially displayed according to the order. good too.

また、表示部121に表示される画像等は、表示部121の解像度に合わせて、適宜拡大又は縮小されてもよい。このとき、複数の画像等が同じサイズで表示されてもよいし、選択された画像等の解像度に合わせて、複数の画像等がそれぞれ異なるサイズで表示されてもよい。 Also, an image or the like displayed on the display unit 121 may be enlarged or reduced as appropriate according to the resolution of the display unit 121 . At this time, the plurality of images and the like may be displayed in the same size, or the plurality of images and the like may be displayed in different sizes according to the resolution of the selected image and the like.

なお、本実施の形態に係る撮像装置100は、図2に示した構成に限定されるものではない。例えば、撮像装置100が、例えば、通信処理部150やセンサ部160等を備えていなくてもよいし、デジタルテレビ放送受信機能や電子マネー決済機能等の各種機能を備えてもよい。 Imaging device 100 according to the present embodiment is not limited to the configuration shown in FIG. For example, the imaging device 100 may not include the communication processing unit 150, the sensor unit 160, etc., or may include various functions such as a digital television broadcast reception function and an electronic money settlement function.

本実施の形態によれば、被写体の動きベクトルに基づいて、主制御部101は、映像入力部120に対し露光量を異ならせて被写体を複数回撮像させ、映像信号処理部に対し、露光量が異なる複数の画像信号に基づいて被写体のHDR合成画像を生成させる。 According to the present embodiment, based on the motion vector of the subject, the main control unit 101 causes the image input unit 120 to image the subject a plurality of times with different exposure amounts, and instructs the image signal processing unit to capture the exposure amount generates an HDR composite image of a subject based on a plurality of image signals with different values.

この構成によれば、被写体の動きに応じた適切な撮像モードを選択することができるので、被写体の動き、手振れ等の撮像環境に対応させた高品質なHDR合成画像を生成することができる。 With this configuration, it is possible to select an appropriate imaging mode according to the movement of the subject, so it is possible to generate a high-quality HDR composite image corresponding to the imaging environment such as movement of the subject and camera shake.

また、本実施の形態によれば、主制御部101は、動きベクトルが第1の動き閾値未満であると判定した場合には、静止画撮像モードに切り替え、高解像度な第1の解像度の第1の撮像素子123bを有する第1の映像入力部123に対し、露光量を異ならせて被写体を連続して撮像させ、映像信号処理部122に対し、露光量の異なる複数の画像信号(A0、A1)に基づいて、第1の解像度のHDR合成画像を生成させる。 Further, according to the present embodiment, when the main control unit 101 determines that the motion vector is less than the first motion threshold, the main control unit 101 switches to the still image capturing mode, and selects the high-resolution first resolution image. The first image input unit 123 having one image sensor 123b is caused to continuously image the subject with different exposure amounts, and the image signal processing unit 122 receives a plurality of image signals (A0, Based on A1), a first resolution HDR composite image is generated.

この構成によれば、静止画撮像モードでは被写体がほとんど動かないので、時間差をおいて被写体を撮像しても、HDR合成画像における被写体の動きによるノイズの発生が抑えられる。これにより、高解像度の撮像素子のみを使用して被写体を連続して撮像することができるので、高品質なHDR合成画像が生成される。 According to this configuration, since the subject hardly moves in the still image capturing mode, even if the subject is captured with a time difference, the occurrence of noise due to the movement of the subject in the HDR composite image can be suppressed. As a result, the subject can be continuously imaged using only the high-resolution imaging device, so a high-quality HDR composite image is generated.

また、この構成によれば、低照度側の暗い被写体を十分な露光量で撮像して生成された電気信号(A0)と、高照度側の明るい被写体を露光量を抑えて撮像して生成された電気信号(A1)とを合成するので、ダイナミックレンジを拡大させた高品質なHDR合成画像が生成される。 Further, according to this configuration, the electric signal (A0) generated by imaging a dark subject on the low-illuminance side with a sufficient amount of exposure and the electric signal (A0) generated by imaging a bright subject on the high-illuminance side with a reduced amount of exposure. A high-quality HDR composite image with an expanded dynamic range is generated because the electric signal (A1) is combined with the electric signal (A1).

また、本実施の形態によれば、主制御部101は、動きベクトルが第1の動き閾値以上であると判定した場合には、微動撮像モード又は動体撮像モードに切り替え、第1の映像入力部123及び第2の映像入力部124に対し、露光量を異ならせて被写体を同時に撮像させ、画像信号処理部122に対し、第1の解像度の画像信号を第2の解像度の画像信号に変換させ、第2の解像度の画像信号を第1の解像度の画像信号に変換させ、第1の解像度のHDR合成画像及び第2の解像度のHDR合成画像を生成させる。 Further, according to the present embodiment, when the main control unit 101 determines that the motion vector is equal to or greater than the first motion threshold, the main control unit 101 switches to the fine motion imaging mode or the moving object imaging mode, and the first image input unit 123 and the second image input unit 124 are caused to simultaneously image the subject with different exposure amounts, and the image signal processing unit 122 is caused to convert the image signal of the first resolution into the image signal of the second resolution. , converts the second resolution image signal into a first resolution image signal to generate a first resolution HDR composite image and a second resolution HDR composite image.

この構成によれば、被写体が動いている場合でも、同時に撮像された複数の画像信号に基づいてHDR合成画像が生成されるので、被写体の動きや手振れによるノイズの影響が抑えられ、ダイナミックレンジを拡大させた高品質なHDR合成画像が生成される。 According to this configuration, even if the subject is moving, the HDR composite image is generated based on a plurality of image signals captured at the same time. An enlarged high quality HDR composite image is generated.

また、この構成によれば、解像度の異なるHDR画像が複数生成されるので、ユーザーの用途に適したHDR画像が提供され、使い勝手のよい撮像装置100が提供される。 In addition, according to this configuration, a plurality of HDR images with different resolutions are generated, so HDR images suitable for the user's application are provided, and the user-friendly imaging apparatus 100 is provided.

また、本実施の形態によれば、制御部101は、動きベクトルが第1の動き閾値以上、第2の動き閾値以下であると判定した場合には、微動撮像モードに切り替え、第1の映像入力部123及び第2の映像入力部124に対し、露光量を異ならせて被写体を同時に撮像させた後、第2の映像入力部124に対し、露光量を異ならせて被写体を撮像させる。 Further, according to the present embodiment, when the control unit 101 determines that the motion vector is equal to or greater than the first motion threshold and equal to or less than the second motion threshold, the control unit 101 switches to the fine motion imaging mode and captures the first image. After the input unit 123 and the second image input unit 124 are caused to simultaneously image the subject with different exposure amounts, the second image input unit 124 is caused to image the subject with different exposure amounts.

この構成によれば、露光量が異なる少なくとも3種類の画像信号に基づいてHDR合成処理がされるので、より高品質なHDR合成画像が生成される。 According to this configuration, HDR synthesis processing is performed based on at least three types of image signals with different exposure amounts, so an HDR synthesized image of higher quality is generated.

また、本実施の形態によれば、第2の撮像素子124bの解像度は、第1の撮像素子123bの解像度よりも低い。 Moreover, according to the present embodiment, the resolution of the second imaging element 124b is lower than the resolution of the first imaging element 123b.

この構成によれば、第2の映像入力部124は、第1の映像入力部123よりも短い撮像時間でも同じ露光量を得ることができる。これにより、第2の映像入力部124が時間差を置いて被写体を撮像しても、被写体の動きによるノイズの発生が抑えられるので、HDR合成画像における、被写体の動きによるノイズの発生が抑えられる。 According to this configuration, the second video input unit 124 can obtain the same amount of exposure as the first video input unit 123 even if the imaging time is shorter. As a result, even if the second image input unit 124 takes images of the subject with a time lag, the occurrence of noise due to the motion of the subject can be suppressed, so the occurrence of noise due to the motion of the subject in the HDR composite image can be suppressed.

また、この構成によれば、第2の撮像素子124のコストが抑えられるので、撮像装置100の製造コストを抑えることができる。 Moreover, according to this configuration, the cost of the second imaging device 124 can be suppressed, so the manufacturing cost of the imaging device 100 can be suppressed.

また、本実施の形態によれば、表示部121は、HDR合成画像等のサムネイル画像を表示し、サムネイル画像が選択されると、選択されたサムネイル画像に対応するHDR合成画像を表示する。 Further, according to the present embodiment, display unit 121 displays a thumbnail image such as an HDR composite image, and when a thumbnail image is selected, displays an HDR composite image corresponding to the selected thumbnail image.

この構成によれば、ユーザーがストレージ部110に記憶されたHDR合成画像等を容易に識別できるようになるので、表示部121に表示させるHDR画像等を選択する際の負担が軽減される。 According to this configuration, the user can easily identify the HDR composite image or the like stored in the storage unit 110 , thereby reducing the burden when selecting the HDR image or the like to be displayed on the display unit 121 .

また、本実施の形態によれば、映像入力部120が被写体を撮像し、被写体の画像信号を生成する映像入力ステップS10と、主制御部101が画像信号に基づいて被写体の動き情報を検出する動き情報検出ステップS20と、主制御部101が、動き情報に基づいて、映像入力部120に対し露光量を異ならせて被写体を複数回撮像させる撮像ステップS30と、映像信号処理部122が、露光量が異なる複数の画像信号に基づいて被写体のHDR合成画像を生成するHDR合成画像生成ステップS40と、を有する。 Further, according to the present embodiment, the image input step S10 in which the image input unit 120 captures an image of the subject and generates an image signal of the subject, and the main control unit 101 detects movement information of the subject based on the image signal. a motion information detection step S20; an imaging step S30 in which the main control unit 101 causes the video input unit 120 to capture images of the subject a plurality of times with different exposure amounts based on the motion information; and an HDR composite image generation step S40 for generating an HDR composite image of the subject based on a plurality of image signals with different amounts.

この構成によれば、被写体の動きに応じた適切な撮像モードを選択して被写体を撮像することができるので、撮像環境に対応させた高品質なHDR合成画像を生成することができる撮像方法を提供することができる。 According to this configuration, it is possible to select an appropriate imaging mode according to the movement of the subject to capture an image of the subject. can provide.

また、本実施の形態によれば、映像入力部120に被写体を撮像させ、被写体の画像信号を生成させる映像入力ステップS10と、画像信号に基づいて被写体の動き情報を検出する動き情報検出ステップS20と、動き情報に基づいて、映像入力部に対し露光量を異ならせて被写体を複数回撮像させる撮像ステップS30と、映像信号処理部122に対し、露光量が異なる複数の画像信号に基づいて被写体のHDR合成画像を生成させるHDR合成画像生成ステップS40と、をコンピュータである主制御部101に実行させる。 Further, according to the present embodiment, the video input step S10 causes the video input unit 120 to image the subject and generates an image signal of the subject, and the motion information detection step S20 detects the motion information of the subject based on the image signal. Then, based on the motion information, an imaging step S30 in which the image input unit is caused to image the subject a plurality of times with different exposure amounts, and the image signal processing unit 122 receives the subject based on a plurality of image signals with different exposure amounts. HDR synthetic image generation step S40 for generating an HDR synthetic image of .

この構成によれば、被写体の動きに応じた適切な撮像モードを選択して被写体を撮像することができるので、撮像環境に対応させた高品質なHDR合成画像を生成することができる撮像プログラムを提供することができる。 According to this configuration, it is possible to pick up an image of the subject by selecting an appropriate image pickup mode according to the movement of the subject. can provide.

(実施の形態2)
次に、実施の形態2について説明する。本実施の形態では、被写体の動き及び光量に基づいて撮像モードを切り替える場合について説明する。なお、以下では、上述の実施の形態1と重複する箇所についての詳細な説明を適宜省略する場合がある。
(Embodiment 2)
Next, Embodiment 2 will be described. In this embodiment, a case will be described in which the imaging mode is switched based on the motion of the subject and the amount of light. In addition, below, the detailed explanation about the part which overlaps with the above-mentioned Embodiment 1 may be abbreviate|omitted suitably.

図12、図13は、本発明の実施の形態2に係る撮像装置の構成の一例を示すブロック図である。撮像装置200は、図12に示すように、映像入力部220等を備えている。 12 and 13 are block diagrams showing an example of the configuration of an imaging device according to Embodiment 2 of the present invention. The imaging device 200 includes a video input unit 220 and the like, as shown in FIG.

映像入力部220は、図12、図13に示すように、第2の映像入力部224、解像度変換部228等を備えている。第2の映像入力部224は、第2の撮像素子224bを備えている。第2の撮像素子224bは、第1の撮像素子123bと同様に第1の解像度(高解像度)の撮像素子である。第1の撮像素子123b及び第2の撮像素子224bは、解像度変換部228により、解像度が適宜変換されるように構成されている。 The video input unit 220 includes a second video input unit 224, a resolution conversion unit 228, etc., as shown in FIGS. The second video input section 224 has a second imaging element 224b. The second image pickup device 224b is an image pickup device with a first resolution (high resolution) like the first image pickup device 123b. The first imaging device 123b and the second imaging device 224b are configured such that the resolution is appropriately converted by the resolution conversion unit 228. FIG.

光量センサ165は、撮像装置200周辺や被写体付近の光量を測定する。そして、光量センサ165は、測定した光量情報を露光制御部126、主制御部101に出力する。 The light amount sensor 165 measures the amount of light around the imaging device 200 and around the subject. The light amount sensor 165 then outputs the measured light amount information to the exposure control section 126 and the main control section 101 .

露光制御部126は、例えば、光量センサ165から出力された光量情報、主制御部101からの指示に基づいて、第1の映像入力部123及び第2の映像入力部224dが撮像する際の露光量を設定する。 The exposure control unit 126 adjusts the exposure when the first image input unit 123 and the second image input unit 224d capture images based on the light amount information output from the light amount sensor 165 and the instruction from the main control unit 101, for example. set the amount.

主制御部101は、光量センサ165で測定された光量及び被写体の動きベクトルの検出結果に基づいて撮像モードを切り替える。また、主制御部101は、解像度変換部228に対し、複数の画素をグループ化させることにより、第1の撮像素子123b及び第2の撮像素子224bの解像度を、第1の解像度(高解像度)から第2の解像度(低解像度)に変換させる。また、主制御部101は、解像度変換部228に対し、複数の画素のグループ化を解除させることにより、第1の撮像素子123b及び第2の撮像素子224bの解像度を、第2の解像度(低解像度)から第1の解像度(高解像度)に変換させる。 The main control unit 101 switches the imaging mode based on the amount of light measured by the light amount sensor 165 and the detection result of the motion vector of the subject. Further, the main control unit 101 causes the resolution conversion unit 228 to group a plurality of pixels so that the resolutions of the first image sensor 123b and the second image sensor 224b are set to the first resolution (high resolution). to a second resolution (lower resolution). Further, the main control unit 101 causes the resolution conversion unit 228 to cancel the grouping of a plurality of pixels, thereby changing the resolution of the first image sensor 123b and the second image sensor 224b to the second resolution (lower resolution). resolution) to a first resolution (high resolution).

例えば、主制御部101は、撮像モードに応じて、第1の撮像素子123b及び第2の撮像素子224bの解像度を変換させる解像度変換情報を解像度変換部228に出力する。解像度変換部228は、解像度変換情報に基づき、第1の撮像素子123b及び第2の撮像素子224bの解像度を変換する。低解像度に変換された撮像素子では、グループ化された複数の画素が1つの画素とされる。これにより、グループ化後の1画素では、グループ化前の1画素より面積が増大し、露光量が増えるので、同じ露光量を得るための露出時間(シャッタースピード)が短縮される。 For example, the main control unit 101 outputs resolution conversion information for converting the resolutions of the first imaging device 123b and the second imaging device 224b to the resolution conversion unit 228 according to the imaging mode. The resolution converter 228 converts the resolutions of the first imaging element 123b and the second imaging element 224b based on the resolution conversion information. In the image sensor converted to low resolution, a plurality of grouped pixels are treated as one pixel. As a result, the area of one pixel after grouping is larger than that of one pixel before grouping, and the amount of exposure increases, so the exposure time (shutter speed) for obtaining the same amount of exposure is shortened.

光量センサ165は、例えば、被写体の高光度の領域から低高度の領域までの光量を測定する。図12、図13では、光量センサ165が独立して設けられている場合を例示しているが、このような構成に限定されることはなく、例えば、第1の撮像素子123b又は第2の撮像素子224bが、光量センサ165の機能を兼ね備えていてもよい。 The light intensity sensor 165 measures, for example, the amount of light from a high light intensity area to a low altitude area of the object. 12 and 13 exemplify the case where the light amount sensor 165 is provided independently, but it is not limited to such a configuration. The imaging device 224b may also have the function of the light amount sensor 165. FIG.

次に、本実施の形態に係る撮像方法について説明する。図14、図15は、本発明の実施の形態2の撮像方法に係るフローチャート図である。本実施の形態においても、図5に示す、映像入力ステップS10、動き情報検出ステップS20、撮像ステップS30、HDR合成画像生成ステップS40が実施される。映像入力ステップS10、動き情報検出ステップS20は、上述した実施の形態1と同様である。 Next, an imaging method according to this embodiment will be described. 14 and 15 are flowcharts relating to the imaging method according to Embodiment 2 of the present invention. Also in this embodiment, the video input step S10, the motion information detection step S20, the imaging step S30, and the HDR composite image generation step S40 shown in FIG. 5 are performed. The image input step S10 and the motion information detection step S20 are the same as in the first embodiment described above.

撮像ステップS30では、まずステップS202が実施される。ステップS202では、動き情報に基づいて被写体の動きが判定される。具体的には、主制御部101は、動き情報検出ステップS20で検出した動きベクトルを第3の動き閾値と比較することにより、被写体の動きを判定する。詳しくは、主制御部101は、ストレージ部110に記憶された第3の動き閾値をメモリ104に読み出し、動きベクトルを第3の動き閾値と比較する。第3の動き閾値は、例えば実験等により適宜設定される。 In the imaging step S30, step S202 is first performed. In step S202, the motion of the subject is determined based on the motion information. Specifically, the main control unit 101 determines the motion of the subject by comparing the motion vector detected in the motion information detection step S20 with the third motion threshold. Specifically, the main control unit 101 reads the third motion threshold stored in the storage unit 110 to the memory 104 and compares the motion vector with the third motion threshold. The third motion threshold is appropriately set by, for example, experiments.

[静止画撮像モード]
ステップS202において、主制御部101が、動きベクトルは第3の動き閾値未満であると判定した場合には、ステップS214が実施される。すなわち、主制御部101は、被写体がほとんど動いていないものと判断し、静止画撮像モードに切り替える。
[Still image capture mode]
If the main control unit 101 determines in step S202 that the motion vector is less than the third motion threshold, step S214 is performed. That is, the main control unit 101 determines that the subject is hardly moving, and switches to the still image capturing mode.

ステップS214では、実施の形態1におけるステップS113と同様の処理が実施される。すなわち、第1の映像入力部123は、露光量を異ならせて被写体を連続して撮像する。第1の映像入力部123は、1回目の撮像では、例えば露光量LA0で被写体を撮像し、2回目の撮像では、LA0より少ない露光量LA1で撮像する(LA0>LA1)。第1の撮像素子123bは、例えば図9に示す、高解像度の撮像画像についての電気信号(A0、A1)を生成し、生成した電気信号(A0、A1)を第1の画像処理部122aに出力する。なお、ここでは露光量が異なる2種類の画像信号が合成処理される場合について説明するが、例えば、3種類以上の画像信号が合成処理されてもよい。 In step S214, the same processing as in step S113 in the first embodiment is performed. That is, the first image input unit 123 continuously images the subject with different exposure amounts. The first video input unit 123 captures an image of the subject, for example, with an exposure amount L A0 in the first imaging, and captures an image with an exposure amount L A1 smaller than L A0 in the second imaging (L A0 >L A1 ). . The first image sensor 123b generates electrical signals (A0, A1) for a high-resolution captured image shown in FIG. 9, for example, and transmits the generated electrical signals (A0, A1) to the first image processing unit 122a. Output. Note that although a case where two types of image signals with different exposure amounts are synthesized is described here, for example, three or more types of image signals may be synthesized.

一方、第2の映像入力部224は、例えば被写体の動画(Bm)を撮像してもよいし、被写界深度を異ならせて被写体を撮像してもよい。また、第2の映像入力部224の第2の撮像素子224bも高解像度であるので、例えば、露光量を異ならせて(例えばLA1等)第1の映像入力部123と同時に被写体を撮像してもよい。第2の撮像素子224bは、露光量LA0の電気信号(A0)、露光量LA1の電気信号(A1)を生成し、生成した電気信号(A0、A1)を第1の画像処理部122aに出力する。第2の撮像素子224bは、動画等に関する画像信号を映像信号処理部122の第2の画像処理部122bに出力する。そして、HDR合成画像生成ステップS40に移行する。 On the other hand, the second image input unit 224 may capture, for example, a moving image (Bm) of the subject, or may capture the subject with different depths of field. In addition, since the second imaging element 224b of the second image input unit 224 also has a high resolution, for example, the subject can be imaged at the same time as the first image input unit 123 by changing the exposure amount (for example, L A1 ). may The second image sensor 224b generates an electric signal (A0) of the exposure amount L A0 and an electric signal ( A1) of the exposure amount L A1 , and outputs the generated electric signals (A0, A1) to the first image processing unit 122a. output to The second image sensor 224b outputs an image signal related to a moving image or the like to the second image processing section 122b of the video signal processing section 122 . Then, the process proceeds to HDR composite image generation step S40.

HDR合成画像生成ステップS40では、ステップS215が実施される。ステップS215では、実施の形態1におけるステップS114と同様の処理が実施される。すなわち、ステップS214で生成された、露光量の異なる複数の画像信号(A0、A1)に基づいて、画像合成部122cは、第1の解像度のHDR合成画像(A0+A1)を生成する。また、画像合成部122cは、第1の撮像素子123b及び第2の撮像素子で生成された電気信号に基づいてHDR合成画像を生成してもよい。また、画像合成部122cは、HDR合成画像に対応するサムネイル画像を生成する。第1の画像処理部122a、第2の画像処理部122bは、合成前の撮像画像、動画像、これらの画像に対応するサムネイル画像を生成する。 Step S215 is performed in the HDR composite image generation step S40. In step S215, the same process as in step S114 in the first embodiment is performed. That is, based on the plurality of image signals (A0, A1) with different exposures generated in step S214, the image composition unit 122c generates the HDR composite image (A0+A1) of the first resolution. Also, the image synthesizing unit 122c may generate an HDR synthesized image based on the electrical signals generated by the first imaging element 123b and the second imaging element. Also, the image synthesizing unit 122c generates a thumbnail image corresponding to the HDR synthesized image. The first image processing unit 122a and the second image processing unit 122b generate captured images before synthesis, moving images, and thumbnail images corresponding to these images.

なお、第1の画像処理部122a及び第2の画像処理部122bは、高解像度の画像信号を低解像度の画像信号に変換し、画像合成部122cが低解像度のHDR合成画像を生成してもよい。そして、ステップS216に移行する。 Note that even if the first image processing unit 122a and the second image processing unit 122b convert a high-resolution image signal into a low-resolution image signal, and the image synthesizing unit 122c generates a low-resolution HDR synthesized image, good. Then, the process proceeds to step S216.

ステップS216では、実施の形態1におけるステップS115と同様の処理が実施される。すなわち、ステップS215で生成されたHDR合成画像、合成前の撮像画像、動画像、サムネイル画像等がストレージ部110に記憶される。 In step S216, the same processing as in step S115 in the first embodiment is performed. That is, the storage unit 110 stores the HDR synthesized image, the captured image before synthesis, the moving image, the thumbnail image, and the like generated in step S215.

[動体撮像モード]
図16は、本発明の実施の形態2に係るHDR合成処理を模式的に示す図である。撮像ステップS30のステップS202において、主制御部101は、動きベクトルが第3の動き閾値以上であると判定した場合には、被写体の動きが大きいものと判断し、動体撮像モードに切り替える。動体撮像モードに切り替わると、ステップS203に移行する。
[Moving object imaging mode]
FIG. 16 is a diagram schematically showing HDR synthesis processing according to Embodiment 2 of the present invention. If the main control unit 101 determines in step S202 of the imaging step S30 that the motion vector is greater than or equal to the third motion threshold, it determines that the motion of the subject is large, and switches to the moving object imaging mode. After switching to the moving object imaging mode, the process proceeds to step S203.

ステップS203では、光量センサ165で測定された光量に基づいて、撮像モードが切り替えられる。具体的には、光量センサ165は、撮像装置200周辺の光量を測定し、測定した光量に関する情報を光量情報として主制御部101に出力する。主制御部101は、入力された光量情報に基づいて、測定された光量を第1の光量閾値及び第1の光量閾値よりも大きい第2の光量閾値と比較する。詳しくは、主制御部101は、ストレージ部110に記憶された第1の光量閾値及び第2の光量閾値をメモリ104に読み出し、光量を第1の光量閾値及び第2の光量閾値と比較する。第1の光量閾値及び第2の光量閾値は、例えば実験等により適宜設定される。 In step S<b>203 , the imaging mode is switched based on the amount of light measured by the light amount sensor 165 . Specifically, the light amount sensor 165 measures the amount of light around the imaging device 200 and outputs information about the measured amount of light to the main control unit 101 as light amount information. The main control unit 101 compares the measured light intensity with a first light intensity threshold and a second light intensity threshold larger than the first light intensity threshold based on the input light intensity information. Specifically, the main control unit 101 reads the first light intensity threshold and the second light intensity threshold stored in the storage unit 110 into the memory 104, and compares the light intensity with the first light intensity threshold and the second light intensity threshold. The first light amount threshold and the second light amount threshold are appropriately set by, for example, experiments.

<高光量動体撮像モード>
主制御部101が、光量は第2の光量閾値を超えていると判定した場合には、ステップS224に移行する。すなわち、主制御部101は、光量が高いと判断し、高光量動体撮像モードに切り替える。
<High light intensity moving object imaging mode>
When the main control unit 101 determines that the light amount exceeds the second light amount threshold, the process proceeds to step S224. That is, the main control unit 101 determines that the amount of light is high, and switches to the high-light amount moving object imaging mode.

ステップS224では、主制御部101は、第1の映像入力部123及び第2の映像入力部224に対し、露光量を異ならせて被写体を同時に撮像させる。このとき、主制御部101は、第1の撮像素子123b及び第2の撮像素子224bの解像度を高解像度である第1の解像度に設定する。 In step S224, the main control unit 101 causes the first image input unit 123 and the second image input unit 224 to simultaneously image the subject with different exposure amounts. At this time, the main control unit 101 sets the resolutions of the first imaging element 123b and the second imaging element 224b to the first high resolution.

例えば、第1の撮像素子123b又は第2の撮像素子224bの解像度が低解像度に設定されていれば、主制御部101は、該当する撮像素子の解像度を変換させる解像度変換情報を解像度変換部228に出力する。解像度変換部228は、入力された解像度変換情報に基づいて、該当する撮像素子の解像度を低解像度から高解像度に変換する。 For example, if the resolution of the first image pickup device 123b or the second image pickup device 224b is set to a low resolution, the main control unit 101 sends resolution conversion information for converting the resolution of the corresponding image pickup device to the resolution conversion unit 228. output to The resolution conversion unit 228 converts the resolution of the corresponding image sensor from low resolution to high resolution based on the input resolution conversion information.

このように撮像素子の解像度が設定されると、第1の映像入力部123は、露光量LA0で被写体を撮像し、例えば図16に示すような高解像度の撮像画像についての電気信号(A0)を生成する。第2の映像入力部124は、LA0より少ない露光量LB0で被写体を撮像し(LA0>LB0)、例えば図16に示すような高解像度の撮像画像についての電気信号(B0)を生成する。 When the resolution of the image pickup device is set in this way, the first image input unit 123 picks up an image of the subject with an exposure amount of L A0 , and for example, an electric signal (A0 ). The second video input unit 124 captures an image of the subject with an exposure amount L B0 less than L A0 (L A0 >L B0 ), and outputs an electrical signal (B0) for a high-resolution captured image as shown in FIG. 16, for example. Generate.

第1の撮像素子123bは、露光量LA0の電気信号(A0)を第1の画像処理部122aに出力する。第2の撮像素子124bは、露光量LB0の電気信号(B0)を第2の画像処理部122bに出力する。そして、HDR合成画像生成ステップS40に移行する。 The first imaging element 123b outputs an electric signal (A0) of the exposure amount L A0 to the first image processing section 122a. The second imaging element 124b outputs an electric signal (B0) of the exposure amount L B0 to the second image processing section 122b. Then, the process proceeds to HDR composite image generation step S40.

HDR合成画像生成ステップS40では、ステップS225が実施される。ステップS225では、ステップS224で生成された複数の画像信号(A0、B0)に基づいて、画像合成部122cが、例えば図16に示す、高解像度のHDR合成画像(A0+B0)を生成する。また、画像合成部122cは、HDR合成画像に対応するサムネイル画像を生成する。第1の画像処理部122a、第2の画像処理部122bは、合成前の撮像画像、動画像、これらの画像に対応するサムネイル画像を生成する。 In the HDR composite image generation step S40, step S225 is performed. In step S225, based on the plurality of image signals (A0, B0) generated in step S224, the image composition unit 122c generates a high-resolution HDR composite image (A0+B0) shown in FIG. 16, for example. Also, the image synthesizing unit 122c generates a thumbnail image corresponding to the HDR synthesized image. The first image processing unit 122a and the second image processing unit 122b generate captured images before synthesis, moving images, and thumbnail images corresponding to these images.

なお、第1の画像処理部122a及び第2の画像処理部122bは、高解像度の画像信号を低解像度の画像信号に変換し、画像合成部122cが低解像度のHDR合成画像を生成してもよい。そして、ステップS237に移行する。 Note that even if the first image processing unit 122a and the second image processing unit 122b convert a high-resolution image signal into a low-resolution image signal, and the image synthesizing unit 122c generates a low-resolution HDR synthesized image, good. Then, the process proceeds to step S237.

ステップS237では、実施の形態1におけるステップS126と同様の処理が実施される。すなわち、ステップS225で生成されたHDR合成画像、合成前の撮像画像、動画像、サムネイル画像等がストレージ部110に記憶される。そして、ステップS204に移行する。ステップS204については後述する。 In step S237, the same processing as step S126 in the first embodiment is performed. That is, the storage unit 110 stores the HDR composite image generated in step S<b>225 , the captured image before composite, the moving image, the thumbnail image, and the like. Then, the process proceeds to step S204. Step S204 will be described later.

<中光量動体撮像モード>
図17は、本発明の実施の形態2に係るHDR合成処理を模式的に示す図である。主制御部101が、光量は第1の光量閾値以上、第2の光量閾値以下であると判定した場合には、ステップS234に移行する。すなわち、主制御部101は、光量が高光量動体撮像モード時よりも少ないと判断し、中光量動体撮像モードに切り替える。
<Medium light amount moving object imaging mode>
FIG. 17 is a diagram schematically showing HDR synthesis processing according to Embodiment 2 of the present invention. When the main control unit 101 determines that the light amount is equal to or greater than the first light amount threshold and equal to or less than the second light amount threshold, the process proceeds to step S234. That is, the main control unit 101 determines that the amount of light is less than in the high light amount moving object imaging mode, and switches to the medium light amount moving object imaging mode.

ステップS234では、主制御部101は、第1の映像入力部123及び第2の映像入力部224に対し、露光量を異ならせて被写体を同時に撮像させる。このとき、主制御部101は、解像度変換部228に対し、第1の撮像素子123bの解像度を第1の解像度に変換させ、第2の撮像素子224bの解像度を第2の解像度に変換させる。 In step S234, the main control unit 101 causes the first image input unit 123 and the second image input unit 224 to simultaneously image the subject with different exposure amounts. At this time, the main control unit 101 causes the resolution conversion unit 228 to convert the resolution of the first image sensor 123b into the first resolution and convert the resolution of the second image sensor 224b into the second resolution.

例えば、第1の撮像素子123bの解像度が低解像度に設定されていれば、主制御部101は、第1の撮像素子123bの解像度を変換させる解像度変換情報を解像度変換部228に出力する。解像度変換部228は、入力された解像度変換情報に基づいて、第1の撮像素子123bの解像度を低解像度から高解像度に変換する。また、第2の撮像素子224bの解像度が高解像度に設定されていれば、主制御部101は、第2の撮像素子224bの解像度を変換させる解像度変換情報を解像度変換部228に出力する。解像度変換部228は、入力された解像度変換情報に基づいて、第2の撮像素子224bの解像度を高解像度から低解像度に変換する。 For example, if the resolution of the first imaging device 123b is set to a low resolution, the main control unit 101 outputs resolution conversion information for converting the resolution of the first imaging device 123b to the resolution conversion unit 228. The resolution conversion unit 228 converts the resolution of the first imaging element 123b from low resolution to high resolution based on the input resolution conversion information. Also, if the resolution of the second imaging element 224b is set to a high resolution, the main control section 101 outputs resolution conversion information for converting the resolution of the second imaging element 224b to the resolution conversion section 228 . The resolution conversion unit 228 converts the resolution of the second imaging element 224b from high resolution to low resolution based on the input resolution conversion information.

このように撮像素子の解像度が設定されると、第1の映像入力部123は、露光量LA0で被写体を撮像し、例えば図17(A)、(B)に示すような高解像度の撮像画像についての電気信号(A0)を生成する。第2の映像入力部124は、LA0より少ない露光量Lb0で被写体を撮像し(LA0>Lb0)、例えば図17(A)、(B)に示すような低解像度の撮像画像についての電気信号(b0)を生成する。なお、第2の映像入力部224の解像度は、第1の映像入力部123よりも小さいので、HDR合成画像におけるダイナミックレンジを拡大させるための露光量を適切に設定することができる。 When the resolution of the image pickup device is set in this way, the first image input unit 123 picks up an image of the subject with an exposure amount of L A0 , for example, as shown in FIGS. 17A and 17B. Generate an electrical signal (A0) for the image. The second video input unit 124 captures an image of the subject with an exposure amount L b0 that is less than L A0 (L A0 >L b0 ), and for low-resolution captured images such as those shown in FIGS. to generate an electric signal (b0) of . Since the resolution of the second video input unit 224 is lower than that of the first video input unit 123, it is possible to appropriately set the exposure amount for expanding the dynamic range in the HDR composite image.

第1の撮像素子123bは、露光量LA0の電気信号(A0)を第1の画像処理部122aに出力する。第2の撮像素子124bは、露光量Lb0の電気信号(b0)を第2の画像処理部122bに出力する。そして、HDR合成画像生成ステップS40に移行する。 The first imaging element 123b outputs an electric signal (A0) of the exposure amount L A0 to the first image processing section 122a. The second image sensor 124b outputs an electrical signal (b0) of the exposure amount Lb0 to the second image processing section 122b. Then, the process proceeds to HDR composite image generation step S40.

HDR合成画像生成ステップS40では、まず、ステップS235が実施される。ステップS235では、例えば、実施の形態1におけるステップS124と同様の処理が実施される。すなわち、ステップS235では、ステップS234で生成された電気信号の解像度が変換される。具体的には、第1の画像処理部122aは、高解像度の電気信号(A0)に対して解像度変換を実施し、例えば図17(B)に示す、低解像度の電気信号(A0d)を生成する。第2の画像処理部122bは、低解像度の電気信号(b0)に対して解像度変換を実施し、例えば図17(A)に示す、高解像度の電気信号(b0u)を生成する。そして、ステップS236に移行する。 In HDR composite image generation step S40, step S235 is first performed. In step S235, for example, the same process as in step S124 in the first embodiment is performed. That is, in step S235, the resolution of the electrical signal generated in step S234 is converted. Specifically, the first image processing unit 122a performs resolution conversion on the high-resolution electrical signal (A0) to generate a low-resolution electrical signal (A0d) shown in FIG. 17B, for example. do. The second image processing unit 122b performs resolution conversion on the low-resolution electrical signal (b0) to generate a high-resolution electrical signal (b0u) shown in FIG. 17A, for example. Then, the process proceeds to step S236.

ステップS236では、画像合成部122cは、ステップS235で生成された複数の電気信号(A0、b0、A0d、b0u)に基づいて、例えば図17(A)に示す、高解像度のHDR合成画像(A0+b0u)、例えば図17(B)に示す、低解像度のHDR合成画像(A0d+b0)を生成する。また、画像合成部122cは、HDR合成画像に対応するサムネイル画像を生成する。第1の画像処理部122a、第2の画像処理部122bは、合成前の撮像画像、動画像、これらの画像に対応するサムネイル画像を生成する。そして、ステップS237に移行する。 In step S236, the image synthesizing unit 122c generates a high-resolution HDR synthetic image (A0+b0u ), for example, to generate a low-resolution HDR composite image (A0d+b0) shown in FIG. 17B. Also, the image synthesizing unit 122c generates a thumbnail image corresponding to the HDR synthesized image. The first image processing unit 122a and the second image processing unit 122b generate captured images before synthesis, moving images, and thumbnail images corresponding to these images. Then, the process proceeds to step S237.

ステップS237では、ステップS236で生成されたHDR合成画像、合成前の撮像画像、動画像、サムネイル画像等がストレージ部110に記憶される。そして、ステップS204に移行する。ステップS204については後述する。 In step S<b>237 , the HDR composite image generated in step S<b>236 , the captured image before composite, the moving image, the thumbnail image, and the like are stored in the storage unit 110 . Then, the process proceeds to step S204. Step S204 will be described later.

<低光量動体撮像モード>
図18は、本発明の実施の形態2に係るHDR合成処理を模式的に示す図である。主制御部101が、光量は第1の光量閾値未満であると判定した場合には、ステップS244に移行する。すなわち、主制御部101は、中光量撮像モード時よりも光量が低いと判断し、低光量動体撮像モードに切り替える。
<Low-light moving object imaging mode>
FIG. 18 is a diagram schematically showing HDR synthesis processing according to Embodiment 2 of the present invention. When the main control unit 101 determines that the light amount is less than the first light amount threshold, the process proceeds to step S244. That is, the main control unit 101 determines that the amount of light is lower than that in the middle light amount imaging mode, and switches to the low light amount moving object imaging mode.

ステップS224では、主制御部101は、第1の映像入力部123及び第2の映像入力部224に対し、露光量を異ならせて被写体を同時に撮像させる。このとき、主制御部101は、解像度変換部228に対し、第1の撮像素子123b及び第2の撮像素子224bの解像度を低解像度である第2の解像度に変換させる。 In step S224, the main control unit 101 causes the first image input unit 123 and the second image input unit 224 to simultaneously image the subject with different exposure amounts. At this time, the main control unit 101 causes the resolution conversion unit 228 to convert the resolutions of the first imaging device 123b and the second imaging device 224b to a second resolution, which is a low resolution.

例えば、第1の撮像素子123b又は第2の撮像素子224bの解像度が高解像度に設定されていれば、主制御部101は、該当する撮像素子の解像度を変換させる解像度変換情報を解像度変換部228に出力する。解像度変換部228は、入力された解像度変換情報に基づいて、該当する撮像素子の解像度を高解像度から低解像度に変換する。 For example, if the resolution of the first image pickup device 123b or the second image pickup device 224b is set to high resolution, the main control unit 101 sends resolution conversion information for converting the resolution of the corresponding image pickup device to the resolution conversion unit 228. output to The resolution conversion unit 228 converts the resolution of the corresponding image sensor from high resolution to low resolution based on the input resolution conversion information.

このように撮像素子の解像度が設定されると、第1の映像入力部123は、露光量La0で被写体を撮像し、例えば図18に示す、低解像度の撮像画像についての電気信号(a0)を生成する。第2の映像入力部124は、La0より少ない露光量Lb0で被写体を撮像し、例えば図18に示す、低解像度の撮像画像についての電気信号(b0)を生成する。なお、第1の映像入力部123及び第2の映像入力部224の解像度は、低解像度に設定されているので、HDR合成画像におけるダイナミックレンジを拡大させるための露光量を適切に設定することができる。 When the resolution of the image pickup device is set in this way, the first image input unit 123 picks up an image of the subject with an exposure amount L a0 , and for example, the electric signal (a0) for the low-resolution picked-up image shown in FIG. to generate The second video input unit 124 captures an image of the subject with an exposure amount Lb0 less than La0 , and generates an electrical signal (b0) for the low-resolution captured image shown in FIG. 18, for example. Since the resolutions of the first video input unit 123 and the second video input unit 224 are set to low resolution, it is possible to appropriately set the exposure amount for expanding the dynamic range in the HDR composite image. can.

第1の撮像素子123bは、露光量La0の電気信号(a0)を第1の画像処理部122aに出力する。第2の撮像素子124bは、露光量Lb0の電気信号(b0)を第2の画像処理部122bに出力する。そして、HDR合成画像生成ステップS40に移行する。 The first imaging element 123b outputs an electric signal (a0) of the exposure amount La0 to the first image processing section 122a. The second image sensor 124b outputs an electrical signal (b0) of the exposure amount Lb0 to the second image processing section 122b. Then, the process proceeds to HDR composite image generation step S40.

HDR合成画像生成ステップS40では、ステップS225が実施される。ステップS225では、ステップS224で生成された複数の画像信号(a0、b0)に基づいて、画像合成部122cが、例えば図18に示す、低解像度のHDR合成画像(a0+b0)を生成する。また、画像合成部122cは、HDR合成画像に対応するサムネイル画像を生成する。第1の画像処理部122a、第2の画像処理部122bは、合成前の撮像画像、動画像、これらの画像に対応するサムネイル画像を生成する。そして、ステップS237に移行する。 In the HDR composite image generation step S40, step S225 is performed. In step S225, based on the plurality of image signals (a0, b0) generated in step S224, the image composition unit 122c generates a low-resolution HDR composite image (a0+b0) shown in FIG. 18, for example. Also, the image synthesizing unit 122c generates a thumbnail image corresponding to the HDR synthesized image. The first image processing unit 122a and the second image processing unit 122b generate captured images before synthesis, moving images, and thumbnail images corresponding to these images. Then, the process proceeds to step S237.

ステップS237では、ステップS225で生成されたHDR合成画像、合成前の撮像画像、動画像、サムネイル画像等がストレージ部110に記憶される。 In step S<b>237 , the HDR composite image generated in step S<b>225 , the captured image before composite, the moving image, the thumbnail image, and the like are stored in storage unit 110 .

なお、第1の画像処理部122a及び第2の画像処理部122bは、低解像度の画像信号を高解像度の画像信号に変換し、画像合成部122cが高解像度のHDR合成画像を生成してもよい。そして、ステップS204に移行する。 Note that even if the first image processing unit 122a and the second image processing unit 122b convert a low-resolution image signal into a high-resolution image signal, and the image synthesizing unit 122c generates a high-resolution HDR synthesized image, good. Then, the process proceeds to step S204.

ステップS204では、実施の形態1におけるステップS104と同様の処理が実施され、表示部121に表示させる画像等が選択される。そして、ステップS205に移行する。 In step S204, the same processing as in step S104 in Embodiment 1 is performed, and an image or the like to be displayed on display unit 121 is selected. Then, the process proceeds to step S205.

ステップS205では、実施の形態1におけるステップS105同様の処理が実施され、ステップS204においてユーザーが選択した画像が、表示部121に表示される。 In step S205, the same process as step S105 in Embodiment 1 is performed, and the image selected by the user in step S204 is displayed on display unit 121. FIG.

本実施の形態によれば、光量を測定する光量センサ165を備え、主制御部101は、動きベクトル及び光量に基づいて、映像入力部220に対し露光量を異ならせて被写体を複数回撮像させる。 According to this embodiment, the light amount sensor 165 for measuring the light amount is provided, and the main control unit 101 causes the image input unit 220 to image the subject a plurality of times with different exposure amounts based on the motion vector and the light amount. .

この構成によれば、被写体の動き、周辺の光量に応じた、より適切な撮像モードを選択することができるので、撮像環境に対応させた高品質なHDR合成画像が生成される。 According to this configuration, a more appropriate imaging mode can be selected according to the movement of the subject and the amount of light in the surroundings, so a high-quality HDR composite image corresponding to the imaging environment is generated.

また、本実施の形態によれば、主制御部101は、動きベクトルを第3の動き閾値と比較し、動き情報が第3の動き閾値未満であると判定した場合には、静止画撮像モードに切り替え、第1の映像入力部123に対し、露光量を異ならせて被写体を連続して撮像させ、映像信号処理部122に対し、第1の解像度のHDR合成画像を生成させる。 Further, according to the present embodiment, the main control unit 101 compares the motion vector with the third motion threshold, and when it is determined that the motion information is less than the third motion threshold, the still image capturing mode is selected. , the first image input unit 123 is caused to continuously image the subject with different exposure amounts, and the image signal processing unit 122 is caused to generate an HDR composite image of the first resolution.

この構成によれば、被写体がほとんど動かないので、時間差をおいて被写体を撮像しても、被写体の動きによるノイズの発生を抑えることができる。これにより、第1の映像入力部123のみを使用して、撮像環境に対応させた高品質なHDR合成画像が生成される。また、これにより、第2の映像入力部224を動画撮像等に使用することが可能となり、使い勝手のよい撮像装置200が提供される。 According to this configuration, since the subject hardly moves, even if the subject is imaged with a time difference, it is possible to suppress the occurrence of noise due to the movement of the subject. As a result, using only the first video input unit 123, a high-quality HDR composite image corresponding to the imaging environment is generated. Further, this makes it possible to use the second image input unit 224 for capturing a moving image, etc., and thus provides the image capturing apparatus 200 that is easy to use.

また、本実施の形態によれば、主制御部101は、動きベクトルが第3の動き閾値以上、光量が第2の光量閾値を超えていると判定した場合には、高光量動体撮像モードに切り替え、第1の映像入力部123及び第2の映像入力部224に対し、露光量を異ならせて被写体を同時に撮像させ、映像信号処理部122に対し、高解像度のHDR合成画像を生成させる。 Further, according to the present embodiment, when the main control unit 101 determines that the motion vector is equal to or greater than the third motion threshold and the light amount exceeds the second light amount threshold, the main control unit 101 switches to the high light amount moving object imaging mode. By switching, the first video input unit 123 and the second video input unit 224 are caused to simultaneously image the subject with different exposure amounts, and the video signal processing unit 122 is caused to generate a high-resolution HDR composite image.

この構成によれば、被写体の動きによるノイズの発生を抑えることができるので、被写体の動きが大きくて、高品質な高解像度のHDR合成画像(A0+B0)が生成される。 With this configuration, it is possible to suppress the occurrence of noise due to the movement of the subject, so that a high-quality, high-resolution HDR composite image (A0+B0) is generated in which the movement of the subject is large.

また、本実施の形態によれば、主制御部101は、動きベクトルが第3の動き閾値以上、光量が第1の光量閾値以上、第2の光量閾値以下であると判定した場合には、中光量動体撮像モードに切り替え、解像度変換部228に対し、第2の撮像素子224の解像度を第2の解像度に変換させ、第1の映像入力部123及び第2の映像入力部224に対し、露光量を異ならせて被写体を同時に撮像させる。そして、主制御部101は、第1の映像入力部123で生成された画像信号の解像度を第2の解像度に変換し、第2の映像入力部224で生成された画像信号の解像度を第1の解像度に変換し、映像信号処理部122に対し、第1の解像度のHDR合成画像及び第2の解像度のHDR合成画像を生成させる。 Further, according to the present embodiment, when the main control unit 101 determines that the motion vector is greater than or equal to the third motion threshold and the light intensity is greater than or equal to the first light intensity threshold and less than or equal to the second light intensity threshold, Switching to the medium light amount moving object imaging mode, causing the resolution conversion unit 228 to convert the resolution of the second imaging element 224 to the second resolution, and for the first image input unit 123 and the second image input unit 224, To photograph subjects at the same time by varying the amount of exposure. Then, the main control unit 101 converts the resolution of the image signal generated by the first video input unit 123 into the second resolution, and converts the resolution of the image signal generated by the second video input unit 224 into the first resolution. and causes the video signal processing unit 122 to generate an HDR composite image of the first resolution and an HDR composite image of the second resolution.

この構成によれば、第2の撮像素子224bの解像度が低解像度に変換されることにより、解像度変換後の画素の面積が増大するので、それぞれの画素の感度が向上する。これにより、第2の映像入力部224による撮像時間(露出時間)が短縮されるので、光量が少ない状況であっても、被写体の動きによるノイズの発生が抑えられ、撮像環境に対応させた高品質なHDR合成画像(A0+b0u、A0d+b0)が生成される。 According to this configuration, the resolution of the second image sensor 224b is converted to a low resolution, and the area of the pixels after resolution conversion is increased, so the sensitivity of each pixel is improved. As a result, the imaging time (exposure time) of the second image input unit 224 is shortened, so even in situations where the amount of light is low, the occurrence of noise due to the movement of the subject can be suppressed, and the high-definition image corresponding to the imaging environment can be obtained. A quality HDR composite image (A0+b0u, A0d+b0) is generated.

また、この構成によれば、解像度の異なる複数のHDR合成画像が生成されるので、ユーザーの用途に適したHDR画像が提供され、使い勝手のよい撮像装置200が提供される。 In addition, according to this configuration, a plurality of HDR composite images having different resolutions are generated, so an HDR image suitable for the user's application is provided, and the user-friendly imaging device 200 is provided.

また、本実施の形態によれば、主制御部101は、動きベクトルが第3の動き閾値以上、光量が第1の光量閾値未満であると判定した場合には、低光量動体撮像モードに切り替え、解像度変換部228に対し、第1の撮像素子123b及び第2の撮像素子224bの解像度を第2の解像度に変換させ、第1の映像入力部123及び第2の映像入力部224に対し、露光量を異ならせて被写体を同時に撮像させ、映像信号処理部122に対し、第2の解像度のHDR合成画像を生成させる。 Further, according to the present embodiment, when the main control unit 101 determines that the motion vector is equal to or greater than the third motion threshold and the light amount is less than the first light amount threshold, the main control unit 101 switches to the low light amount moving object imaging mode. , causing the resolution conversion unit 228 to convert the resolutions of the first image pickup device 123b and the second image pickup device 224b to the second resolution, and for the first image input unit 123 and the second image input unit 224, The subjects are simultaneously imaged with different exposure amounts, and the video signal processing unit 122 is caused to generate an HDR composite image of the second resolution.

この構成によれば、第1の撮像素子123b及び第2の撮像素子224bでは、解像度が低解像度に変換されることにより、解像度変換後の画素の面積が増大するので、それぞれの画素の感度が向上する。これにより、第1の映像入力部123及び第2の映像入力部224の双方の撮像時間が短縮されるので、光量がさらに少ない状況であっても、被写体の動きによるノイズの発生が抑えられ、撮像環境に対応させた高品質なHDR合成画像(a0+b0)が生成される。 According to this configuration, in the first imaging element 123b and the second imaging element 224b, the resolution is converted to a lower resolution, and the area of the pixels after the resolution conversion increases, so the sensitivity of each pixel increases. improves. As a result, the imaging time of both the first video input unit 123 and the second video input unit 224 is shortened, so even in a situation where the amount of light is even lower, the occurrence of noise due to the movement of the subject can be suppressed. A high-quality HDR composite image (a0+b0) corresponding to the imaging environment is generated.

また、本実施の形態によれば、主制御部101は、解像度変換部228に対し、複数の画素をグループ化させることにより、第1の撮像素子123b及び第2の撮像素子224bの解像度を、高解像度から低解像度に変換させ、解像度変換部228に対し、複数の画素のグループ化を解除させることにより、第1の撮像素子123b及び第2の撮像素子224bの解像度を、低解像度から高解像度に変換させる。 Further, according to the present embodiment, the main control unit 101 causes the resolution conversion unit 228 to group a plurality of pixels so that the resolutions of the first imaging element 123b and the second imaging element 224b are changed to The resolution of the first imaging element 123b and the second imaging element 224b is changed from the low resolution to the high resolution by converting the high resolution to the low resolution and causing the resolution conversion unit 228 to cancel the grouping of the plurality of pixels. convert to

この構成によれば、それぞれの解像度ごとの撮像素子を用意しなくてもよいので、撮像装置が小型化される。また、これにより、撮像装置の製造コストの増大を抑えられる。 According to this configuration, it is not necessary to prepare an imaging device for each resolution, so the imaging device can be downsized. In addition, this can suppress an increase in the manufacturing cost of the imaging device.

(その他の実施の形態)
ここまで説明した実施の形態1、2では、主制御部101は、第1の撮像素子123b又は第2の撮像素子124b(224b)で生成された画像信号に基づいて被写体の動き情報(例えば動きベクトル)を検出する。ただし、これ以外にも、例えば、映像入力部120の焦点距離に基づいて被写体の動き情報を検出してもよい。具体的には、映像入力部120の焦点距離が短い場合には手振れの影響は小さく、焦点距離が長い場合には手振れの影響が大きくなる。すなわち、主制御部101は、焦点距離が短いと、被写体の動きが小さいという動き情報を検出し、焦点距離が長いと、被写体の動きが大きいという動き情報を検出する。そこで、主制御部101は、映像入力部120の焦点距離を、第1の焦点距離閾値、第1の焦点距離閾値より大きい第2の焦点距離閾値と比較する。そして、主制御部101は、映像入力部120の焦点距離が、第1の焦点距離閾値未満であると判定した場合には、静止画撮像モードに切り替える。また、主制御部101は、映像入力部120の焦点距離が、第1の焦点距離閾値以上、第2の焦点距離以下であると判定した場合には、微動撮像モードに切り替える。また、主制御部101は、映像入力部120の焦点距離が、第2の焦点距離閾値を超えると判定した場合には、動体撮像モードに切り替える。このように、映像入力部120の焦点距離に基づいて撮像モードを切り替えても、上述した効果が得られる。
(Other embodiments)
In Embodiments 1 and 2 described so far, the main control unit 101 controls the motion information (for example, motion vector). However, in addition to this, for example, motion information of the subject may be detected based on the focal length of the image input unit 120 . Specifically, when the focal length of the image input unit 120 is short, the effect of camera shake is small, and when the focal length is long, the effect of camera shake is large. That is, when the focal length is short, the main control unit 101 detects motion information indicating that the motion of the subject is small, and detects motion information indicating that the motion of the subject is large when the focal length is long. Therefore, the main control unit 101 compares the focal length of the image input unit 120 with a first focal length threshold and a second focal length threshold larger than the first focal length threshold. When the main control unit 101 determines that the focal length of the image input unit 120 is less than the first focal length threshold value, the main control unit 101 switches to the still image capturing mode. Further, when the main control unit 101 determines that the focal length of the image input unit 120 is equal to or greater than the first focal length threshold value and equal to or less than the second focal length threshold, the main control unit 101 switches to the fine motion imaging mode. Further, when the main control unit 101 determines that the focal length of the image input unit 120 exceeds the second focal length threshold value, the main control unit 101 switches to the moving object imaging mode. Thus, even if the imaging mode is switched based on the focal length of the video input unit 120, the above-described effects can be obtained.

さらに、実施の形態1、2では、第1の映像入力部123、第2の映像入力部124(224)の2台のカメラで被写体を撮像し、HDR合成画像を生成する場合について説明したが、たとえば、3台以上のカメラを用いて被写体を撮像し、HDR合成画像を生成してもよい。 Furthermore, in Embodiments 1 and 2, the case where two cameras, the first video input unit 123 and the second video input unit 124 (224), capture an image of a subject and generate an HDR composite image has been described. For example, three or more cameras may be used to image the subject and generate an HDR composite image.

以上、本発明の実施の形態について説明したが、言うまでもなく、本発明の技術を実現する構成は、これらの実施の形態に限定されるものではない。また、文中や図中に現れる数値等は、あくまでも一例であり、異なるものを用いても本発明の効果を損なうことはない。 Although the embodiments of the present invention have been described above, it goes without saying that the configuration for realizing the technology of the present invention is not limited to these embodiments. Numerical values appearing in the text and drawings are merely examples, and the effect of the present invention is not impaired even if different values are used.

上述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現されてもよいし、マイクロプロセッサユニット等のコンピュータがそれぞれの機能等を実現するプログラムを解釈して実行することによりソフトウェアで実現されてもよいし、ハードウェアとソフトウェアとが併用されて実現されてもよい。 Some or all of the functions of the present invention described above may be realized by hardware, for example, by designing an integrated circuit, or a computer such as a microprocessor unit may implement a program for realizing each function. It may be realized by software by interpreting and executing, or may be realized by using both hardware and software.

また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Also, the control lines and information lines shown in the drawings are those considered necessary for explanation, and do not necessarily show all the control lines and information lines on the product. In practice, it may be considered that almost all configurations are interconnected.

100…撮像装置、101…主制御部、104a…基本動作実行部、104b…カメラ機能実行部、110a…基本動作プログラム記憶領域、110b…カメラ機能プログラム記憶領域、120…映像入力部、123…第1の映像入力部、123b…第1の撮像素子、124…第2の映像入力部、124b…第2の撮像素子、165…光度センサ、224…第2の映像入力部、224b…第2の撮像素子、228…解像度変換部
DESCRIPTION OF SYMBOLS 100... Imaging apparatus 101... Main control part 104a... Basic operation execution part 104b... Camera function execution part 110a... Basic operation program storage area 110b... Camera function program storage area 120... Video input part 123... 3rd 1 image input unit 123b... first image sensor 124... second image input unit 124b... second image sensor 165... light intensity sensor 224... second image input unit 224b... second image sensor image sensor, 228... resolution converter

Claims (7)

被写体を撮像し、前記被写体の画像信号を生成する映像入力部と、
前記画像信号に基づいて前記被写体の撮像画像を生成する映像信号処理部と、
前記映像入力部に対し露光量を異ならせて前記被写体を複数回撮像させ、前記映像信号処理部に対し、露光量が異なる複数の前記撮像画像に基づいて前記被写体のHDR合成画像を生成させる制御部と、
を備え、
前記映像入力部は、第1解像度の画像信号を生成する第1の映像入力部と、前記第1の映像入力部とは異なる第2解像度の画像信号を生成する第2の映像入力部と、を備え、
前記制御部は、
前記第1の映像入力部に対し、露光量を異ならせて前記被写体を連続して撮像させ、前記映像信号処理部に対し、前記第1の映像入力部で生成された前記画像信号に基づいて前記第1解像度の撮像画像を生成させ、前記1解像度の撮像画像を用いて前記HDR合成画像を生成させる、第1の撮像モードと
記第1の映像入力部及び前記第2の映像入力部に対し、露光量を異ならせて前記被写体を同時に撮像させ、前記映像信号処理部に対し、前記第1の映像入力部で生成された前記第1解像度の画像信号から前記第1解像度の撮像画像を生成させ、前記第2の映像入力部で生成された前記第2解像度の画像信号から前記第2解像度の撮像画像を生成させ、さらに、前記第2解像度の撮像画像を前記第1解像度に変換させるか、または、前記第1解像度の撮像画像を前記第2解像度に変換させ、前記第1解像度の撮像画像と前記第1解像度に変換させた撮像画像とを用いて前記HDR合成画像を生成させるか、または、前記第2解像度に変換させた撮像画像と前記第2解像度の撮像画像とを用いて前記HDR合成画像を生成させる、第2の撮像モードと、
を備える、
撮像装置。
a video input unit that captures an image of a subject and generates an image signal of the subject;
a video signal processing unit that generates a captured image of the subject based on the image signal;
Control for causing the image input unit to image the subject a plurality of times with different exposure amounts, and for causing the image signal processing unit to generate an HDR composite image of the subject based on the plurality of captured images with different exposure amounts. Department and
with
The video input unit includes a first video input unit that generates an image signal with a first resolution ; a second video input unit that generates an image signal with a second resolution different from the first video input unit; with
The control unit
The subject is continuously imaged with different exposure amounts for the first video input unit , and the video signal processing unit is processed based on the image signal generated by the first video input unit. a first imaging mode for generating the captured image of the first resolution using the captured image of the first resolution , and generating the HDR composite image using the captured image of the first resolution ;
The first image input unit and the second image input unit are caused to simultaneously image the subject with different exposure amounts , and the image signal processing unit is generated by the first image input unit. generate a captured image of the first resolution from the image signal of the first resolution generated by the second video input unit; generate a captured image of the second resolution from the image signal of the second resolution generated by the second video input unit; Further, converting the captured image of the second resolution to the first resolution, or converting the captured image of the first resolution to the second resolution, and converting the captured image of the first resolution and the first resolution. or generate the HDR composite image using the captured image converted to the second resolution and the captured image at the second resolution. , a second imaging mode;
comprising
Imaging device.
請求項1に記載の撮像装置において、
前記制御部は、
前記画像信号に基づいて前記被写体の動き情報を検出し、
前記動き情報を動き閾値と比較し、
前記動き情報が前記動き閾値未満であると判定した場合は前記第1の撮像モードに、
前記動き情報が前記動き閾値以上であると判定した場合は前記第2の撮像モードに、
制御を切り替える、撮像装置。
The imaging device according to claim 1,
The control unit
detecting motion information of the subject based on the image signal;
comparing the motion information to a motion threshold;
When it is determined that the motion information is less than the motion threshold, the first imaging mode,
When it is determined that the motion information is equal to or greater than the motion threshold, the second imaging mode is selected,
An imaging device that switches control.
請求項1に記載の撮像装置において、
前記第1の映像入力部が有する第1の撮像素子の解像度と、前記第2の映像入力部が有する第2の撮像素子の解像度とは異なる、撮像装置。
The imaging device according to claim 1,
An image pickup device, wherein the resolution of a first image pickup element of the first image input section is different from the resolution of a second image pickup element of the second image input section.
請求項3に記載の撮像装置において、
前記第2の撮像素子の解像度は前記第1の撮像素子の解像度より低い、撮像装置。
In the imaging device according to claim 3,
The imaging device, wherein the resolution of the second imaging element is lower than the resolution of the first imaging element.
請求項1に記載の撮像装置において、
前記HDR合成画像を表示する表示部を備え、
前記制御部は、
前記HDR合成画像の解像度に基づいて異なるサイズで前記表示部に前記HDR合成画像を表示する、撮像装置。
The imaging device according to claim 1,
A display unit that displays the HDR composite image,
The control unit
An imaging device that displays the HDR composite image on the display unit in different sizes based on the resolution of the HDR composite image.
被写体を撮像し、前記被写体の画像信号を生成する映像入力部と、
前記画像信号に基づいて前記被写体の撮像画像を生成する映像信号処理部と、
前記映像入力部に対し露光量を異ならせて前記被写体を複数回撮像させ、前記映像信号処理部に対し、露光量が異なる複数の前記撮像画像に基づいて前記被写体のHDR合成画像を生成させる制御部と、
を備え、
前記映像入力部は、第1解像度の撮像素子を有する第1の映像入力部と、前記第1解像度とは異なる第2解像度の撮像素子を有する第2の映像入力部と、を備え、
前記制御部は、
前記第1の映像入力部に対し、露光量を異ならせて前記被写体を連続して撮像させ、前記映像信号処理部に対し、前記第1の映像入力部で生成された前記画像信号に基づいて前記第1解像度の撮像画像を生成させ、前記1解像度の撮像画像を用いて前記HDR合成画像を生成させる、第1の撮像モードと
記映像信号処理部に対し、前記第1の映像入力部で生成された前記画像信号に基づいて前記第1解像度の撮像画像を生成させ、前記第1解像度の撮像画像を前記第2解像度に変換させ、前記2解像度に変換させた撮像画像と、前記第2の映像入力部で生成された前記画像信号に基づいて生成させた前記2解像度の撮像画像と、を用いて前記HDR合成画像を生成させる、第3の撮像モードと、
を備える、
撮像装置。
a video input unit that captures an image of a subject and generates an image signal of the subject;
a video signal processing unit that generates a captured image of the subject based on the image signal;
Control for causing the image input unit to image the subject a plurality of times with different exposure amounts, and for causing the image signal processing unit to generate an HDR composite image of the subject based on the plurality of captured images with different exposure amounts. Department and
with
The image input unit includes a first image input unit having an image sensor with a first resolution and a second image input unit having an image sensor with a second resolution different from the first resolution ,
The control unit
The subject is continuously imaged with different exposure amounts for the first video input unit , and the video signal processing unit is processed based on the image signal generated by the first video input unit. a first imaging mode for generating the captured image of the first resolution using the captured image of the first resolution , and generating the HDR composite image using the captured image of the first resolution ;
causing the video signal processing unit to generate a captured image of the first resolution based on the image signal generated by the first video input unit, and converting the captured image of the first resolution to the second resolution ; using the captured image converted to the second resolution and the captured image of the second resolution generated based on the image signal generated by the second video input unit; a third imaging mode to generate the HDR composite image;
comprising
Imaging device.
請求項に記載の撮像装置において、
前記HDR合成画像を表示する表示部を備え、
前記制御部は、
前記HDR合成画像の解像度に基づいて異なるサイズで前記表示部に前記HDR合成画像を表示する、撮像装置。
In the imaging device according to claim 6 ,
A display unit that displays the HDR composite image,
The control unit
An imaging device that displays the HDR composite image on the display unit in different sizes based on the resolution of the HDR composite image.
JP2020184969A 2020-11-05 2020-11-05 Imaging device Active JP7231598B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020184969A JP7231598B2 (en) 2020-11-05 2020-11-05 Imaging device
JP2023022132A JP7467714B2 (en) 2020-11-05 2023-02-16 Imaging device
JP2024060289A JP2024086776A (en) 2020-11-05 2024-04-03 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020184969A JP7231598B2 (en) 2020-11-05 2020-11-05 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018524710A Division JP6791962B2 (en) 2016-07-01 2016-07-01 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023022132A Division JP7467714B2 (en) 2020-11-05 2023-02-16 Imaging device

Publications (2)

Publication Number Publication Date
JP2021029050A JP2021029050A (en) 2021-02-25
JP7231598B2 true JP7231598B2 (en) 2023-03-01

Family

ID=74667102

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020184969A Active JP7231598B2 (en) 2020-11-05 2020-11-05 Imaging device
JP2023022132A Active JP7467714B2 (en) 2020-11-05 2023-02-16 Imaging device
JP2024060289A Pending JP2024086776A (en) 2020-11-05 2024-04-03 Imaging device

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023022132A Active JP7467714B2 (en) 2020-11-05 2023-02-16 Imaging device
JP2024060289A Pending JP2024086776A (en) 2020-11-05 2024-04-03 Imaging device

Country Status (1)

Country Link
JP (3) JP7231598B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002290822A (en) 2001-03-23 2002-10-04 Minolta Co Ltd Imaging device and image reproduction system
JP2010072092A (en) 2008-09-16 2010-04-02 Sanyo Electric Co Ltd Image display device and imaging device
JP2010512719A (en) 2006-12-12 2010-04-22 ドルビー ラボラトリーズ ライセンシング コーポレイション High dynamic range camera with multiple sensors and image generation method
JP2010219940A (en) 2009-03-17 2010-09-30 Fujifilm Corp Imaging device and imaging method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002305684A (en) * 2001-01-31 2002-10-18 Olympus Optical Co Ltd Imaging system and program
JP4821626B2 (en) * 2007-01-23 2011-11-24 株式会社ニコン Image processing apparatus, electronic camera, and image processing program
US7729602B2 (en) * 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
JP4905187B2 (en) * 2007-03-09 2012-03-28 ソニー株式会社 Image processing apparatus, imaging apparatus, image processing method, and computer program
JP2010157863A (en) * 2008-12-26 2010-07-15 Fujifilm Corp Compound-eye camera and image processing method
JP5409577B2 (en) * 2010-10-05 2014-02-05 株式会社ソニー・コンピュータエンタテインメント Panorama image generation apparatus and panorama image generation method
JP6118118B2 (en) * 2013-01-25 2017-04-19 キヤノン株式会社 Imaging apparatus and control method thereof
JP2015008343A (en) * 2013-06-24 2015-01-15 コニカミノルタ株式会社 Imaging device and method for forming captured image
JP2015142342A (en) * 2014-01-30 2015-08-03 オリンパス株式会社 Imaging apparatus, image generation method and image generation program
JP2015185917A (en) * 2014-03-20 2015-10-22 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002290822A (en) 2001-03-23 2002-10-04 Minolta Co Ltd Imaging device and image reproduction system
JP2010512719A (en) 2006-12-12 2010-04-22 ドルビー ラボラトリーズ ライセンシング コーポレイション High dynamic range camera with multiple sensors and image generation method
JP2010072092A (en) 2008-09-16 2010-04-02 Sanyo Electric Co Ltd Image display device and imaging device
JP2010219940A (en) 2009-03-17 2010-09-30 Fujifilm Corp Imaging device and imaging method

Also Published As

Publication number Publication date
JP7467714B2 (en) 2024-04-15
JP2024086776A (en) 2024-06-28
JP2023065474A (en) 2023-05-12
JP2021029050A (en) 2021-02-25

Similar Documents

Publication Publication Date Title
JP6791962B2 (en) Imaging device
JP6803982B2 (en) Optical imaging method and equipment
JP4742242B2 (en) Imaging apparatus and program thereof
US12126910B2 (en) Electronic device including image sensor and operating method thereof
US11032483B2 (en) Imaging apparatus, imaging method, and program
JP2017168982A (en) Imaging apparatus, and control method and program for imaging apparatus
US11810275B2 (en) Temporal filtering restart for improved scene integrity
KR20240001131A (en) Image alignment for computational photography
WO2016154873A1 (en) Terminal device and photographing method
WO2020158070A1 (en) Imaging device, imaging method, and program
US20090153681A1 (en) Digital photographing apparatus and method of controlling the same
CN115379110B (en) Image processing device
CN110463184B (en) Image processing apparatus, image processing method, and non-volatile tangible medium
JP7231598B2 (en) Imaging device
WO2019193889A1 (en) Image alignment assist device, method, and program, and imaging device
WO2025231646A1 (en) Phase detection pixel classification and filtering for phase detection-based autofocus
JP2023051391A (en) Imaging device, imaging control method, and imaging control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150