WO2018194045A1 - 撮像装置、撮像装置の制御方法および処理装置 - Google Patents
撮像装置、撮像装置の制御方法および処理装置 Download PDFInfo
- Publication number
- WO2018194045A1 WO2018194045A1 PCT/JP2018/015802 JP2018015802W WO2018194045A1 WO 2018194045 A1 WO2018194045 A1 WO 2018194045A1 JP 2018015802 W JP2018015802 W JP 2018015802W WO 2018194045 A1 WO2018194045 A1 WO 2018194045A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- subject
- distance
- light emission
- lens
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/02—Illuminating scene
- G03B15/03—Combinations of cameras with lighting apparatus; Flash units
- G03B15/05—Combinations of cameras with electronic flash apparatus; Electronic flash units
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/18—Signals indicating condition of a camera member or suitability of light
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/16—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly in accordance with both the intensity of the flash source and the distance of the flash source from the object, e.g. in accordance with the "guide number" of the flash bulb and the focusing of the camera
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/28—Circuitry to measure or to take account of the object contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/663—Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2215/00—Special procedures for taking photographs; Apparatus therefor
- G03B2215/05—Combinations of cameras with electronic flash units
- G03B2215/0514—Separate unit
- G03B2215/0517—Housing
- G03B2215/0521—Housing movable housing, e.g. bounce-light
Definitions
- the present technology relates to an imaging apparatus, an imaging apparatus control method, and a processing apparatus, and more particularly, to an imaging apparatus that performs dimming of main light emission based on a result of pre-light emission.
- Patent Document 1 describes a strobe photographing device that controls a main light emission amount using a photometric value by pre-light emission and distance information from a distance measuring unit.
- bounce shooting in which a strobe light is not directly applied to a subject, but is emitted toward a ceiling or a wall surface and the reflected light is applied to the subject.
- the optical path is longer than the distance indicated by the distance information.
- the main light emission amount is controlled based on the estimated subject distance by the pre-light emission without using the distance information.
- the subject estimation distance due to this pre-flash is greatly affected by the reflectance of the subject. For example, when the reflectance of the subject is very high, the estimated subject distance due to the pre-flash may be shorter than the distance indicated by the distance information from the distance measuring unit even during bounce shooting.
- the main light emission amount is controlled only by the estimated subject distance by the pre-light emission, underexposure may occur.
- the purpose of this technology is to increase the dimming accuracy of the main light emission.
- the concept of this technology is In the case of bounce flash, based on the pre-flash subject estimated distance obtained by the pre-flash process or information corresponding to the pre-flash subject estimated distance and the lens focus subject estimated distance obtained from the focus information via the lens
- the image pickup apparatus includes a control unit that adjusts the main light emission amount.
- the pre-emission subject estimation distance or information corresponding to the pre-emission subject estimation distance is obtained by the pre-emission process.
- a lens focus subject estimated distance is obtained from focus information via the lens. Then, the main light emission amount is adjusted based on the pre-emission subject estimation distance or information corresponding to the pre-emission subject estimation distance and the lens focus subject estimation distance.
- the lens error information on the near side may be reflected in the estimated lens focus subject distance.
- the control unit may adjust the main light emission amount in the case of bounce light emission without using the lens focus subject estimation distance when the pre-light emission subject estimation distance is longer than the lens focus subject estimation distance. Good. Further, for example, the control unit obtains the main light emission adjustment subject estimation distance based on the pre-light emission subject estimation distance or information corresponding to the light emission subject estimation distance and the lens focus subject estimation distance, and based on the light adjustment subject estimation distance. The main light emission amount may be adjusted.
- the control unit sets the distance close to the lens focus subject estimation distance by a predetermined amount from the pre-flash subject estimation distance as the final subject estimation distance. May be.
- the control unit may set the lens focus subject estimated distance as the main light emission adjustment subject estimated distance.
- the control unit estimates a distance that is longer than the pre-flash subject estimation distance by the predetermined amount as a main flash adjustment subject estimation. The distance may be used.
- control unit may acquire information on the estimated focus distance of the lens reflecting the lens error information on the near side from the lens device. Further, for example, the control unit may acquire the lens error information on the near side from the lens apparatus, and obtain information on the estimated focus distance of the lens reflecting the lens error information on the near side.
- a holding unit that holds near-side lens error information is further provided, and the control unit acquires the near-side lens error information from the holding unit, and the lens focus subject in which the near-side lens error information is reflected. Information on the estimated distance may be obtained.
- a communication unit for acquiring near-side lens error information from an external server and holding it in the holding unit may be further provided.
- a user operation unit for inputting near-side lens error information and holding it in the holding unit may be further provided.
- the main light emission amount is adjusted based on the pre-light emission subject estimated distance or information corresponding to the pre-light emission subject estimation distance and the lens focus subject estimation distance. For this reason, it is possible to improve the light control accuracy of the main light emission when the bounce light emission is performed.
- the control unit is based on the pre-lighted subject estimated distance and the lens focus subject estimated distance when the light emitting unit is fixed to the housing of the imaging device.
- the main light emission amount may be adjusted.
- control unit may correct the pre-light emission subject estimated distance based on the direction information of the light emitting unit.
- the pre-light emission subject estimated distance can be obtained more appropriately, and the light adjustment accuracy of the main light emission in the case of bounce can be further increased.
- the control unit may obtain the correction amount of the pre-light-emitting subject estimated distance based on the light emission attenuation rate according to the direction information of the light-emitting unit.
- the control unit may acquire information on the light emission attenuation rate corresponding to the direction information of the light emitting unit from the light emitting unit.
- a holding unit that holds the light emission attenuation rate according to the direction information of the light emitting unit is further provided, and the control unit acquires information on the light emission attenuation rate according to the direction information of the light emitting unit from the holding unit. , May be.
- the processing for obtaining the pre-emission subject estimated distance obtained by the pre-emission processing and the focus information through the lens, and the near-side subject estimation distance and the far-side lens error information reflecting the near-side lens error information are obtained.
- a control unit is provided for controlling processing for adjusting the main light emission amount based on the far-side subject estimated distance.
- the pre-flash subject estimated distance is obtained by the pre-flash processing. From the focus information via the lens, the near-side subject estimated distance reflecting the near-side lens error information and the near-side subject estimated distance reflecting the far-side lens error information are obtained. Based on the direction information of the light emitting unit, the pre-lighted subject estimated distance is corrected. Then, the main light emission amount is adjusted based on the corrected pre-light emission subject estimation distance, near-side subject estimation distance, and far-side subject estimation distance.
- control unit may be configured to obtain a correction amount for the pre-light-emitting subject estimated distance based on a light emission attenuation rate corresponding to the direction information of the light-emitting unit.
- the control unit may acquire information on the light emission attenuation rate according to the direction information of the light emitting unit from the light emitting unit.
- a holding unit that holds a light emission attenuation rate according to the direction information of the light emitting unit is further provided, and the control unit acquires information on the light emission attenuation rate according to the direction information of the light emitting unit from the holding unit. You may be like.
- the pre-emission subject estimated distance is corrected and used in accordance with the direction information of the light emitting unit, and the pre-emission subject estimated distance can be obtained more appropriately, and the light control accuracy of the main emission is increased. Can be increased.
- the light control accuracy of the main light emission can be increased. Note that the effects described in the present specification are merely examples and are not limited, and may have additional effects.
- FIG. 1 shows a configuration example of an imaging system 10 as an embodiment.
- the imaging system 10 includes an imaging device 100 and an interchangeable lens 200.
- the imaging system 10 is realized by, for example, a digital still camera (for example, a digital single-lens camera) capable of exchanging lenses.
- the imaging device 100 is an imaging device that captures an image of a subject, generates image data (captured image), and records the generated image data as image content (still image content or moving image content). Moreover, the imaging device 100 can attach the interchangeable lens 200 via a lens mount (not shown).
- the interchangeable lens 200 is an interchangeable lens unit that is attached to the imaging apparatus 100 via a lens mount (not shown).
- the interchangeable lens 200 includes a lens unit 211, a diaphragm 212, an interchangeable lens control unit 220, and a communication unit 221.
- the imaging apparatus 100 includes a bus 101, a shutter 111, a shutter control unit 112, an imaging element 113, an imaging control unit 114, an operation unit 121, an operation control unit 122, a display unit 131, and a display control unit 132. With. Further, the imaging apparatus 100 includes a memory 141, a memory control unit 142, a ROM (Read Only Memory) 151, and a RAM (Random Access Memory) 152.
- ROM Read Only Memory
- RAM Random Access Memory
- the imaging apparatus 100 includes a CPU (Central Processing Unit) 153 and a communication interface 154.
- the imaging apparatus 100 includes a communication unit 161, a photometry unit 162, a distance measurement unit 163, an external strobe 171, a light emission control unit 172, and a connection unit 173.
- the bus 101 is a system bus. Each unit constituting the imaging apparatus 100 is connected to be communicable with each other via the bus 101.
- the lens unit 211 is a lens group that collects incident light from the subject, and the light collected by these lens groups is incident on the image sensor 113.
- the lens unit 211 includes a focus lens for focusing, a zoom lens for enlarging a subject, and the like.
- each lens constituting the lens unit 211 is controlled by the interchangeable lens control unit 220 to realize a zoom function, a focus function, and the like.
- the communication unit 221 communicates with the communication unit 161 of the imaging device 100.
- the communication unit 221 receives request information from the imaging apparatus 100 side and sends the request information to the interchangeable lens control unit 220.
- the interchangeable lens control unit 220 controls the lens unit 211 and the diaphragm 212 based on the drive request included in the request information. Also, state information indicating the position of each lens of the lens unit 211 and the state of the diaphragm 212 sent from the communication unit 221 and the interchangeable lens control unit 220 is transmitted to the imaging apparatus 100 side.
- the diaphragm 212 adjusts the amount of incident light that passes through the lens unit 211.
- the light adjusted by the diaphragm 212 is incident on the image sensor 113.
- the diaphragm 212 is controlled by the interchangeable lens control unit 220.
- the shutter 111 physically blocks light incident on the image sensor 113 based on the control of the shutter control unit 112. That is, the shutter 111 adjusts the amount of light by passing or blocking light incident on the image sensor 113.
- the shutter control unit 112 controls the shutter 111 based on the control of the CPU 153.
- the imaging element 113 Based on the control of the imaging control unit 114, the imaging element 113 electrically generates an optical image (subject image) of a subject formed on the light receiving surface by light incident through the lens unit 211 and the diaphragm 212 for each pixel.
- the signal is converted into a signal and an image signal (image data) for one screen is output.
- the image signal output from the image sensor 113 is subjected to various image processing via the bus 101.
- AF Auto Focus
- AE Automatic Exposure
- AWB Automatic White Balance
- the image sensor 113 for example, a CCD (Charge-Coupled Device) sensor, a CMOS (Complementary Metal-Oxide Semiconductor) sensor, or the like can be used.
- CCD Charge-Coupled Device
- CMOS Complementary Metal-Oxide Semiconductor
- the imaging control unit 114 controls imaging processing and output processing by the imaging element 113 based on the control of the CPU 153. Specifically, the imaging control unit 114 outputs a timing signal for performing imaging control (for example, a driving timing signal required when the imaging element 113 accumulates and reads out image signals for each screen). The generated timing signal is supplied to the image sensor 113. When various timing signals are supplied to the image sensor 113, the image sensor 113 uses the timing signals as timing signals for imaging processing and image signal output processing.
- a timing signal for performing imaging control for example, a driving timing signal required when the imaging element 113 accumulates and reads out image signals for each screen.
- the generated timing signal is supplied to the image sensor 113.
- the image sensor 113 uses the timing signals as timing signals for imaging processing and image signal output processing.
- the operation unit 121 includes operation members such as buttons for performing various operations, and receives operation inputs from the user.
- the operation control unit 122 performs control related to operation input accepted by the operation unit 121 based on the control of the CPU 153.
- the content of the operation input received by the operation unit 121 is sent to the CPU 153 via the operation control unit 122.
- the operation unit 121 is an interface for reflecting a request from the user to the imaging apparatus 100.
- a touch panel may be provided on the display unit 131 so that an operation input from the user is received on the touch panel.
- the display unit 131 displays images corresponding to various image data supplied from the display control unit 132.
- the display control unit 132 displays various image data on the display unit 131 based on the control of the CPU 153.
- the display unit 131 provides information accompanying the image to be displayed along with the image. For example, the display unit 131 sequentially displays image data (captured images) output from the image sensor 113 and subjected to various image processes.
- the display unit 131 displays an image corresponding to the image file stored in the memory 141, for example.
- a display panel such as an organic EL (Electro Luminescence) panel or an LCD (Liquid Crystal Display) can be used.
- a touch panel that allows the user to perform operation input by touching or approaching the finger with the display surface may be used.
- the memory 141 is a non-volatile storage device that records image data and the like based on the control of the memory control unit 142.
- the memory control unit 142 performs memory control such as reading of data from the memory 141 and writing of data to the memory 141 based on the control of the CPU 170.
- Image data output from the image sensor 113 and subjected to various types of image processing is recorded in the memory 141 as an image file (still image file or moving image file).
- the memory 141 may be detachable from the imaging apparatus 100, or may be fixed or built in the imaging apparatus 100. Further, as the memory 141, for example, other storage media such as a semiconductor memory, a magnetic disk, and an optical disk can be used.
- the ROM 151 is a non-volatile memory that stores programs executed by the CPU 153, software, data, and the like.
- the RAM 152 is a volatile memory that holds data that should be temporarily stored and rewritable data when the CPU 153 operates.
- the CPU 153 controls each unit of the imaging apparatus 100 based on programs, software, and the like stored in the ROM 151. That is, the CPU 153 comprehensively controls components that can communicate via the bus 101 by executing programs, software, and the like.
- the communication interface (communication I / F) 154 communicates with an external device such as a personal computer connected with a digital interface or an external server connected with a network to transmit or receive information.
- an external device such as a personal computer connected with a digital interface or an external server connected with a network to transmit or receive information.
- the image file recorded in the memory 141 can be sent to the server on the network and stored by the communication interface 154.
- an update program for the CPU 153 to control the imaging apparatus 100 or other necessary information can be obtained by accessing a server on the network.
- the photometry unit 162 receives a part of the light incident through the lens unit 211 and the diaphragm 212, generates a photometry signal related to the brightness on the subject side, that is, the subject brightness, and sends it to the CPU 152.
- the photometry unit 162 is configured by, for example, a photometry sensor in which a light receiving unit is divided into a plurality of photometry areas. An optical image of the subject is divided into a plurality of photometric areas, and photometric values are obtained individually in each photometric area.
- the distance measuring unit 163 calculates a subject estimated distance indicating a distance from the imaging device 100 to the subject based on focus lens position information (focus information) sent from the interchangeable lens 200 through communication, and sends the calculated subject distance to the CPU 151. Note that when the information on the estimated subject distance is sent from the interchangeable lens 200 through communication, it is not necessary to calculate the estimated subject distance in the distance measuring unit 163.
- the distance measuring unit 163 may be configured not only to obtain the subject distance by calculation based on focus lens position information (focus information) but also to obtain subject distance information using an ultrasonic wave, a laser, or the like.
- External strobe 171 constitutes an external light emitting unit.
- the external strobe 171 is mounted using, for example, a connect unit 173 provided on the upper portion of the housing of the imaging apparatus 100, and is provided so as to irradiate a subject with strobe light.
- the external strobe 171 is a discharge device such as a xenon lamp, and can emit strong light for a moment and irradiate a subject with strong flash light. In the illustrated example, the built-in strobe is omitted.
- the external strobe 171 is configured so that the irradiation direction can be varied, and direct or bounce can be selectively performed as irradiation with respect to the imaging target.
- 2A shows a state of direct irradiation (direct light emission) with a bounce angle ⁇ b of 0 degrees
- FIG. 2B shows a state of bounce irradiation (bounce light emission) with a bounce angle ⁇ b of 0 degrees. Yes.
- the light emission control unit 172 controls the light emission amount and the light emission timing of the external strobe 171 based on the control of the CPU 153.
- pre-emission preliminary emission
- the emission amount of the main emission is appropriately adjusted based on the result.
- FIG. 3 and 4 show an example of control processing at the time of shooting in the CPU 153.
- the CPU 153 starts control processing when the power is turned on in step ST1.
- step ST2 the CPU 153 performs power-on processing and initial setting.
- the CPU 153 acquires operation information in step ST3.
- the CPU 153 acquires operation information such as an exposure mode, an exposure correction value, a preview, and AF / MF switching.
- the CPU 153 acquires lens information such as an aperture and a focal length.
- step ST5 the CPU 153 determines whether or not the external strobe 171 is attached. When attached, the CPU 153 acquires the state of the external strobe 171 in step ST6.
- the state of the external strobe 171 includes information such as light emission on / off and bounce.
- step ST7 the CPU 153 determines whether or not the external strobe 171 is in a bounce state.
- the CPU 153 determines whether or not it is in a bounce state based on the bounce information acquired from the external strobe 171 in step ST6. Note that a process of determining whether or not the external strobe 171 is directed toward the subject may be performed, and if it is determined that the external strobe is not suitable as a result, the bounce state may be determined.
- the CPU 153 sets a bounce flag in step ST8.
- the CPU 153 proceeds to the process in step ST9.
- the external strobe 171 is not attached at step ST5 or when it is not in the bounce state at step ST7, the process immediately proceeds to step ST9.
- step ST9 The CPU 153 displays a live view on the display unit 131 and calculates a photographing exposure control value.
- the CPU 153 determines whether to emit light. For example, if non-light emission is set, it is determined that no light is emitted. In addition, for example, it is set to automatic light emission, and if the subject brightness is sufficient by the photometry signal, it is determined that the light is not emitted.
- the CPU 153 When determining to emit light, the CPU 153 sets a light emission flag in step ST11, and then proceeds to processing in step ST12. On the other hand, when determining that no light is emitted, the CPU 153 immediately moves to the process of step ST12 without setting the light emission flag.
- step ST12 the CPU 153 displays a live view and sets and controls shooting gain.
- step ST13 the CPU 153 sets and controls the shutter speed (SS). Further, the CPU 153 performs aperture value setting and control in step ST14.
- step ST15 the CPU 153 determines whether or not the S1 is on, that is, whether the shutter button is half-pressed. When the S1 is not on, the CPU 153 returns to the process of step ST3. On the other hand, when the S1 is on, the CPU 153 performs autofocus control in step ST16.
- step ST17 the CPU 153 acquires autofocus information.
- This autofocus information includes in-focus / out-of-focus information, information on the estimated subject distance generated based on the focus information, and the like.
- the information on the estimated subject distance is directly supplied from the lens device 200 to the imaging device 200 or calculated by the distance measuring unit 163 based on the focus information supplied from the lens device 200 to the imaging device 100.
- the near subject estimation distance including the near error and the far subject including the far error are included.
- Information on the estimated distance or near side and far side error information is supplied.
- the near-side subject estimated distance and far-side error are included based on this and subject-estimated distance information.
- Information on the far-side subject estimated distance is calculated and used.
- step ST18 the CPU 153 determines whether or not the S2 is on, that is, whether or not the shutter button is in the deep pressed state.
- the CPU 153 returns to the process of step ST3.
- the CPU 153 proceeds to the process of step ST19.
- step ST19 the CPU 153 determines whether or not the light emission flag is set.
- the CPU 153 performs light emission photographing processing in step ST20, and then records the image data on the medium in step ST21.
- the CPU 153 performs non-light emission photographing processing in step ST22, and then records the image data on the medium in step ST21.
- the medium is the memory 141 (see FIG. 1).
- step ST23 the CPU 153 determines whether or not there is a power-off operation. When there is no power-off operation, the CPU 153 returns to the process of step ST3. On the other hand, when there is a power-off operation, the CPU 153 performs a power-off process in step ST24, and thereafter ends the control process in step ST25.
- step ST31 the CPU 153 starts control processing.
- step ST32 the CPU 153 executes a pre-dimming sequence control process, in step ST33, a main light emission amount calculation control process, and in step ST34, a main flash imaging sequence control process.
- step ST34 a main flash imaging sequence control process.
- the flowchart of FIG. 6 shows an example of control processing of the pre-dimming sequence in the CPU 153.
- the CPU 153 starts control processing in step ST40.
- the CPU 153 sets a pre-emission control value in step ST41.
- the CPU 153 calculates the pre-emission amount from, for example, ISO sensitivity, distance information, and aperture information using a strobe proper guide number calculation formula represented by the following formula (1).
- step ST42 the CPU 153 transmits the pre-emission amount from the light emission control unit 172 to the external strobe 171, performs pre-emission light emission in step ST43, and acquires a photometric value from the photometry unit 162 in step ST44.
- the photometric unit 162 is configured by a photometric sensor in which the light receiving unit is divided into a plurality of photometric areas, and an optical image related to the subject is divided into a plurality of photometric areas, and photometry is individually performed in each photometric area. A value is obtained.
- m ⁇ n photometric values lvl_pre_0 to lvl_pre_ (m * n ⁇ 1) are obtained.
- each of 0 to m * n ⁇ 1 indicates a photometric area number.
- the CPU 153 acquires the photometric value from the photometric unit 162 in step ST46 without emitting the pre-emission in step ST45.
- m ⁇ n photometric values lvl_nonpre_0 to lvl_nonpre_ (m * n ⁇ 1) are obtained.
- step 47 the CPU 153 calculates the pre-dimension evaluation value level_eva_pre by subtracting the photometry value at the time of non-light emission from the photometry value at the time of light emission for each photometry area and weighting and adding them.
- the following formula (2) shows a calculation formula for the pre-dimming evaluation value level_eva_pre. ak indicates a weighting coefficient of the kth area.
- FIG. 7B shows a weighting coefficient a0 corresponding to each photometry area when the photometry unit 162 has 54 photometry areas indicated by area numbers 0 to 53 as shown in FIG. 7A. This indicates that a53 are set in advance.
- FIG. 7C shows a specific example of the weighting coefficients a0 to a53.
- step ST48 the CPU 153 calculates a subject estimated distance dv_main due to pre-emission.
- the pre-emission amount is iv_pre
- the aperture at the time of pre-emission is av_pre
- the sensitivity (gain control) at the time of pre-emission is sv_pre
- the appropriate distance dv_pre by the following equation (3) Find (Apex).
- dv_pre iv_pre-av_pre + sv_pre (3)
- dv_pre dv_pre-log2 (level_eva_pre / level_target) (4)
- FIG. 8A shows a live view.
- FIG. 8B shows an exposure state at the pre-non-light emission timing
- FIG. 8C shows a detection value (photometric value) of each photometry area in the exposure state.
- FIG. 8D shows the exposure state at the pre-flash timing
- FIG. 8E shows the detection value (photometric value) of each photometric area in the exposure state
- FIG. 8F shows the detection state
- a difference value is obtained by subtracting the photometric value of the non-pre-light emission timing from the photometric value of the pre-light emission timing for each photometry area.
- FIG. 8H shows the weighting coefficient ak of each photometric area
- FIG. 8I shows the value obtained by multiplying the difference value of each photometric area by the corresponding weighting coefficient ak. Therefore, in this specific example, the pre-emission evaluation value level_eva_pre is calculated as 14, as shown in Equation (5).
- the pre-emission evaluation value level_eva_pre is calculated as 14, and the target level level_target is 40, for example.
- the target level is the target exposure value, and the main light emission amount is determined so as to be the exposure value.
- Pre-flash evaluation value: level_eva_pre level_eva_pre 14
- Target level: level_target level_target 40
- the subject estimated distance dv_main is calculated as 1.515, as shown in Equation (7).
- 2 ⁇ (1.515 / 2) 1.69
- dv_main 1.515 corresponds to 1.69 m.
- pre-emission evaluation value level_eva_pre is 0, that is, when there is no reflection of pre-emission, it is determined that the subject is at a very far position, and dv_main is set to a predetermined value with a large decisive limit.
- FIG. 9 shows an example of the control process for the main light emission amount calculation in the CPU 153.
- the CPU 153 starts control processing.
- the CPU 153 determines whether the lens distance information cannot be used because the focus is indefinite or not, and if it is not the AF low contrast, information on the distance from the camera (imaging device) to the subject. As a result, dv_lensNear and dv_lensFar are acquired.
- dv_lensNear represents the near-side subject estimated distance including the near-side error in DV units.
- dv_lensFar represents the far-side subject estimated distance including far-side errors in DV units.
- DV is a unit of Apex value indicating distance, and the relationship between the distance [m] and DV is as follows.
- dv represents a numerical value
- DV represents a unit.
- the lens device 200 supplies the imaging device 100 with, for example, the subject estimated distance information dist_lensTyp [m], the near subject estimated distance information dist_lensNear [m], and the far subject estimated distance information dist_lensFar [m].
- FIG. 10 shows an example of a correspondence relationship between the actual subject distance [m] and the distance information output from the lens apparatus 200.
- the CPU 153 can obtain dv_lensNear [DV] and dv_lensFar [DV] by converting dist_lensNear [m] and dist_lensFar [m] into a DV unit system.
- the difference between dv_lensNear and dv_lensFar decreases as the accuracy of the lens and the focusing accuracy improve.
- dv_lensTyp [DV], dv_lensNear [DV], and dv_lensFar [DV], which are distance information of the DV unit system, may be supplied from the lens apparatus 200 to the imaging apparatus 100.
- dv_lensTyp [DV] is obtained by converting dist_lensTyp [m] into a DV unit system.
- the object estimated distance information dist_lensTyp [m] and the near side error information (dist_lensNear ⁇ dist_lensTyp) [m] and the far side error information (dist_lensFar ⁇ dist_lensTyp) [M] is supplied.
- the CPU 153 may obtain from the above information information on the near subject estimated distance dist_lensNear [m] including the near side error and information on the distant subject estimated distance dist_lensFar [m] including the far side error.
- dv_lensNear [DV] and dv_lensFar [DV] can be obtained by converting each into a DV unit system.
- dv_lensTyp [DV] which is DV unit system distance information
- DV unit system error information (dv_lensNear ⁇ dv_lensTyp) [DV] and (dv_lensFar ⁇ dv_lensTyp) [DV] are transmitted from the lens device 200 to the imaging device 100. It may be supplied.
- FIG. 11 shows the subject actual distance [DV] and the difference [DV] between the distance information output from the lens apparatus 200 and the actual distance, that is, (dv_lensNear ⁇ dv_lensTyp) [DV] and (dv_lensFar ⁇ dv_lensTyp) [DV].
- An example of correspondence is shown.
- dist_lensTyp [m] or dv_lensTyp [DV] which is information on the estimated object distance
- error information (dist_lensNear ⁇ dist_lensTyp) [m]
- (dv_lensNear ⁇ dv_lensTyp) [DV] is a correspondence relationship between the estimated object distance and the error stored in the holding unit, for example, the ROM 151 or the RAM 152 corresponding to the interchangeable lens 200. It is also possible to obtain from
- the correspondence between the estimated subject distance and the error corresponding to the plurality of interchangeable lenses 200 may be stored in the holding unit in advance.
- the communication interface 154 is connected to the estimated subject distance corresponding to the interchangeable lens 200 from the external server based on the lens information of the interchangeable lens 200.
- the correspondence relationship between errors may be downloaded and stored.
- the correspondence between the estimated subject distance corresponding to the interchangeable lens 200 and the error input from the operation unit 121 by the user may be stored in the holding unit in advance.
- the user since it is difficult to input errors corresponding to all the estimated subject distances, the user inputs only errors corresponding to several estimated subject distances, and the CPU 153 performs an approximation calculation using them. Then, error information corresponding to other distances may be interpolated.
- step ST ⁇ b> 53 the CPU 153 determines whether or not it is an AF low contrast. When it is AF low contrast, the CPU 153 proceeds to the process of step ST54. In this step ST54, the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount as the subject estimated distance dv_main by pre-light emission.
- step ST55 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value.
- the main light emission amount iv_main is obtained by the following equation (8), and the strobe proper guide number Gno. Is obtained by the following equation (9).
- iv_main dv_final + av_main-sv_main (8)
- Gno. 2 ⁇ ((iv_main + 5) / 2) (9)
- the main light emission amount iv_main and the strobe proper guide number Gno A specific calculation example will be described.
- the control values (aperture, sensitivity) during main light emission are assumed to be the following values, for example. This control value does not necessarily match the control value at the time of pre-emission.
- step ST55 the CPU 153 ends the control process in step ST56.
- step ST53 determines in step ST57 whether or not a bounce flag is set. When the bounce flag is not set, the CPU 153 proceeds to the process of step ST58.
- step ST58 the CPU 153 determines whether or not the subject estimated distance dv_main due to the pre-flash is within the range of the far-side subject estimated distance dv_lensFar to the near-side subject estimated distance dv_lensNear.
- the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount as the subject estimated distance dv_main by pre-emission, and in step ST55, the final subject estimated distance dv_final.
- the main light emission amount iv_main is calculated from the main light emission exposure control value. Thereafter, in step ST56, the control process is terminated.
- step ST58 When it is determined in step ST58 that it is not within the range, the CPU 153 proceeds to the process in step ST59.
- step ST59 the CPU 153 determines whether or not the subject estimated distance dv_main due to the pre-light emission is in a far range longer than dv_lensFar + 2DV.
- step ST59 when dv_mainlen> dv_lensFar + 2DV, in step ST60, the CPU 153 subtracts the final subject estimated distance dv_final by 2DV from the subject estimated distance dv_main by pre-emission, and corrects it to the light emission amount suppression side.
- FIG. 12 shows the correction state in this case.
- “ ⁇ ” indicates the estimated subject distance dv_main due to pre-emission
- ⁇ indicates the final estimated object distance dv_final.
- 2DV is an example and is not limited to this.
- step ST60 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value in step ST55. Thereafter, in step ST56, the control process is terminated.
- step ST59 the CPU 153 determines in step ST61 whether the subject estimated distance dv_main due to pre-flash is in a far range longer than dv_lensFar.
- step ST62 the CPU 153 sets the final subject estimated distance dv_final as the far subject estimated distance dv_lensFar and corrects it to the light emission amount suppression side.
- FIG. 13 shows a correction state in this case.
- “ ⁇ ” indicates the estimated subject distance dv_main due to pre-emission
- “ ⁇ ” indicates the final estimated object distance dv_final.
- 2DV is an example and is not limited to this.
- step ST62 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value in step ST55. Thereafter, in step ST56, the control process is terminated.
- step ST61 the CPU 153 determines in step ST63 whether or not the subject estimated distance dv_main due to pre-flash is in the near range of dv_lensFar ⁇ 2DV or less.
- step ST64 the CPU 153 adds the final subject estimated distance dv_final to the subject estimated distance dv_main by pre-emission by 2 DV, and corrects the emission amount to increase.
- FIG. 14 shows a correction state in this case.
- “ ⁇ ” indicates the estimated subject distance dv_main due to pre-emission
- “ ⁇ ” indicates the final estimated object distance dv_final.
- 2DV is an example and is not limited to this.
- step ST64 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value in step ST55. Thereafter, in step ST56, the control process is terminated.
- step ST63 the CPU 153 corrects the final subject estimated distance dv_final to the near subject estimated distance dv_lensNear in step ST65 so as to increase the light emission amount.
- FIG. 15 shows a correction state in this case.
- “ ⁇ ” indicates the estimated subject distance dv_main due to pre-emission
- “ ⁇ ” indicates the final estimated object distance dv_final.
- step ST65 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value in step ST55. Thereafter, in step ST56, the control process is terminated.
- step ST57 the CPU 153 proceeds to the process in step ST66.
- step ST66 the CPU 153 determines whether or not the subject estimated distance dv_main due to the pre-light emission is in a near range that is equal to or smaller than the near-side subject estimated distance dv_lensNear.
- the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount as the subject estimated distance dv_main by pre-emission in step 54, and further in step ST55, the final subject estimated distance dv_final,
- the main light emission amount iv_main is calculated from the main light emission exposure control value. Thereafter, in step ST56, the control process is terminated.
- step ST65 the CPU 153 sets the final subject estimated distance dv_final to the near subject estimated distance dv_lensNear and corrects the light emission amount increasing side (see FIG. 15).
- step ST55 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value. Thereafter, in step ST56, the control process is terminated.
- step ST57 when the bounce flag is set in step ST57, the process proceeds to step ST66, but the process may proceed to step ST63.
- FIG. 16 shows another example of the control processing for the main light emission amount calculation in the CPU 153.
- steps corresponding to those in FIG. 9 are denoted by the same reference numerals, and detailed description thereof is omitted.
- step ST57 the CPU 153 proceeds to the process in step ST71.
- step ST71 the CPU 153 determines whether or not the estimated subject distance dv_main due to the pre-flash is within the range of the estimated distance dv_lensNear from the estimated distance dv_lensFar.
- step 54 the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount as the subject estimated distance dv_main by pre-emission, and in step ST55, the final subject estimated distance dv_final. Then, the main light emission amount iv_main is calculated from the main light emission exposure control value. Thereafter, in step ST56, the control process is terminated.
- step ST71 When it is determined in step ST71 that it is not within the range, the CPU 153 proceeds to the process in step ST72.
- step ST72 the CPU 153 determines whether or not the subject estimated distance dv_main due to the pre-light emission is in a far range longer than dv_lensFarF.
- step ST73 the CPU 153 sets the final subject estimated distance dv_final as the far subject estimated distance dv_lensFar and corrects it to the light emission amount suppression side (see FIG. 13).
- the CPU 153 corrects the final subject estimated distance dv_final to the near subject estimated distance dv_lensNear in step ST74 so as to increase the light emission amount (see FIG. 15).
- step ST73 or step ST74 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value in step ST55. Thereafter, in step ST56, the control process is terminated.
- step ST57 the CPU 153 proceeds to the process in step ST75.
- step ST75 the CPU 153 determines whether or not the subject estimated distance dv_main due to the pre-light emission is in a near range that is equal to or less than the near-side subject estimated distance dv_lensNear.
- the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount as the subject estimated distance dv_main by pre-emission in step 54, and further in step ST55, the final subject estimated distance dv_final,
- the main light emission amount iv_main is calculated from the main light emission exposure control value. Thereafter, in step ST56, the control process is terminated.
- step ST74 the CPU 153 sets the final subject estimated distance dv_final as the near subject estimated distance dv_lensNear and corrects it to the light emission amount increasing side (see FIG. 15).
- step ST55 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value. Thereafter, in step ST56, the control process is terminated.
- the correction amount is not limited. However, in the main light emission amount calculation control process shown in the flowchart of FIG. 9, the correction amount is limited. Yes.
- the reason for setting the correction limitation is to consider the existence of a model with poor focusing accuracy.
- the focus accuracy is poor, and it is often "false focus" (the camera determines that it is in focus, but the subject is not actually in focus) instead of AF low contrast. .
- the degree of overexposure and underexposure can be suppressed when false focusing occurs, and it is not necessary to increase the damage to exposure.
- the correction amount is limited to 2 DV, but this limit amount should be set depending on the accuracy and focusing accuracy of the lens.
- the accuracy of the lens and the focusing accuracy often depend on the focal length at the time of shooting (in general, it is difficult to obtain the lens accuracy on the wide angle side).
- the flowchart of FIG. 17 shows an example of the control process of the main flash photographing sequence in the CPU 153.
- the CPU 153 starts control processing.
- the CPU 153 sets a pre-emission control value.
- step ST83 the CPU 153 transmits the main light emission amount from the light emission control unit 172 to the external strobe 171.
- step ST84 the shutter 111 is opened to start exposure.
- step ST85 the main light emission trigger control is performed.
- step ST86 the shutter is closed and the exposure is finished.
- step ST87 the CPU 153 performs an imaging process. After the process in step ST87, the CPU 153 ends the control process in step ST88.
- the subject estimated distance dv_main due to pre-flash is equal to or less than the near-side subject estimated distance dv_lensNear. Is within the near range, the final subject estimated distance dv_final is corrected to the light emission amount increasing side. Therefore, when the reflectance of the subject is very high, the final subject estimated distance dv_final can be brought close to an appropriate value, and the light adjustment accuracy of the main light emission can be improved.
- step ST6 to step ST8 in the flowchart of FIG. 2 described above is replaced with the process of step STST92 to step ST94 shown in the flowchart of FIG.
- step ST92 the CPU 153 obtains direct light / bounce angle information, strobe zoom information, and emission amount attenuation rate information corresponding to the strobe emission distribution angle from the external strobe 171.
- the CPU 153 can obtain the light emission amount attenuation rate information corresponding to the light distribution angle from a holding unit in the imaging apparatus 100, for example, the ROM 151 or the RAM 152, based on the bounce angle information obtained from the external strobe 171. Conceivable.
- the holding unit may previously store a correspondence relationship between the bounce angle corresponding to the plurality of external strobes 171 and the light emission amount attenuation rate.
- the communication interface 154 has a bounce angle and a light emission amount corresponding to the external strobe 171 from the external server based on information of the external strobe 171.
- the correspondence relationship of the attenuation rate may be downloaded and stored.
- the holding unit may previously store a correspondence relationship between the bounce angle and the light emission amount attenuation rate input from the operation unit 121 by the user.
- the user since it is difficult to input the light emission amount attenuation rates corresponding to all the bounce angles, the user inputs only the light emission amount attenuation factors corresponding to several bounce angles, and the CPU 153 uses them. An approximation calculation may be performed to interpolate the light emission amount attenuation rate corresponding to other bounce angles.
- step ST93 the CPU 153 calculates the attenuation factor of the direct component based on the strobe emission light distribution angle and the bounce angle.
- step ST94 the CPU 153 calculates a light emission amount correction amount (light distribution angle correction amount) according to the attenuation rate.
- the CPU 153 proceeds to the process in step ST9.
- the CPU 153 immediately moves to the process at step ST9.
- FIG. 19 shows the relationship between the optical axis of the external strobe 171 and the vertical accuracy (elevation angle) ⁇ f from the optical axis.
- FIG. 20 shows the light emission amount attenuation rate in each angle direction in which the light distribution angle ranges from 0 to 90 degrees in the vertical direction according to each strobe zoom position.
- the imaging device (camera) 100 obtains information from the stroboscopic light emitting unit.
- the imaging apparatus (camera) 100 may be held as a table in the imaging apparatus (camera) 100.
- the amount of light emitted by the camera to the strobe is the amount of light emitted at the center of the light axis of the light emitting unit.
- the amount of light emitted on the angle deviated from the light emitting optical axis can be determined by taking the light distribution angle correction amount obtained in Equation (12) above and pointing the camera to the strobe. The amount of light emitted.
- FIG. 21 shows the relationship between the optical axis of the external strobe 171, the vertical accuracy (elevation angle) ⁇ f from the optical axis, and the bounce angle ⁇ b.
- the angle area of the hatched portion indicates a strobe direct-light component, and light emission in this angle area is directly irradiated on the subject.
- the direct radiation component is obtained by applying a light distribution angle correction amount corresponding to the angle.
- FIG. 22 shows an example of the relationship between the vertical angle from the light emitting part optical axis and the light emission attenuation rate.
- a is for a focal length of 16 mm
- b is for a focal length of 35 mm
- c is for a focal length of 70 mm
- d is for a focal length of 105 mm.
- FIG. 23 shows an example of the relationship between the vertical angle from the light emitting portion optical axis and the light distribution angle correction amount (EV).
- a is for a focal length of 16 mm
- b is for a focal length of 35 mm
- c is for a focal length of 70 mm
- d is for a focal length of 105 mm.
- FIG. 24 shows an example of a control process for calculating the main light emission amount in the CPU 153. 24, parts corresponding to those in FIG. 16 are denoted by the same reference numerals, and detailed description thereof will be omitted as appropriate.
- step ST51 the CPU 153 starts control processing.
- step ST52A the CPU 153 determines whether the lens distance information cannot be used because the focus is indefinite or not, and if it is not the AF low contrast, information on the distance from the camera (imaging device) to the subject is determined. As a result, dv_lensNear and dv_lensFar are acquired.
- step ST101 the CPU 153 calculates dv_main_1 in which the light distribution angle correction amount is added to the estimated subject distance dv_main due to pre-emission according to the following formula (13).
- dv_main_1 dv_main.
- dv_main_1 dv_main-Light distribution angle correction amount (13)
- step ST53 the CPU 153 determines whether or not it is an AF low contrast. When it is AF low contrast, the CPU 153 proceeds to the process of step ST54. In step ST54, the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount as the subject estimated distance dv_main_1 by the pre-light emission.
- step ST55 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value.
- the main light emission amount iv_main is obtained by the following equation (14), and the strobe proper guide number Gno. Is obtained by the following equation (15).
- iv_main dv_final + av_main-sv_main + light distribution angle correction amount (14)
- Gno. 2 ⁇ ((iv_main + 5) / 2) (15)
- the main light emission control type is selected from the bounce angle, strobe zoom position, and shooting focal length.
- the main light emission control types include three main light emission control types: (1) dv_lensNear and dv_lensFar are used, (2) only dv_lensNear is used, and (3) dv_lensNear and dv_lensFar are not used.
- the selection of the main light emission control type will be further described.
- the direct component When bounced at an angle larger than the predetermined value determined by the stroboscopic zoom position, the direct component does not exist up to the bottom of the angle of view, and when the angle is further increased, the direct component completely deviates from the angle of view.
- the correlation between the “light emitting part-subject” distance and the amount of light emission does not hold.
- FIG. 25 shows a combination example for switching the type of the main light emission control from the relationship between each strobe zoom position and the strobe bounce angle. Even if bounced, the light distribution angle is wide, and if there is light distribution to the bottom of the shooting angle of view, the control type (1) is controlled in the same way as the control when not bounced. When it does not enter at all, the control type (3) and the control type (2) of the intermediate area are divided into three.
- FIG. 25 it is assumed that the shooting angle of view (shooting focal length) and the strobe zoom position are linked, but depending on the strobe, the strobe zoom position is fixed regardless of the shooting focal length by the menu on the strobe.
- the basic idea is that if the shooting angle of view can be covered with direct-light components, the control type (1) is completely out of the light distribution. If it is, the control type (3) may be used, and if it is neither of them, the control type (2) may be used.
- the CPU 153 determines what the main light emission amount control type is in step ST103.
- the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount to dv_main_1 in step 54, and further, in step ST55, the final subject estimated distance dv_final.
- the main light emission amount iv_main is calculated from the main light emission exposure control value. Thereafter, in step ST56, the control process is terminated.
- step ST103 the CPU 153 proceeds to the process of step ST71.
- step ST71 the CPU 153 determines whether dv_main_1 is within the range of the far-side subject estimated distance dv_lensFar to the near-side subject estimated distance dv_lensNear.
- the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount to dv_main_1 in step 54, and further, in step ST55, the final subject estimated distance dv_final and main light emission exposure control.
- the main light emission amount iv_main is calculated from the value. Thereafter, in step ST56, the control process is terminated.
- step ST71 When it is determined in step ST71 that it is not within the range, the CPU 153 proceeds to the process in step ST72.
- step ST72 the CPU 153 determines whether dv_main_1 is in a far range that is longer than dv_lensFar.
- step ST73 the CPU 153 sets the final subject estimated distance dv_final as the far subject estimated distance dv_lensFar and corrects it to the light emission amount suppression side (see FIG. 13).
- the CPU 153 corrects the final subject estimated distance dv_final to the near subject estimated distance dv_lensNear in step ST74 so as to increase the light emission amount (see FIG. 15).
- step ST73 or step ST74 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value in step ST55. Thereafter, in step ST56, the control process is terminated.
- step ST103 the CPU 153 proceeds to the process of step ST75.
- step ST75 the CPU 153 determines whether or not dv_main_1 is in a near range that is equal to or less than the near-side subject estimated distance dv_lensNear.
- the CPU 153 sets the final subject estimated distance dv_final for calculating the main light emission amount to dv_main_1 in step 54, and further, in step ST55, from the final subject estimated distance dv_final and the main light emission exposure control value.
- the main light emission amount iv_main is calculated. Thereafter, in step ST56, the control process is terminated.
- step ST74 the CPU 153 sets the final subject estimated distance dv_final as the near subject estimated distance dv_lensNear and corrects the light emission amount increasing side (see FIG. 15).
- step ST55 the CPU 153 calculates the main light emission amount iv_main from the final subject estimated distance dv_final and the main light emission exposure control value. Thereafter, in step ST56, the control process is terminated.
- the subject estimated distance dv_main due to the pre-light emission is corrected and used based on the light distribution angle correction amount obtained according to the direction of the external strobe 171, that is, the bounce angle. Therefore, the final subject estimated distance dv_final can be obtained more appropriately, and the light control accuracy of the main light emission when the light emitting unit is not directed to the subject can be improved.
- the process of correcting the final subject estimated distance dv_final to the light emission amount increasing side in the bounce state as in the above-described embodiment, a state where the external strobe 171 is not fixed to the imaging device 100 by the connecting unit 173, for example, the imaging device It is conceivable that the operation is not performed in a state where it is connected to 100 in a wired or wireless manner. In such a state, the optical path of the external strobe 171 may actually be shorter than the subject estimated distance generated based on the focus information. In this case, the final subject estimated distance dv_final is erroneously obtained, As a result, the light adjustment accuracy of the main light emission is lowered.
- the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and is also regarded as a program for causing a computer to execute the series of procedures or a recording medium storing the program. May be.
- this recording medium for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray Disc (Blu-ray Disc (registered trademark)), or the like can be used.
- this technique can also take the following structures.
- (1) In the case of bounce light emission, the pre-light emission subject estimated distance obtained by the pre-light emission processing or information corresponding to the pre-light emission subject estimation distance and the lens focus subject estimated distance obtained from the focus information via the lens
- An image pickup apparatus including a control unit that adjusts the main light emission amount based on the above.
- (2) The imaging device according to (1), wherein near lens error information is reflected in the lens focus subject estimated distance.
- the control unit adjusts the main light emission amount in the case of the bounce light emission without using the lens focus subject estimation distance when the pre-light emission subject estimation distance is longer than the lens focus subject estimation distance.
- the imaging apparatus according to 1) or (2).
- the control unit obtains a main light emission adjustment subject estimation distance based on the pre-light emission subject estimated distance or information corresponding to the pre-light emission subject estimation distance and the lens focus subject estimation distance, and the main light emission adjustment subject.
- the imaging device according to any one of (1) to (3), wherein the main light emission amount is adjusted based on an estimated distance.
- the control unit adjusts a distance close to the lens-focused subject estimated distance by a predetermined amount from the pre-light-emitting subject estimated distance.
- the imaging apparatus according to (4), wherein the subject estimation distance is used.
- the imaging device (6) The imaging device according to (5), wherein the control unit sets the estimated lens focus subject distance as the main light emission adjustment subject estimated distance. (7) When the pre-light-emitting subject estimated distance is shorter than the lens-focused subject estimated distance by a certain amount or more, the control unit sets a distance that is longer than the pre-light-emitting subject estimated distance by the predetermined amount as the main light-emission adjustment subject.
- the imaging apparatus according to (5), wherein the estimated distance is set.
- the control unit acquires information on a lens focus subject estimated distance reflecting the near-side lens error information from the lens device.
- the control unit acquires the near-side lens error information from the lens device, and obtains information on a lens focus subject estimated distance in which the near-side lens error information is reflected.
- Imaging device A holding unit that holds the lens error information on the near side is further provided, The control unit acquires the near-side lens error information from the holding unit and obtains information on a lens focus subject estimated distance in which the near-side lens error information is reflected. .
- the control unit is based on the pre-light-emitting subject estimated distance and the lens-focused subject estimated distance when the light-emitting unit is fixed to the housing of the imaging device.
- the imaging device according to any one of (1) to (12).
- the control unit obtains a correction amount of the pre-light-emitting subject estimated distance based on a light emission attenuation rate according to direction information of the light-emitting unit.
- the imaging device wherein the control unit acquires information on a light emission attenuation rate according to direction information of the light emitting unit from the light emitting unit.
- a holding unit that holds a light emission attenuation rate according to the orientation information of the light emitting unit is further provided, The said control part acquires the information of the light emission attenuation factor according to the direction information of the said light emission part from the said holding
- the pre-emission subject estimated distance obtained by the pre-emission process or information corresponding to the pre-emission subject estimation distance and the lens focus subject estimation distance obtained from the focus information via the lens A method of controlling an imaging apparatus that adjusts the amount of light emission based on the above.
- the pre-emission subject estimated distance obtained by the pre-emission process or information corresponding to the pre-emission subject estimation distance and the lens focus subject estimation distance obtained from the focus information via the lens A processing apparatus comprising a control unit that adjusts the main light emission amount based on the processing unit.
- a near-side subject estimated distance and a far-side lens which are obtained from the pre-light-emitting subject estimated distance obtained by the pre-light-emission processing, and focus information via the lens and reflect the near-side lens error information
- a process of obtaining a near-side subject estimated distance in which error information is reflected, a process of correcting the pre-light-emitting subject estimated distance based on direction information of the light emitting unit, the corrected pre-light-emitting subject estimated distance, and the near-side subject An imaging apparatus comprising: a control unit that controls processing for adjusting a main light emission amount based on the estimated distance and the far-side subject estimated distance.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Stroboscope Apparatuses (AREA)
Abstract
本発光の調光精度を高める。 プリ発光処理によって求められたプリ発光被写体推定距離またはこのプリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する。バウンス発光の場合には、プリ発光被写体推定距離がレンズピント被写体推定距離より短いときには、プリ発光被写体推定距離から所定量だけレンズピント被写体推定距離に近づけた距離を本発光調整被写体推定距離とする。
Description
本技術は、撮像装置、撮像装置の制御方法および処理装置に関し、詳しくは、プリ発光の結果に基づいて本発光の調光を行うようにした撮像装置等に関する。
例えば、特許文献1には、プリ発光による測光値と測距部からの距離情報を用いて本発光量を制御するストロボ撮影装置が記載されている。
従来、ストロボ光を直接被写体に当てるのではなく、天井や壁面等に向けて発光してそこで反射した光を被写体に当てて撮影する、いわゆるバウンス撮影が知られている。この場合、光路は、距離情報が示す距離よりも長くなる。
そこで、従来においては、バウンス撮影のときには、距離情報を用いないで、プリ発光による被写体推定距離に基づいて本発光量を制御することが行われている。しかし、このプリ発光による被写体推定距離は、被写体の反射率の高低に大きく影響される。例えば、被写体の反射率が非常に高い場合には、バウンス撮影のときであっても、プリ発光による被写体推定距離が測距部からの距離情報が示す距離よりも短いという結果が出ることがあり、プリ発光による被写体推定距離だけで本発光量を制御した場合には、露出アンダーになることもある。
本技術の目的は、本発光の調光精度を高めることにある。
本技術の概念は、
バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する制御部を備える
撮像装置(処理装置)にある。
バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する制御部を備える
撮像装置(処理装置)にある。
本技術において、プリ発光処理によってプリ発光被写体推定距離またはこのプリ発光被写体推定距離に対応する情報が求められる。レンズを介したピント情報からレンズピント被写体推定距離が求められる。そして、プリ発光被写体推定距離またはこのプリ発光被写体推定距離に対応する情報と、レンズピント被写体推定距離に基づいて、本発光量が調整される。
例えば、レンズピント被写体推定距離には近側のレンズ誤差情報が反映されている、ようにされてもよい。また、例えば、制御部は、プリ発光被写体推定距離がレンズピント被写体推定距離より遠い場合、レンズピント被写体推定距離を用いることなく、バウンス発光の場合の本発光量を調整する、ようにされてもよい。また、例えば、制御部は、プリ発光被写体推定距離またはこの発光被写体推定距離に対応する情報と、レンズピント被写体推定距離に基づいて本発光調整被写体推定距離を求め、この光調整被写体推定距離に基づいて本発光量を調整する、ようにされてもよい。
例えば、制御部は、プリ発光被写体推定距離がレンズピント被写体推定距離より短いときには、プリ発光被写体推定距離から所定量だけレンズピント被写体推定距離に近づけた距離を最終的な被写体推定距離とする、ようにされてもよい。この場合、例えば、制御部は、レンズピント被写体推定距離を本発光調整被写体推定距離とする、ようにされてもよい。また、この場合、例えば、制御部は、プリ発光被写体推定距離がレンズピント被写体推定距離より一定量以上短いとき、プリ発光被写体推定距離から上記一定量を限度に長くした距離を本発光調整被写体推定距離とする、ようにされてもよい。
例えば、制御部は、近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報をレンズ装置から取得する、ようにされてもよい。また、例えば、制御部は、近側のレンズ誤差情報をレンズ装置から取得して、近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報を得る、ようにされてもよい。
また、例えば、近側のレンズ誤差情報を保持する保持部をさらに備え、制御部は、近側のレンズ誤差情報を保持部から取得して、近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報を得る、ようにされてもよい。この場合、例えば、近側のレンズ誤差情報を外部サーバから取得して保持部に保持するための通信部をさらに備える、ようにされてもよい。また、この場合、例えば、近側のレンズ誤差情報を入力して保持部に保持するためのユーザ操作部をさらに備える、ようにされてもよい。
このように本技術においては、バウンス発光の場合には、プリ発光被写体推定距離またはこのプリ発光被写体推定距離に対応する情報と、レンズピント被写体推定距離に基づいて、本発光量が調整される。そのため、バウンス発光を行う際の本発光の調光精度を高めることが可能となる。
なお、本技術において、例えば、制御部は、バウンス発光の場合には、発光部が撮像装置の筐体に固定されている状態にあるとき、プリ発光被写体推定距離とレンズピント被写体推定距離に基づいて本発光量を調整する、ようにされてもよい。これにより、光路がピント情報に基づき生成されたレンズピント被写体推定距離よりも短くなる場合に、レンズピント被写体推定距離が用いられることで、本発光の調光精度が低下することを防止できる。
また、本技術において、例えば、制御部は、発光部の向き情報に基づいてプリ発光被写体推定距離を補正する、ようにされてもよい。これにより、プリ発光被写体推定距離をより適切に求めることができ、バウンスの場合における本発光の調光精度をより高めることができる。
この場合、例えば、制御部は、プリ発光被写体推定距離の補正量を発光部の向き情報に応じた発光減衰率に基づいて得る、ようにされてもよい。そして、この場合、例えば、制御部は、発光部の向き情報に応じた発光減衰率の情報を発光部から取得する、ようにされてもよい。また、この場合、例えば、発光部の向き情報に応じた発光減衰率を保持する保持部をさらに備え、制御部は、発光部の向き情報に応じた発光減衰率の情報を保持部から取得する、ようにされてもよい。
また、本技術の他の概念は、
プリ発光処理によって求められたプリ発光被写体推定距離を得る処理と、レンズを介したピント情報から求められ、近側のレンズ誤差情報が反映された近側被写体推定距離および遠側のレンズ誤差情報が反映された近側被写体推定距離を得る処理と、発光部の向き情報に基づいて上記プリ発光被写体推定距離を補正する処理と、上記補正されたプリ発光被写体推定距離、上記近側被写体推定距離および上記遠側被写体推定距離に基づいて、本発光量を調整する処理を制御する制御部を備える
プリ発光処理によって求められたプリ発光被写体推定距離を得る処理と、レンズを介したピント情報から求められ、近側のレンズ誤差情報が反映された近側被写体推定距離および遠側のレンズ誤差情報が反映された近側被写体推定距離を得る処理と、発光部の向き情報に基づいて上記プリ発光被写体推定距離を補正する処理と、上記補正されたプリ発光被写体推定距離、上記近側被写体推定距離および上記遠側被写体推定距離に基づいて、本発光量を調整する処理を制御する制御部を備える
本技術において、プリ発光処理によってプリ発光被写体推定距離が求められる。レンズを介したピント情報から、近側のレンズ誤差情報が反映された近側被写体推定距離および遠側のレンズ誤差情報が反映された近側被写体推定距離が求められる。発光部の向き情報に基づいて、プリ発光被写体推定距離が補正される。そして、補正されたプリ発光被写体推定距離、近側被写体推定距離および遠側被写体推定距離に基づいて、本発光量が調整される。
例えば、制御部は、プリ発光被写体推定距離の補正量を発光部の向き情報に応じた発光減衰率に基づいて得る、ようにされてもよい。この場合、例えば、制御部は、発光部の向き情報に応じた発光減衰率の情報を発光部から取得する、ようにされてもよい。また、この場合、例えば、発光部の向き情報に応じた発光減衰率を保持する保持部をさらに備え、制御部は、発光部の向き情報に応じた発光減衰率の情報をこの保持部から取得する、ようにされてもよい。
このように本技術においては、発光部の向き情報に応じてプリ発光被写体推定距離を補正して用いるものであり、プリ発光被写体推定距離をより適切に求めることができ、本発光の調光精度を高めることができる。
本技術によれば、本発光の調光精度を高めることができる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
1.実施の形態
2.変形例
<1.実施の形態>
[撮像システムの構成例]
図1は、実施の形態としての撮像システム10の構成例を示している。この撮像システム10は、撮像装置100および交換レンズ200を備える。撮像システム10は、例えば、レンズを交換することが可能なデジタルスチルカメラ(例えば、デジタル一眼カメラ)により実現される。
[撮像システムの構成例]
図1は、実施の形態としての撮像システム10の構成例を示している。この撮像システム10は、撮像装置100および交換レンズ200を備える。撮像システム10は、例えば、レンズを交換することが可能なデジタルスチルカメラ(例えば、デジタル一眼カメラ)により実現される。
撮像装置100は、被写体を撮像して画像データ(撮像画像)を生成し、生成された画像データを画像コンテンツ(静止画コンテンツまたは動画コンテンツ)として記録する撮像装置である。また、撮像装置100は、レンズマウント(図示せず)を介して交換レンズ200を取り付けることができる。
交換レンズ200は、レンズマウント(図示せず)を介して撮像装置100に取り付けられる交換レンズユニットである。交換レンズ200は、レンズ部211と、絞り212と、交換レンズ制御部220と、通信部221を備える。
撮像装置100は、バス101と、シャッター111と、シャッター制御部112と、撮像素子113と、撮像制御部114と、操作部121と、操作制御部122と、表示部131と、表示制御部132とを備える。また、撮像装置100は、メモリ141と、メモリ制御部142と、ROM(Read Only Memory)151と、RAM(Random Access Memory)152を備える。
また、撮像装置100は、CPU(Central Processing Unit)153と、通信インタフェース154を備える。また、撮像装置100は、通信部161と、測光部162と、測距部163と、外部ストロボ171と、発光制御部172と、コネクト部173を備える。なお、バス101はシステムバスである。撮像装置100を構成する各部は、バス101を介して相互に通信可能となるように接続されている。
レンズ部211は、被写体からの入射光を集光するレンズ群であり、これらのレンズ群により集光された光が撮像素子113に入射される。なお、レンズ部211は、焦点を合わせるためのフォーカスレンズや被写体を拡大するためのズームレンズ等により構成される。また、レンズ部211を構成する各レンズが交換レンズ制御部220により制御され、ズーム機能、フォーカス機能等が実現される。
通信部221は、撮像装置100の通信部161と通信をする。通信部221は、撮像装置100側から要求情報を受信して、交換レンズ制御部220に送る。交換レンズ制御部220が、要求情報に含まれる駆動要求に基づいて、レンズ部211および絞り212の制御を行う。また、通信部221、交換レンズ制御部220から送られてくるレンズ部211の各レンズの位置および絞り212の状態を示す状態情報を撮像装置100側に送信する。
絞り212は、レンズ部211を通過する入射光の光量を調整する。絞り212で調整後の光は、撮像素子113に入射される。また、絞り212は、交換レンズ制御部220により制御される。
シャッター111は、シャッター制御部112の制御に基づいて、撮像素子113に入射される光を物理的に遮る。すなわち、シャッター111は、撮像素子113に入射される光を通したり遮ったりすることにより光量を調節する。なお、撮像素子113に入射される光を物理的に遮るシャッターを用いる例を示すが、このシャッターと同等の機能を実現することができる電子シャッターを用いるようにしてもよい。シャッター制御部112は、CPU153の制御に基づいて、シャッター111を制御する。
撮像素子113は、撮像制御部114の制御に基づいて、レンズ部211および絞り212を介して入射された光により受光面に結像された被写体の光学像(被写体像)を、画素毎に電気信号に変換し、1画面分の画像信号(画像データ)を出力する。撮像素子113から出力される画像信号については、バス101を介して各種の画像処理が施される。
また、撮像素子113から出力される画像信号を用いて、各種演算処理が行われる。この演算処理として、例えば、AF(Auto Focus:自動焦点)演算処理、AE(Automatic Exposure:自動露出)演算処理、AWB(Auto White Balance:オートホワイトバランス)演算処理が行われる。
なお、撮像制御部114の制御に基づいて、撮像素子に蓄積された画像データの全部または一部を読み出すことが可能であれば、撮像素子の蓄積形態や読み出し形態として、各種の形態を用いることができる。また、撮像素子113として、例えば、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサ等を用いることができる。
撮像制御部114は、CPU153の制御に基づいて、撮像素子113による撮像処理や出力処理を制御する。具体的には、撮像制御部114は、撮像制御を行うためのタイミング信号(例えば、撮像素子113が1画面毎の画像信号を蓄積する際および読み出しを行う際に必要となる駆動タイミング信号)を生成し、生成されたタイミング信号を撮像素子113に供給する。各種のタイミング信号が撮像素子113に供給されると、撮像素子113において撮像処理や画像信号の出力処理のタイミング信号として用いられる。
操作部121は、各種操作を行うためのボタン等の操作部材を備え、ユーザからの操作入力を受け付ける。操作制御部122は、CPU153の制御に基づいて、操作部121により受け付けられる操作入力に関する制御を行う。
操作部121で受け付けられた操作入力の内容は操作制御部122を介してCPU153に送られる。操作部121は、ユーザからの要求を撮像装置100に反映させるためのインタフェースである。なお、撮像装置100の外面に配置されるボタン等の操作部材以外に、表示部131上にタッチパネルを設け、ユーザからの操作入力をタッチパネルにおいて受け付けるようにしてもよい。
表示部131は、表示制御部132から供給された各種画像データに対応する画像を表示する。表示制御部132は、CPU153の制御に基づいて、各種画像データを表示部131に表示させる。また、表示部131は、表示対象となる画像に付随する情報等を、その画像とともに提供する。表示部131は、例えば、撮像素子113から出力されて各種の画像処理が施された画像データ(撮像画像)を順次表示する。
また、表示部131は、例えば、メモリ141に記憶されている画像ファイルに対応する画像を表示する。なお、表示部131として、例えば、有機EL(Electro Luminescence)パネル、LCD(Liquid Crystal Display)等の表示パネルを用いることができる。また、例えば、使用者がその指を表示面に接触または近接することにより操作入力を行うことが可能なタッチパネルを用いるようにしてもよい。
メモリ141は、メモリ制御部142の制御に基づいて、画像データ等を記録する不揮発性の記憶装置である。メモリ制御部142は、CPU170の制御に基づいて、メモリ141からのデータの読み出しや、メモリ141へのデータの書き込み等のメモリ制御を行う
撮像素子113から出力されて各種の画像処理が施された画像データが、画像ファイル(静止画像ファイルあるいは動画像ファイル)としてメモリ141に記録される。なお、メモリ141は、撮像装置100に着脱可能とするようにしてもよく、撮像装置100に固定または内蔵するようにしてもよい。また、メモリ141として、例えば、半導体メモリ、磁気ディスク、光ディスク等の他の記憶媒体を用いることができる。
ROM151は、CPU153が実行するプログラム、ソフトウェア、データ等を格納する不揮発性メモリである。RAM152は、CPU153が動作する際に一時的に保持すべきデータや書き換え可能なデータを保持する揮発性メモリである。
CPU153は、ROM151に記憶されているプログラム、ソフトウェア等に基づいて、撮像装置100の各部を制御する。すなわち、CPU153は、プログラム、ソフトウェア等を実行することにより、バス101を介して通信可能な構成要素を総括的に制御する。
通信インタフェース(通信I/F)154は、外部機器、例えばデジタルインタフェースで接続されたパーソナルコンピュータ、あるいはネットワークで接続された外部サーバ等と通信を行って、情報の送信あるいは受信をする。例えば、この通信インタフェース154により、メモリ141に記録されている画像ファイルをネットワーク上のサーバに送って格納できる。また、例えば、ネットワーク上のサーバにアクセスして、CPU153が撮像装置100を制御するための更新プログラムあるいはその他の必要な情報を取得できる。
測光部162は、レンズ部211および絞り212を介して入射された光の一部を受光し、被写体側の明るさ、すなわち被写体輝度に関する測光信号を生成して、CPU152に送る。測光部162は、例えば、受光部が複数の測光エリアに分割されている測光センサで構成されている。被写体に係る光学像が複数の測光エリアに分割され、各測光エリアにおいて個別に測光値が得られる。
測距部163は、交換レンズ200から通信で送られてくるフォーカスレンズ位置情報(ピント情報)に基づいて撮像装置100から被写体までの距離を示す被写体推定距離を演算して、CPU151に送る。なお、交換レンズ200から通信で上述の被写体推定距離の情報が送られてくる場合には、測距部163における被写体推定距離の演算は不要となる。なお、測距部163としては、フォーカスレンズ位置情報(ピント情報)に基づいて被写体距離を演算で求める構成だけではなく、超音波やレーザ等を用いて被写体距離情報を得る構成も考えられる。
外部ストロボ171は、外部発光部を構成する。この外部ストロボ171は、例えば撮像装置100の筐体上部に設けられたコネクト部173を用いて装着され、被写体に対してストロボ光を照射するように設けられる。外部ストロボ171は、例えばキセノンランプのような放電器具であり、強い光を一瞬だけ発光し、強い閃光を被写体に照射することができる。なお、図示の例においては、内臓のストロボについては省略されている。
外部ストロボ171は、照射方向が可変可能に構成されており、撮像対象に対する照射としてダイレクトあるいはバウンスを選択的に行うことができる。図2(a)はバウンス角度θbが0度であってダイレクト照射(直射発光)の状態を示し、図2(b)はバウンス角度θbが0度でないバウンス照射(バウンス発光)の状態を示している。
発光制御部172は、CPU153の制御に基づいて、外部ストロボ171の発光量や発光タイミングを制御する。この実施の形態においては、被写体を撮像する本発光の前に、プリ発光(予備発光)が行われ、その結果に基づいて本発光の発光量が適切に調整される。
図3、図4のフローチャートは、CPU153における撮影時の制御処理の一例を示している。まず、CPU153は、ステップST1において、電源オンとされることで、制御処理を開始する。次に、CPU153は、ステップST2において、電源オン処理および初期設定をする。
次に、CPU153は、ステップST3において、操作情報を取得する。この場合、CPU153は、露出モード、露出補正値、プレビュー、AF/MF切り替えなどの操作情報を取得する。次に、CPU153は、ステップST4において、絞り、焦点距離などのレンズ情報を取得する。
次に、CPU153は、ステップST5において、外部ストロボ171が装着されているか否かを判断する。装着されているとき、CPU153は、ステップST6において、外部ストロボ171の状態を取得する。この外部ストロボ171の状態には、発光オン/オフ、バウンスなどの情報が含まれる。
次に、CPU153は、ステップST7において、外部ストロボ171がバウンスの状態にあるか否かを判断する。CPU153は、バウンスの状態にあるか否かを、ステップST6で外部ストロボ171から取得されたバウンス情報に基づいて判断する。なお、外部ストロボ171が被写体に向いているか否かを判定する処理を行って、その結果向いていないと判定した場合にバウンス状態であると判断するようにされてもよい。バウンスの状態にあるとき、CPU153は、ステップST8において、バウンスフラグをセットする。CPU153は、ステップST8の処理の後、ステップST9の処理に移る。なお、ステップST5で外部ストロボ171が装着されていないとき、あるいはステップST7でバウンスの状態にないとき、直ちにステップST9の処理に移る。
ステップST9において。CPU153は、表示部131にライブビューの表示を行うと共に、撮影露出制御値を演算する。次に、CPU153は、ステップST10において、発光するか否かの判定をする。例えば、非発光に設定してあれば発光しないと判定する。また、例えば、自動発光に設定してあって、測光信号により被写体輝度が充分であれば発光しないと判定する。
発光すると判定するとき、CPU153は、ステップST11において、発光フラグをセットし、その後に、ステップST12の処理に移る。一方、発光しないと判定するとき、CPU153は、発光フラグをセットすることなく、直ちにステップST12の処理に移る。
ステップST12において、CPU153は、ライブビューの表示を行うと共に、撮影ゲイン設定とその制御をする。次に、CPU153は、ステップST13において、シャッター速度(SS)設定とその制御をする。さらに、CPU153は、ステップST14において、絞り値設定とその制御をする。
次に、CPU153は、ステップST15において、S1オン状態、つまりシャッターボタンが半押し状態にあるか否かを判断する。S1オン状態にないとき、CPU153は、ステップST3の処理に戻る。一方、S1オン状態にあるとき、CPU153は、ステップST16において、オートフォーカス制御をする。
次に、CPU153は、ステップST17において、オートフォーカス情報を取得する。このオートフォーカス情報には、合焦/非合焦、ピント情報に基づいて生成された被写体推定距離の情報等が含まれる。例えば、この被写体推定距離の情報は、レンズ装置200から撮像装置200に直接供給されるか、あるいはンズ装置200から撮像装置100に供給されるピント情報に基づいて測距部163で算出される。
また、例えば、レンズ装置200から撮像装置100に被写体推定距離の情報が供給される場合、同時に、近側の誤差が含められた近側被写体推定距離と遠側の誤差が含められた遠側被写体推定距離の情報、あるいは近側および遠側の誤差の情報が供給される。近側および遠側の誤差の情報が供給される場合には、これと被写体推定距離の情報に基づいて、近側の誤差が含められた近側被写体推定距離と遠側の誤差が含められた遠側被写体推定距離の情報が演算されて用いられる。
次に、CPU153は、ステップST18において、S2オン状態、つまりシャッターボタンが深押し状態にあるか否かを判断する。S2オン状態にないとき、CPU153は、ステップST3の処理に戻る。一方、S2オン状態にあるとき、CPU153は、ステップST19の処理に移る。
ステップST19において、CPU153は、発光フラグがセットされているか否かを判断する。発光フラグがセットされているとき、CPU153は、ステップST20において、発光撮影処理を行い、その後、ステップST21において、画像データをメディアに記録する。一方、発光フラグがセットされていないとき、CPU153は、ステップST22において、非発光撮影処理を行い、その後に、ステップST21において、画像データをメディアに記録する。なお、この実施の形態において、メディアは、メモリ141(図1参照)である。
次に、CPU153は、ステップST23において、電源オフ操作があるか否かを判断する。電源オフ操作がないとき、CPU153は、ステップST3の処理に戻る。一方、電源オフ操作があるとき、CPU153は、ステップST24において、電源オフ処理を行い、その後に、ステップST25において、制御処理を終了する。
図5のフローチャートは、CPU153における発光撮影の制御処理の一例を示している。まず、CPU153は、ステップST31において、制御処理を開始する。そして、CPU153は、ステップST32において、プリ調光シーケンスの制御処理、ステップST33において、本発光量の算出の制御処理、さらにステップST34において、本発光撮影シーケンスの制御処理を実行する。そして、CPU153は、ステップST34の処理の後、ステップST35において、制御処理を終了する。
図6のフローチャートは、CPU153におけるプリ調光シーケンスの制御処理の一例を示している。まず、CPU153は、ステップST40において、制御処理を開始する。その後、CPU153は、ステップST41において、プリ発光制御値を設定する。
次に、CPU153は、ステップST42において、プリ発光量を発光制御部172から外部ストロボ171に伝達し、ステップST43においてプリ発光の発光を行って、ステップST44において、測光部162から測光値を取得する。
上述したように、測光部162は受光部が複数の測光エリアに分割されている測光センサで構成されており、被写体に係る光学像が複数の測光エリアに分割され、各測光エリアにおいて個別に測光値が得られる。m×nのマトリクス状に区切られた複数の測光エリアが存在する場合には、m×n個の測光値lvl_pre_0 ~ lvl_pre_(m*n-1)が得られる。ここで、0~m*n-1のそれぞれは、測光エリアの番号を示す。例えば、図7(a)は、測光部162が9×6=54個の測光エリアを備えている例を示し、0~53のエリア番号が付されている。
図6に戻って、次に、CPU153は、ステップST45において、プリ発光の発光をせずに、ステップST46において、測光部162から測光値を取得する。m×nのマトリクス状に区切られた複数の測光エリアが存在する場合には、m×n個の測光値lvl_nonpre_0 ~ lvl_nonpre_(m*n-1)が得られる。
次に、CPU153は、ステップ47において、測光エリア毎に発光時の測光値から非発光時の測光値を差し引き、それらを重み付け加算して、プリ調光評価値level_eva_preを算出する。以下の数式(2)は、プリ調光評価値level_eva_preの算出式を示している。akは、k番目のエリアの重み付け係数を示している。
図7(b)は、測光部162が図7(a)に示すように0~53のエリア番号で示される54個の測光エリアを備えている場合に、各測光エリアに対応した重み付け係数a0~a53が予め設定されていることを示している。図7(c)は、重み付け係数a0~a53の具体例を示している。
次に、CPU153は、ステップST48において、プリ発光による被写体推定距離dv_mainを演算する。この場合、プリ発光量をiv_preとし、プリ発光時の絞りをav_preとし、プリ発光時の感度(ゲイン制御)をsv_preとするとき、以下の数式(3)によって、プリ発光量で適正なる距離dv_pre(Apex)を求める。
dv_pre = iv_pre - av_pre + sv_pre ・・・(3)
dv_pre = iv_pre - av_pre + sv_pre ・・・(3)
ステップST47で算出したプリ調光評価値level_eva_preと、数式(3)で求められたdv_preと、ターゲットレベルlevel_targetから、以下の数式(4)で、プリ発光による被写体推定距離dv_mainが演算される。なお、level_eva_pre = 0 の場合、dv_main は、決め打ちの所定値とされる。
dv_main = dv_pre - log2( level_eva_pre / level_target ) ・・・(4)
dv_main = dv_pre - log2( level_eva_pre / level_target ) ・・・(4)
CPU153は、ステップST48の処理の後に、ステップST49において、制御処理を終了する。
ここで、プリ発光評価値level_eva_preと、プリ発光による被写体推定距離dv_mainの具体的な算出例を説明する。最初に、図8を参照して、プリ発光評価値level_eva_preについて説明する。図8(a)はライブビューを示している。また、図8(b)はプリ非発光タイミングの露光状態を示し、図8(c)はその露光状態における各測光エリアの検波値(測光値)を示している。
図8(d)は、プリ発光タイミングの露光状態を示し、図8(e)はその露光状態における各測光エリアの検波値(測光値)を示している。図8(f)は、検波状態を示し、図8(g)に示すように、測光エリア毎にプリ発光タイミングの測光値から非プリ発光タイミングの測光値が差し引かれた差分値が得られる。
図8(h)は各測光エリアの重み付け係数akを示し、図8(i)は各測光エリアの差分値にそれぞれ対応する重み付け係数akを掛けた値を示している。従って、この具体例においては、数式(5)に示すように、プリ発光評価値level_eva_preは14と算出される。
次に、プリ発光による被写体推定距離dv_mainについて説明する。各制御値のApex値は、例えば、以下の値であるとする。
プリ発光量:iv_pre Gno.2.0 → iv_pre = -3
プリ発光時の絞り:av_pre Fno.4.0 → av_pre = 4
プリ発光時の感度(ゲイン制御):sv_pre ISO400 → sv_pre = 7
プリ発光量:iv_pre Gno.2.0 → iv_pre = -3
プリ発光時の絞り:av_pre Fno.4.0 → av_pre = 4
プリ発光時の感度(ゲイン制御):sv_pre ISO400 → sv_pre = 7
各制御値から、以下の数式(6)に示すように、プリ発光量で適正になる距離dv_pre(Apex)が算出される。
dv_pre = iv_pre - av_pre + sv_pre = -3 - 4 + 7 = 0 ・・・(6)
dv_pre = iv_pre - av_pre + sv_pre = -3 - 4 + 7 = 0 ・・・(6)
上述したようにプリ発光評価値level_eva_preは14と算出され、また、ターゲットレベルlevel_targetは例えば40であるとする。ターゲットレベルは目標露出値で、その露光値になるように本発光量を決めることになる。
プリ発光評価値:level_eva_pre level_eva_pre = 14
ターゲットレベル:level_target level_target = 40
プリ発光評価値:level_eva_pre level_eva_pre = 14
ターゲットレベル:level_target level_target = 40
従って、この具体例においては、数式(7)に示すように、被写体推定距離dv_mainは1.515と算出される。ここで、2^(1.515/2) = 1.69であり、dv_main = 1.515は1.69mに相当する。
dv_main = dv_pre - log2( level_eva_pre / level_target )
= 0 - log2( 14 / 40)
= 1.515 ・・・(7)
dv_main = dv_pre - log2( level_eva_pre / level_target )
= 0 - log2( 14 / 40)
= 1.515 ・・・(7)
なお、プリ発光評価値level_eva_preが0の場合、すなわちプリ発光の反射が無い場合、非常に遠い位置に被写体があると判断し、dv_main は、決め打ちの大きな所定値とされる。
図9は、CPU153における本発光量算出の制御処理の一例を示している。まず、CPU153は、ステップST51において、制御処理を開始する。次に、CPU153は、ステップST52において、ピントがあっているか不確定でレンズ距離情報を使用できない、いわゆるAFローコンか判断し、AFローコンでなければ、カメラ(撮像装置)から被写体までの距離の情報として、dv_lensNear、 dv_lensFarを取得する。
dv_lensNearは、近側の誤差が含められた近側被写体推定距離をDV単位で表したものである。一方、dv_lensFarは、遠側の誤差が含められた遠側被写体推定距離をDV単位で表したものである。DVは、距離を示すApex値の単位で、距離[m]とDVの関係は,以下の通りである。なお、ここでは、dvは数値を表し、DVは単位を表している。
dv[DV] = log2(dist[m]^2) あるいは dv[DV] = 2×log2(dist[m])
dist:距離[m]
log2:2を底とする対数
dist^2:distの2乗
dv[DV] = log2(dist[m]^2) あるいは dv[DV] = 2×log2(dist[m])
dist:距離[m]
log2:2を底とする対数
dist^2:distの2乗
レンズ装置200から撮像装置100に、例えば、被写体推定距離の情報dist_lensTyp[m]と共に、近側被写体推定距離の情報dist_lensNear[m]および遠側被写体推定距離の情報dist_lensFar[m]が供給される。図10は、被写体実距離[m]と、レンズ装置200が出力する距離情報との対応関係の一例を示している。CPU153は、dist_lensNear[m]、dist_lensFar[m]のそれぞれをDV単位系に変換して、dv_lensNear[DV]、 dv_lensFar[DV]を得ることができる。レンズの精度、合焦精度がよくなればなるほど、dv_lensNearとdv_lensFarとの差は小さくなっていく。
なお、この場合、レンズ装置200から撮像装置100に、DV単位系の距離情報であるdv_lensTyp[DV]、dv_lensNear[DV]および dv_lensFar[DV]が供給されてもよい。ここで、dv_lensTyp[DV]は、dist_lensTyp[m]をDV単位系に変換したものである。
あるいは、レンズ装置200から撮像装置100に、例えば、被写体推定距離の情報dist_lensTyp[m]と共に、近側の誤差の情報(dist_lensNear - dist_lensTyp)[m]および遠側の誤差の情報(dist_lensFar - dist_lensTyp)[m]が供給される。CPU153は、これらの情報から近側の誤差が含められた近側被写体推定距離の情報dist_lensNear[m]および遠側の誤差が含められた遠側被写体推定距離の情報dist_lensFar[m]を得ることができ、さらにそれぞれをDV単位系に変換して、dv_lensNear[DV]、dv_lensFar[DV]を得ることができる。
なお、レンズ装置200から撮像装置100に、DV単位系の距離情報であるdv_lensTyp[DV]、DV単位系の誤差情報である(dv_lensNear - dv_lensTyp)[DV]および (dv_lensFar - dv_lensTyp)[DV]が供給されてもよい。図11は、被写体実距離[DV]と、レンズ装置200が出力する距離情報と実距離との差分[DV]、つまり(dv_lensNear - dv_lensTyp)[DV]および (dv_lensFar - dv_lensTyp)[DV]との対応関係の一例を示している。
また、レンズ装置200から撮像装置100に、被写体推定距離の情報であるdist_lensTyp[m]あるいはdv_lensTyp[DV]が供給され、誤差情報である(dist_lensNear - dist_lensTyp)[m]、(dist_lensNear - dist_lensTyp)[m]あるいは(dv_lensNear - dv_lensTyp)[DV]、(dv_lensFar - dv_lensTyp)[DV]は、保持部、例えばROM151あるいはRAM152に、交換レンズ200に対応して記憶されている被写体推定距離と誤差の対応関係から取得することも考えられる。
この場合、保持部には、複数の交換レンズ200に対応した被写体推定距離と誤差の対応関係が予め記憶されていてもよい。あるいは、保持部には、交換レンズ200が撮像装置100に装着された際に、その交換レンズ200のレンズ情報に基づいて、通信インタフェース154が外部サーバからその交換レンズ200に対応した被写体推定距離と誤差の対応関係をダウンロードして、記憶するようにされてもよい。
また、この場合、保持部には、ユーザにより操作部121から入力された、交換レンズ200に対応した被写体推定距離と誤差の対応関係が予め記憶されていてもよい。この場合、全ての被写体推定距離に対応した誤差を入力することは困難であるので、ユーザは数か所の被写体推定距離に対応した誤差のみを入力し、CPU153がそれらを用いて近似演算を行ってその他の距離に対応した誤差情報を補間するようにされていてもよい。
図9に戻って、次に、CPU153は、ステップST53において、AFローコンであるか否かを判断する。AFローコンであるとき、CPU153は、ステップST54の処理に移る。このステップST54において、CPU153は、本発光量を算出するための最終被写体推定距離dv_finalを、プリ発光による被写体推定距離dv_mainとする。
次に、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から、本発光量iv_mainを演算する。この場合、本発光時の絞りをav_mainとし、本発光時の感度(ゲイン制御)をsv_mainとするとき、本発光量iv_mainは、以下の数式(8)で求められ、ストロボ適正ガイドナンバーGno.は、以下の数式(9)で得られる。
iv_main = dv_final + av_main - sv_main ・・・(8)
Gno. = 2^(( iv_main + 5)/2 ) ・・・(9)
iv_main = dv_final + av_main - sv_main ・・・(8)
Gno. = 2^(( iv_main + 5)/2 ) ・・・(9)
ここで、本発光量iv_mainと、ストロボ適正ガイドナンバーGno.の具体的な算出例を説明する。本発光時の制御値(絞り、感度)は、例えば、以下の値であるとする。この制御値は、プリ発光時の制御値とは必ずしも一致しなくてもよい。
本発光時の絞り:av_main Fno.4.0 → av_main = 4
本発光時の感度(ゲイン制御):sv_main ISO800 → sv_main = 8
本発光時の絞り:av_main Fno.4.0 → av_main = 4
本発光時の感度(ゲイン制御):sv_main ISO800 → sv_main = 8
各制御値から、以下の数式(10)に示すように、本発光量iv_mainが算出される。なお、dv_finalの値は、上述の数式(7)で求めた1.515としている。また、以下の数式(11)に示すように、ストロボ適正ガイドナンバーGno.が、2.4と求められる。
iv_main = dv_final + av_main - sv_main = 1.515 + 4 - 8 = -2.485 ・・・(10)
Gno. = 2^((-2.485+5)/2) = 2.4 ・・・(11)
iv_main = dv_final + av_main - sv_main = 1.515 + 4 - 8 = -2.485 ・・・(10)
Gno. = 2^((-2.485+5)/2) = 2.4 ・・・(11)
図9に戻って、CPU153は、ステップST55の処理の後、ステップST56において、制御処理を終了する。
ステップST53でAFローコンでないとき、CPU153は、ステップST57において、バウンスフラグがセットされているか否かを判断する。バウンスフラグがセットされていないとき、CPU153は、ステップST58の処理に移る。
このステップST58において、CPU153は、プリ発光による被写体推定距離dv_main が、遠側被写体推定距離dv_lensFarから近側被写体推定距離dv_lensNearの範囲内にあるか否かを判断する。範囲内にあると判断するとき、CPU153は、ステップ54において、本発光量を算出するための最終被写体推定距離dv_finalをプリ発光による被写体推定距離dv_mainとし、さらに、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
ステップST58で範囲内にないと判断するとき、CPU153は、ステップST59の処理に移る。このステップST59において、CPU153は、プリ発光による被写体推定距離dv_mainが、dv_lensFar + 2DVより長い遠範囲にあるか否かを判断する。
ステップST59でdv_main > dv_lensFar + 2DV であるとき、CPU153は、ステップST60において、最終被写体推定距離dv_finalを、プリ発光による被写体推定距離dv_mainから2DVだけ差し引き、発光量抑制側に補正する。図12は、この場合の補正状態を示している。図示の例において、「×」はプリ発光による被写体推定距離dv_mainを示し、「○」は最終被写体推定距離dv_finalを示している。なお、2DVは一例であってこれに限定されない。
このステップST60の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
また、ステップST59でdv_main > dv_lensFar + 2DV でないとき、CPU153は、ステップST61において、プリ発光による被写体推定距離dv_mainが、dv_lensFar より長くなる遠範囲にあるか否かを判断する。
dv_main > dv_lensFar であるとき、CPU153は、ステップST62において、最終被写体推定距離dv_finalを、遠側被写体推定距離dv_lensFarとし、発光量抑制側に補正する。図13は、この場合の補正状態を示している。図示の例において、「×」はプリ発光による被写体推定距離dv_mainを示し、「○」は最終被写体推定距離dv_finalを示している。なお、2DVは一例であってこれに限定されない。
このステップST62の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
また、ステップST61でdv_main > dv_lensFar でないとき、CPU153は、ステップST63において、プリ発光による被写体推定距離dv_mainが、dv_lensFar - 2DV以下の近範囲にあるか否かを判断する。
dv_main <= dv_lensNear - 2DV であるとき、CPU153は、ステップST64において、最終被写体推定距離dv_finalを、プリ発光による被写体推定距離dv_mainに2DVだけ加算し、発光量増加側に補正する。図14は、この場合の補正状態を示している。図示の例において、「×」はプリ発光による被写体推定距離dv_mainを示し、「○」は最終被写体推定距離dv_finalを示している。なお、2DVは一例であってこれに限定されない。
このステップST64の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
また、ステップST63でdv_main <= dv_lensNear - 2DV でないとき、CPU153は、ステップST65おいて、最終被写体推定距離dv_finalを、近側被写体推定距離dv_lensNearとし、発光量増加側に補正する。図15は、この場合の補正状態を示している。図示の例において、「×」はプリ発光による被写体推定距離dv_mainを示し、「○」は最終被写体推定距離dv_finalを示している。
このステップST65の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
また、ステップST57で、バウンスフラグがセットされているとき、CPU153は、ステップST66の処理に移る。このステップST66において、CPU153は、プリ発光による被写体推定距離dv_mainが近側被写体推定距離dv_lensNear以下となる近範囲にあるか否かを判断する。
dv_main <= dv_lensNear でないとき、CPU153は、ステップ54において、本発光量を算出するための最終被写体推定距離dv_finalをプリ発光による被写体推定距離dv_mainとし、さらに、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
一方、ステップST66でdv_main <= dv_lensNear であるとき、CPU153は、ステップST65おいて、最終被写体推定距離dv_finalを、近側被写体推定距離dv_lensNearとし、発光量増加側に補正する(図15参照)。このステップST65の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
なお、図9のフローチャートに示す制御処理の例では、ステップST57でバウンスフラグがセットされているとき、ステップST66の処理に進むが、ステップST63の処理に進むようにされてもよい。この場合には、dv_main <= dv_lensNear - 2DV であるとき、最終被写体推定距離dv_finalはプリ発光による被写体推定距離dv_mainに2DVだけ加算したものとされ、dv_main <= dv_lensNear - 2EV でないとき、最終被写体推定距離dv_finalは近側被写体推定距離dv_lensNearとされる。
また、図16のフローチャートは、CPU153における本発光量算出の制御処理の他の一例を示している。この図16において、図9と対応するステップには同一符号を付し、その詳細説明は省略する。
ステップST57でバウンスフラグがセットされていないとき、CPU153は、ステップST71の処理に移る。このステップST71において、CPU153は、プリ発光による被写体推定距離dv_main が、遠側被写体推定距離dv_lensFarから近側被写体推定距離dv_lensNearの範囲内にあるか否かを判断する。
範囲内にあると判断するとき、CPU153は、ステップ54において、本発光量を算出するための最終被写体推定距離dv_finalをプリ発光による被写体推定距離dv_mainとし、さらに、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
ステップST71で範囲内にないと判断するとき、CPU153は、ステップST72の処理に移る。このステップST72において、CPU153は、プリ発光による被写体推定距離dv_mainが、dv_lensFar より長くなる遠範囲にあるか否かを判断する。
dv_main > dv_lensFar であるとき、CPU153は、ステップST73において、最終被写体推定距離dv_finalを、遠側被写体推定距離dv_lensFarとし、発光量抑制側に補正する(図13参照)。一方、dv_main > dv_lensFar でないとき、CPU153は、ステップST74おいて、最終被写体推定距離dv_finalを、近側被写体推定距離dv_lensNearとし、発光量増加側に補正する(図15参照)。
このステップST73あるいはステップST74の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
また、ステップST57で、バウンスフラグがセットされているとき、CPU153は、ステップST75の処理に移る。このステップST75において、CPU153は、プリ発光による被写体推定距離dv_mainが近側被写体推定距離dv_lensNear以下となる近範囲にあるか否かを判断する。
dv_main <= dv_lensNear でないとき、CPU153は、ステップ54において、本発光量を算出するための最終被写体推定距離dv_finalをプリ発光による被写体推定距離dv_mainとし、さらに、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
一方、ステップST75でdv_main <= dv_lensNear であるとき、CPU153は、ステップST74おいて、最終被写体推定距離dv_finalを、近側被写体推定距離dv_lensNearとし、発光量増加側に補正する(図15参照)。このステップST74の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
なお、この図16のフローチャートで示す本発光量算出の制御処理では補正量に制限を設けていないが、上述の図9のフローチャートで示す本発光量算出の制御処理では補正量に制限を設けている。補正制限を設けるのは、合焦精度が悪い機種の存在を考慮したものである。
機種によっては、合焦精度が悪く、AFローコンにならずに「偽合焦」(カメラでは合焦と判断しているが実際には被写体に合焦していない)となることが頻繁にある。補正量に制限を設けることで、偽合焦が発生した場合に、露光オーバーアンダー度合いを抑えることができ、露出への被害を大きくしないで済む。
また、図9のフローチャートで示す本発光量算出の制御処理では、補正量を2DVに制限しているが、この制限量はレンズの精度や合焦精度に依存して設定すべきものである。レンズの精度や、合焦精度もまた、撮影時の焦点距離に依存することが多い(一般的には広角側でレンズ精度を出しにくい)。
図17のフローチャートは、CPU153における本発光撮影シーケンスの制御処理の一例を示している。まず、CPU153は、ステップST81において、制御処理を開始する。その後、CPU153は、ステップST82において、プリ発光制御値を設定する。
次に、CPU153は、ステップST83において、本発光量を発光制御部172から外部ストロボ171に伝達し、ステップST84において、シャッター111を開いて露光を開始し、ステップST85において、本発光トリガ制御により本発光を行い、その後、ステップST86において、シャッターを閉じ、露光を終了する。
次に、CPU153は、ステップST87において、撮像処理をする。CPU153は、このステップST87の処理の後、ステップST88において、制御処理を終了する。
上述したように、図1に示す撮像システム10において、撮像装置100では、外部ストロボ171が被写体を向いていないバウンスの状態にある場合、プリ発光による被写体推定距離dv_mainが近側被写体推定距離dv_lensNear以下となる近範囲にあるときには、最終被写体推定距離dv_finalが発光量増加側に補正される。そのため、被写体の反射率が非常に高い場合に最終的な被写体推定距離dv_finalを適切な値に近づけることができ、本発光の調光精度を高めることが可能となる。
<2.変形例>
なお、上述実施の形態においては、外部ストロボ171のよる照射がダイレクトかバウンスか、つまりバウンスがオンかオフかによって本発光量を制御する例を示したが、さらにバウンスの角度に応じて本発光量を制御することも考えられる。
なお、上述実施の形態においては、外部ストロボ171のよる照射がダイレクトかバウンスか、つまりバウンスがオンかオフかによって本発光量を制御する例を示したが、さらにバウンスの角度に応じて本発光量を制御することも考えられる。
バウンスの確度に応じて本発光量を制御する場合には、上述の図2のフローチャートにおけるステップST6からステップST8の処理は、図18のフローチャートに示すステップSTST92からステップST94の処理に代わる。
CPU153は、ステップST5で外部ストロボ171が装着されているとき、ステップST92の処理に移る。このステップST92において、CPU153は、外部ストロボ171から、直射/バウンス角度情報、ストロボズーム情報、ストロボ発光配光角に応じた発光量減衰率情報を取得する。なお、配光角に応じた発光量減衰率情報に関しては、CPU153は、外部ストロボ171から取得されたバウンス角度情報に基づいて、撮像装置100内の保持部、例えばROM151あるいはRAM152から取得することも考えられる。
この場合、保持部には、複数の外部ストロボ171に対応したバウンス角度と発光量減衰率の対応関係が予め記憶されていてもよい。あるいは、保持部には、外部ストロボ171が撮像装置100に装着された際に、その外部ストロボ171の情報に基づいて、通信インタフェース154が外部サーバからその外部ストロボ171に対応したバウンス角度と発光量減衰率の対応関係をダウンロードして、記憶するようにされてもよい。
また、この場合、保持部には、ユーザにより操作部121から入力された、バウンス角度と発光量減衰率の対応関係が予め記憶されていてもよい。この場合、全てのバウンス角度に対応した発光量減衰率を入力することは困難であるので、ユーザは数か所のバウンス角度に対応した発光量減衰率のみを入力し、CPU153がそれらを用いて近似演算を行ってその他のバウンス角度に対応した発光量減衰率を補間するようにされていてもよい。
次に、CPU153は、ステップST93において、ストロボ発光配光角とバウンス角度により、直射成分の減衰率を演算する。次に、CPU153は、ステップST94において、減衰率に応じた発光量補正量(配光角補正量)を算出する。CPU153は、ステップST94の処理の後に、ステップST9の処理に移る。なお、ステップST5で外部ストロボ171が装着されていないとき、CPU153は、直ちにステップST9の処理に移る。
図19は、外部ストロボ171の光軸と、その光軸からの垂直確度(仰角)θfの関係を示している。図20は、配光角度が上下方向0~90度までのそれぞれの角度方向の発光量減衰率を各ストロボズーム位置に応じて示したものである。
例えば、ストロボズーム位置が焦点距離35mm用の場合、ストロボの発光部光軸に対して仰角40°では、光軸発光量に対して30%の発光量減衰がある。この各ストロボズーム位置による発光量減衰率は、ストロボ発光部の光学設計に依存するため、撮像装置(カメラ)100はストロボ発光部から情報を得ることになる。または、発光量減衰率が、どのストロボでも光学設計的に同じであれば、撮像装置(カメラ)100内でテーブルとして保持していてもよい。
図20では、上下方向の同じ角度では減衰率が同じ数値だが、上下で異なった減衰率数値を持つようにされてもよい。減衰率がわかれば、以下の数式(12)にて、減衰率に応じた配光角補正量(EV)がわかる。
配光角補正量(EV) = Log2(1/(1 - 減衰率)) ・・・(12)
配光角補正量(EV) = Log2(1/(1 - 減衰率)) ・・・(12)
一般的に、ストロボに対してカメラが指示した発光量は、発光部光軸中心における発光量である。発光光軸からずれた角度上における発光量は、上記の数式(12)において求めた配光角補正量を加味してカメラがストロボに指示すれば、その角度における発光量が、カメラの所望の発光量となる。
ところで、ストロボの発光部が上方にバウンスされた場合、バウンス角度により、撮影光軸(レンズ光軸)上の被写体に対して、ストロボの直射成分が照射される。図21は、外部ストロボ171の光軸と、その光軸からの垂直確度(仰角)θfと、バウンス角度θbの関係を示している。ハッチング部分の角度領域はストロボ直射成分を示し、この角度領域にある発光は直接被写体に照射される。
この直射成分は、「ストロボ発光部-被写体」距離と、発光量の相関、が成立する。
絞りav = log2( Fno.^2 )
感度sv = log2( ISO/100 )+ 5
距離dv = log2( dist^2 ) dist[m]
プリ発光量iv = log2( Gno.^2 )- 5
発光量Gno. = 距離[m] × 絞りFno. / √(感度ISO/100)
(iv = dv + av - sv)
絞りav = log2( Fno.^2 )
感度sv = log2( ISO/100 )+ 5
距離dv = log2( dist^2 ) dist[m]
プリ発光量iv = log2( Gno.^2 )- 5
発光量Gno. = 距離[m] × 絞りFno. / √(感度ISO/100)
(iv = dv + av - sv)
直射成分は、上述のように、角度に応じた配光角補正量を施したものである。その配光角補正量は、レンズ光軸からのバウンス角度を、θbとすると、
θ = θf - θb
の角度における配光角補正量となる。
θ = θf - θb
の角度における配光角補正量となる。
図22は、発光部光軸からの垂直角度°と発光減衰率の関係の一例を示している。aは焦点距離16mm用、bは焦点距離35mm用、cは焦点距離70mm用、dは焦点距離105mm用である。また、図23は、発光部光軸からの垂直角度°と配光角補正量(EV)の関係の一例を示している。aは焦点距離16mm用、bは焦点距離35mm用、cは焦点距離70mm用、dは焦点距離105mm用である。
図24のフローチャートは、CPU153における本発光量算出の制御処理の一例を示している。この図24において、図16と対応する部分には同一符号を付して示し、適宜、その詳細説明は省略する。
まず、CPU153は、ステップST51において、制御処理を開始する。次に、CPU153は、ステップST52Aにおいて、ピントがあっているか不確定でレンズ距離情報を使用できない、いわゆるAFローコンか判断し、AFローコンでなければ、カメラ(撮像装置)から被写体までの距離の情報として、dv_lensNear、 dv_lensFarを取得する。
次に、CPU153は、ステップST101において、プリ発光による被写体推定距離dv_mainに配光角補正量を加味したdv_main_1を、以下の数式(13)で算出する。直射時は、dv_main_1 = dv_main となる。
dv_main_1 = dv_main - 配光角補正量 ・・・(13)
dv_main_1 = dv_main - 配光角補正量 ・・・(13)
次に、CPU153は、ステップST53において、AFローコンであるか否かを判断する。AFローコンであるとき、CPU153は、ステップST54の処理に移る。このステップST54において、CPU153は、本発光量を算出するための最終被写体推定距離dv_finalを、プリ発光による被写体推定距離dv_main_1とする。
次に、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から、本発光量iv_mainを演算する。この場合、本発光時の絞りをav_mainとし、本発光時の感度(ゲイン制御)をsv_mainとするとき、本発光量iv_mainは、以下の数式(14)で求められ、ストロボ適正ガイドナンバーGno.は、以下の数式(15)で得られる。
iv_main = dv_final + av_main - sv_main + 配光角補正量 ・・・(14)
Gno. = 2^(( iv_main + 5)/2 ) ・・・(15)
iv_main = dv_final + av_main - sv_main + 配光角補正量 ・・・(14)
Gno. = 2^(( iv_main + 5)/2 ) ・・・(15)
CPU153は、ステップST55の処理の後、ステップST56において、制御処理を終了する。
ステップST53でAFローコンでないとき、ステップST102において、バウンス角度、ストロボズーム位置、撮影焦点距離から、本発光制御タイプを選択する。ここで、本発光制御タイプには、(1)、dv_lensNear、 dv_lensFarを使用する、(2)dv_lensNearのみを使用する、(3)dv_lensNear、dv_lensFarを使用しない、の3つの本発光制御タイプがある。
ここで、本発光制御タイプの選択についてさらに説明する。ストロボズーム位置によって定められた所定以上の角度でバウンスされた場合には、画角下部まで直射成分が存在しなくなり、さらに角度を増したバウンスでは直射成分が完全に画角からはずれるため、「ストロボ発光部-被写体」距離と、発光量の相関、が成立しなくなる。
図25は、各ストロボズーム位置と、ストロボバウンス角度との関係から、本発光制御のタイプを切り替えるための組み合わせ例を示している。バウンスされても配光角度が広く、撮影画角の下部まで配光がある場合にはバウンスされていない場合の制御と同じく制御する制御タイプ(1)、撮影画角内に直射の配光がまったく入らない場合には制御タイプ(3)、その中間領域の制御タイプ(2)、の3つに分けている。
なお、図25では、撮影画角(撮影焦点距離)とストロボズーム位置が連動していることを前提としているが、ストロボによっては、ストロボ側のメニューによりストロボズーム位置を撮影焦点距離と関係なく固定にするモードがある。このような場合には、この表の組み合わせとは異なるが、基本的な考えとしては、撮影画角内が直射成分で賄えうる場合には制御タイプ(1)、完全に配光がはずれている場合には制御タイプ(3)、そのどちらでもない中間条件では制御タイプ(2)、というようにすればよい。
図24に戻って、CPU153は、ステップST102の処理の後、ステップST103において、本発光量制御タイプが何か判断する。本発光量制御タイプが制御タイプ(3)であるとき、CPU153は、ステップ54において、本発光量を算出するための最終被写体推定距離dv_finalをdv_main_1とし、さらに、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
また、ステップST103で制御タイプ(1)であるとき、CPU153は、ステップST71の処理に移る。このステップST71において、CPU153は、dv_main_1が、遠側被写体推定距離dv_lensFarから近側被写体推定距離dv_lensNearの範囲内にあるか否かを判断する。
範囲内にあると判断するとき、CPU153は、ステップ54において、本発光量を算出するための最終被写体推定距離dv_finalをdv_main_1とし、さらに、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
ステップST71で範囲内にないと判断するとき、CPU153は、ステップST72の処理に移る。このステップST72において、CPU153は、dv_main_1が、dv_lensFar より長くなる遠範囲にあるか否かを判断する。
dv_main_1 > dv_lensFar であるとき、CPU153は、ステップST73において、最終被写体推定距離dv_finalを、遠側被写体推定距離dv_lensFarとし、発光量抑制側に補正する(図13参照)。一方、dv_main_1 > dv_lensFar でないとき、CPU153は、ステップST74おいて、最終被写体推定距離dv_finalを、近側被写体推定距離dv_lensNearとし、発光量増加側に補正する(図15参照)。
このステップST73あるいはステップST74の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
また、ステップST103で制御タイプ(2)であるとき、CPU153は、ステップST75の処理に移る。このステップST75において、CPU153は、dv_main_1が近側被写体推定距離dv_lensNear以下となる近範囲にあるか否かを判断する。
dv_main_1 <= dv_lensNear でないとき、CPU153は、ステップ54において、本発光量を算出するための最終被写体推定距離dv_finalをdv_main_1とし、さらに、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
一方、ステップST75でdv_main_1 <= dv_lensNear であるとき、CPU153は、ステップST74おいて、最終被写体推定距離dv_finalを、近側被写体推定距離dv_lensNearとし、発光量増加側に補正する(図15参照)。このステップST74の処理の後、CPU153は、ステップST55において、最終被写体推定距離dv_finalと、本発光露出制御値から本発光量iv_mainを演算する。その後、ステップST56において、制御処理を終了する。
このように図24に示す本発光量算出の処理では、外部ストロボ171の向き、つまりバウンス角度に応じて求められた配光角補正量に基づいてプリ発光による被写体推定距離dv_mainを補正して用いるものであり、最終被写体推定距離dv_finalをより適切に求めることができ、発光部が被写体に向いていない場合における本発光の調光精度を高めることができる。
また、上述実施の形態のようにバウンス状態で最終被写体推定距離dv_finalを発光量増加側に補正する処理に関しては、外部ストロボ171が撮像装置100にコネクト部173で固定されていない状態、例えば撮像装置100とワイヤードあるいはワイヤレスで接続されている状態にあっては実行しないことが考えられる。このような状態では、外部ストロボ171の光路が実際にピント情報に基づき生成された被写体推定距離よりも短くなることも考えられ、その場合には最終的な被写体推定距離dv_finalが誤って得られ、結果的に本発光の調光精度を低下させることになるからである。
また、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、上述実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。
また、本技術は、以下のような構成を取ることもできる。
(1)バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する制御部を備える
撮像装置。
(2)上記レンズピント被写体推定距離には近側のレンズ誤差情報が反映されている
前記(1)に記載の撮像装置。
(3)上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より遠い場合、上記レンズピント被写体推定距離を用いることなく、上記バウンス発光の場合の本発光量を調整する
前記(1)または(2)に記載の撮像装置。
(4)上記制御部は、上記プリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、上記レンズピント被写体推定距離に基づいて本発光調整被写体推定距離を求め、該本発光調整被写体推定距離に基づいて上記本発光量を調整する
前記(1)から(3)のいずれかに記載の撮像装置。
(5)上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より短いときには、上記プリ発光被写体推定距離から所定量だけ上記レンズピント被写体推定距離に近づけた距離を上記本発光調整被写体推定距離とする
前記(4)に記載の撮像装置。
(6)上記制御部は、上記レンズピント被写体推定距離を上記本発光調整被写体推定距離とする
前記(5)に記載の撮像装置。
(7)上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より一定量以上短いとき、上記プリ発光被写体推定距離から上記一定量を限度に長くした距離を上記本発光調整被写体推定距離とする
前記(5)に記載の撮像装置。
(8)上記制御部は、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報をレンズ装置から取得する
前記(2)に記載の撮像装置。
(9)上記制御部は、上記近側のレンズ誤差情報をレンズ装置から取得して、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報を得る
前記(2)に記載の撮像装置。
(10)上記近側のレンズ誤差情報を保持する保持部をさらに備え、
上記制御部は、上記近側のレンズ誤差情報を上記保持部から取得して、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報を得る
前記(2)に記載の撮像装置。
(11)
上記近側のレンズ誤差情報を外部サーバから取得して上記保持部に保持するための通信部をさらに備える
前記(10)に記載の撮像装置。
(12)上記近側のレンズ誤差情報を入力して上記保持部に保持するためのユーザ操作部をさらに備える
前記(10)に記載の撮像装置。
(13)上記制御部は、バウンス発光の場合には、上記発光部が上記撮像装置の筐体に固定されている状態にあるとき、上記プリ発光被写体推定距離と上記レンズピント被写体推定距離に基づいて本発光量を調整する
前記(1)から(12)のいずれかに記載の撮像装置。
(14)上記制御部は、発光部の向き情報に基づいて上記プリ発光被写体推定距離を補正する
前記(1)から(13)のいずれかに記載の撮像装置。
(15)上記制御部は、上記プリ発光被写体推定距離の補正量を上記発光部の向き情報に応じた発光減衰率に基づいて得る
前記(14)に記載の撮像装置。
(16)上記制御部は、上記発光部の向き情報に応じた発光減衰率の情報を上記発光部から取得する
前記(15)に記載の撮像装置。
(17)上記発光部の向き情報に応じた発光減衰率を保持する保持部をさらに備え、
上記制御部は、上記発光部の向き情報に応じた発光減衰率の情報を上記保持部から取得する
前記(15)に記載の撮像装置。
(18)バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する
撮像装置の制御方法。
(19)バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する制御部を備える
処理装置。
(20)プリ発光処理によって求められたプリ発光被写体推定距離を得る処理と、レンズを介したピント情報から求められ、近側のレンズ誤差情報が反映された近側被写体推定距離および遠側のレンズ誤差情報が反映された近側被写体推定距離を得る処理と、発光部の向き情報に基づいて上記プリ発光被写体推定距離を補正する処理と、上記補正されたプリ発光被写体推定距離、上記近側被写体推定距離および上記遠側被写体推定距離に基づいて、本発光量を調整する処理を制御する制御部を備える
撮像装置。
(1)バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する制御部を備える
撮像装置。
(2)上記レンズピント被写体推定距離には近側のレンズ誤差情報が反映されている
前記(1)に記載の撮像装置。
(3)上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より遠い場合、上記レンズピント被写体推定距離を用いることなく、上記バウンス発光の場合の本発光量を調整する
前記(1)または(2)に記載の撮像装置。
(4)上記制御部は、上記プリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、上記レンズピント被写体推定距離に基づいて本発光調整被写体推定距離を求め、該本発光調整被写体推定距離に基づいて上記本発光量を調整する
前記(1)から(3)のいずれかに記載の撮像装置。
(5)上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より短いときには、上記プリ発光被写体推定距離から所定量だけ上記レンズピント被写体推定距離に近づけた距離を上記本発光調整被写体推定距離とする
前記(4)に記載の撮像装置。
(6)上記制御部は、上記レンズピント被写体推定距離を上記本発光調整被写体推定距離とする
前記(5)に記載の撮像装置。
(7)上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より一定量以上短いとき、上記プリ発光被写体推定距離から上記一定量を限度に長くした距離を上記本発光調整被写体推定距離とする
前記(5)に記載の撮像装置。
(8)上記制御部は、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報をレンズ装置から取得する
前記(2)に記載の撮像装置。
(9)上記制御部は、上記近側のレンズ誤差情報をレンズ装置から取得して、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報を得る
前記(2)に記載の撮像装置。
(10)上記近側のレンズ誤差情報を保持する保持部をさらに備え、
上記制御部は、上記近側のレンズ誤差情報を上記保持部から取得して、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報を得る
前記(2)に記載の撮像装置。
(11)
上記近側のレンズ誤差情報を外部サーバから取得して上記保持部に保持するための通信部をさらに備える
前記(10)に記載の撮像装置。
(12)上記近側のレンズ誤差情報を入力して上記保持部に保持するためのユーザ操作部をさらに備える
前記(10)に記載の撮像装置。
(13)上記制御部は、バウンス発光の場合には、上記発光部が上記撮像装置の筐体に固定されている状態にあるとき、上記プリ発光被写体推定距離と上記レンズピント被写体推定距離に基づいて本発光量を調整する
前記(1)から(12)のいずれかに記載の撮像装置。
(14)上記制御部は、発光部の向き情報に基づいて上記プリ発光被写体推定距離を補正する
前記(1)から(13)のいずれかに記載の撮像装置。
(15)上記制御部は、上記プリ発光被写体推定距離の補正量を上記発光部の向き情報に応じた発光減衰率に基づいて得る
前記(14)に記載の撮像装置。
(16)上記制御部は、上記発光部の向き情報に応じた発光減衰率の情報を上記発光部から取得する
前記(15)に記載の撮像装置。
(17)上記発光部の向き情報に応じた発光減衰率を保持する保持部をさらに備え、
上記制御部は、上記発光部の向き情報に応じた発光減衰率の情報を上記保持部から取得する
前記(15)に記載の撮像装置。
(18)バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する
撮像装置の制御方法。
(19)バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する制御部を備える
処理装置。
(20)プリ発光処理によって求められたプリ発光被写体推定距離を得る処理と、レンズを介したピント情報から求められ、近側のレンズ誤差情報が反映された近側被写体推定距離および遠側のレンズ誤差情報が反映された近側被写体推定距離を得る処理と、発光部の向き情報に基づいて上記プリ発光被写体推定距離を補正する処理と、上記補正されたプリ発光被写体推定距離、上記近側被写体推定距離および上記遠側被写体推定距離に基づいて、本発光量を調整する処理を制御する制御部を備える
撮像装置。
10・・・撮像システム
100・・・撮像装置
101・・・バス
111・・・シャッター
112・・・シャッター制御部
113・・・撮像素子
114・・・撮像制御部
121・・・操作部
122・・・操作制御部
131・・・表示部
132・・・表示制御部
141・・・メモリ
142・・・メモリ制御部
151・・・ROM
152・・・RAM
153・・・CPU
161・・・通信部
162・・・測光部
163・・・測距部
171・・・外部ストロボ
172・・・発光制御部
173・・・コネクト部
200・・・交換レンズ
211・・・レンズ部
212・・・絞り
220・・・交換レンズ制御部
221・・・通信部
100・・・撮像装置
101・・・バス
111・・・シャッター
112・・・シャッター制御部
113・・・撮像素子
114・・・撮像制御部
121・・・操作部
122・・・操作制御部
131・・・表示部
132・・・表示制御部
141・・・メモリ
142・・・メモリ制御部
151・・・ROM
152・・・RAM
153・・・CPU
161・・・通信部
162・・・測光部
163・・・測距部
171・・・外部ストロボ
172・・・発光制御部
173・・・コネクト部
200・・・交換レンズ
211・・・レンズ部
212・・・絞り
220・・・交換レンズ制御部
221・・・通信部
Claims (20)
- バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する制御部を備える
撮像装置。 - 上記レンズピント被写体推定距離には近側のレンズ誤差情報が反映されている
請求項1に記載の撮像装置。 - 上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より遠い場合、上記レンズピント被写体推定距離を用いることなく、上記バウンス発光の場合の本発光量を調整する
請求項1に記載の撮像装置。 - 上記制御部は、上記プリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、上記レンズピント被写体推定距離に基づいて本発光調整被写体推定距離を求め、該本発光調整被写体推定距離に基づいて上記本発光量を調整する
請求項1に記載の撮像装置。 - 上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より短いときには、上記プリ発光被写体推定距離から所定量だけ上記レンズピント被写体推定距離に近づけた距離を上記本発光調整被写体推定距離とする
請求項4に記載の撮像装置。 - 上記制御部は、上記レンズピント被写体推定距離を上記本発光調整被写体推定距離とする
請求項5に記載の撮像装置。 - 上記制御部は、上記プリ発光被写体推定距離が上記レンズピント被写体推定距離より一定量以上短いとき、上記プリ発光被写体推定距離から上記一定量を限度に長くした距離を上記本発光調整被写体推定距離とする
請求項5に記載の撮像装置。 - 上記制御部は、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報をレンズ装置から取得する
請求項2に記載の撮像装置。 - 上記制御部は、上記近側のレンズ誤差情報をレンズ装置から取得して、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報を得る
請求項2に記載の撮像装置。 - 上記近側のレンズ誤差情報を保持する保持部をさらに備え、
上記制御部は、上記近側のレンズ誤差情報を上記保持部から取得して、上記近側のレンズ誤差情報が反映されたレンズピント被写体推定距離の情報を得る
請求項2に記載の撮像装置。 - 上記近側のレンズ誤差情報を外部サーバから取得して上記保持部に保持するための通信部をさらに備える
請求項10に記載の撮像装置。 - 上記近側のレンズ誤差情報を入力して上記保持部に保持するためのユーザ操作部をさらに備える
請求項10に記載の撮像装置。 - 上記制御部は、バウンス発光の場合には、上記発光部が上記撮像装置の筐体に固定されている状態にあるとき、上記プリ発光被写体推定距離と上記レンズピント被写体推定距離に基づいて本発光量を調整する
請求項1に記載の撮像装置。 - 上記制御部は、発光部の向き情報に基づいて上記プリ発光被写体推定距離を補正する
請求項1に記載の撮像装置。 - 上記制御部は、上記プリ発光被写体推定距離の補正量を上記発光部の向き情報に応じた発光減衰率に基づいて得る
請求項14に記載の撮像装置。 - 上記制御部は、上記発光部の向き情報に応じた発光減衰率の情報を上記発光部から取得する
請求項15に記載の撮像装置。 - 上記発光部の向き情報に応じた発光減衰率を保持する保持部をさらに備え、
上記制御部は、上記発光部の向き情報に応じた発光減衰率の情報を上記保持部から取得する
請求項15に記載の撮像装置。 - バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する
撮像装置の制御方法。 - バウンス発光の場合には、プリ発光処理によって求められたプリ発光被写体推定距離または該プリ発光被写体推定距離に対応する情報と、レンズを介したピント情報から求められたレンズピント被写体推定距離に基づいて、本発光量を調整する制御部を備える
処理装置。 - プリ発光処理によって求められたプリ発光被写体推定距離を得る処理と、レンズを介したピント情報から求められ、近側のレンズ誤差情報が反映された近側被写体推定距離および遠側のレンズ誤差情報が反映された近側被写体推定距離を得る処理と、発光部の向き情報に基づいて上記プリ発光被写体推定距離を補正する処理と、上記補正されたプリ発光被写体推定距離、上記近側被写体推定距離および上記遠側被写体推定距離に基づいて、本発光量を調整する処理を制御する制御部を備える
撮像装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/495,558 US11022860B2 (en) | 2017-04-17 | 2018-04-17 | Imaging apparatus, method for controlling imaging apparatus, and processing apparatus |
JP2019513643A JP7136089B2 (ja) | 2017-04-17 | 2018-04-17 | 撮像装置、撮像装置の制御方法および処理装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017081529 | 2017-04-17 | ||
JP2017-081529 | 2017-04-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018194045A1 true WO2018194045A1 (ja) | 2018-10-25 |
Family
ID=63856628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/015802 WO2018194045A1 (ja) | 2017-04-17 | 2018-04-17 | 撮像装置、撮像装置の制御方法および処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11022860B2 (ja) |
JP (1) | JP7136089B2 (ja) |
WO (1) | WO2018194045A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11022860B2 (en) * | 2017-04-17 | 2021-06-01 | Sony Corporation | Imaging apparatus, method for controlling imaging apparatus, and processing apparatus |
JP7646451B2 (ja) * | 2021-05-21 | 2025-03-17 | キヤノン株式会社 | 撮像装置、照明装置、およびそれらの制御方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002207159A (ja) * | 2001-01-12 | 2002-07-26 | Minolta Co Ltd | デジタルカメラ |
JP2003043549A (ja) * | 2001-07-27 | 2003-02-13 | Minolta Co Ltd | カメラの調光制御装置 |
JP2003066505A (ja) * | 2001-08-24 | 2003-03-05 | Minolta Co Ltd | カメラ |
JP2004264783A (ja) * | 2003-03-04 | 2004-09-24 | Olympus Corp | カメラ及び電子カメラ |
US20150331301A1 (en) * | 2008-02-14 | 2015-11-19 | Alok Khuntia | Camera integrated with direct and indirect flash units |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4280515B2 (ja) | 2003-02-27 | 2009-06-17 | キヤノン株式会社 | ストロボ撮影システムおよびカメラ |
JP4110109B2 (ja) * | 2004-03-26 | 2008-07-02 | キヤノン株式会社 | 撮像装置及び撮像制御方法 |
JP6512768B2 (ja) * | 2014-08-08 | 2019-05-15 | キヤノン株式会社 | 照明装置、撮像装置及びカメラシステム |
JP6573367B2 (ja) * | 2015-05-01 | 2019-09-11 | キヤノン株式会社 | 撮像装置、その制御方法、および制御プログラム |
US11022860B2 (en) * | 2017-04-17 | 2021-06-01 | Sony Corporation | Imaging apparatus, method for controlling imaging apparatus, and processing apparatus |
US10423050B2 (en) * | 2017-05-01 | 2019-09-24 | Canon Kabushiki Kaisha | Illumination apparatus capable of making determination on radiating direction of flash and control method therefor |
-
2018
- 2018-04-17 US US16/495,558 patent/US11022860B2/en active Active
- 2018-04-17 JP JP2019513643A patent/JP7136089B2/ja active Active
- 2018-04-17 WO PCT/JP2018/015802 patent/WO2018194045A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002207159A (ja) * | 2001-01-12 | 2002-07-26 | Minolta Co Ltd | デジタルカメラ |
JP2003043549A (ja) * | 2001-07-27 | 2003-02-13 | Minolta Co Ltd | カメラの調光制御装置 |
JP2003066505A (ja) * | 2001-08-24 | 2003-03-05 | Minolta Co Ltd | カメラ |
JP2004264783A (ja) * | 2003-03-04 | 2004-09-24 | Olympus Corp | カメラ及び電子カメラ |
US20150331301A1 (en) * | 2008-02-14 | 2015-11-19 | Alok Khuntia | Camera integrated with direct and indirect flash units |
Also Published As
Publication number | Publication date |
---|---|
US20200041873A1 (en) | 2020-02-06 |
US11022860B2 (en) | 2021-06-01 |
JP7136089B2 (ja) | 2022-09-13 |
JPWO2018194045A1 (ja) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5096017B2 (ja) | 撮像装置 | |
JP6046905B2 (ja) | 撮像装置、露出制御方法、及びプログラム | |
JP2008191335A (ja) | 撮像装置及び撮像システム | |
JP2007286438A (ja) | 撮像装置及びその制御方法 | |
JP2015014647A (ja) | カメラ | |
WO2018194045A1 (ja) | 撮像装置、撮像装置の制御方法および処理装置 | |
JP2011002848A (ja) | 撮像装置 | |
JP5418180B2 (ja) | デジタルカメラ | |
US11503216B2 (en) | Image capturing apparatus, method of controlling the same, and storage medium for controlling exposure | |
JP2004264783A (ja) | カメラ及び電子カメラ | |
JP2020177220A (ja) | 撮像装置及びその制御方法、プログラム、記憶媒体 | |
JP5023874B2 (ja) | カラー撮像装置 | |
JP7070558B2 (ja) | 撮像装置、撮像装置の制御方法および処理装置 | |
JP3180458B2 (ja) | 視線検出手段を有するカメラ | |
JP5447579B2 (ja) | 追尾装置、焦点調節装置および撮影装置 | |
JP7158880B2 (ja) | 撮像装置、その制御方法、および制御プログラム | |
US10645276B2 (en) | Image pickup apparatus that performs bounce flash photography, control method therefor, and storage medium | |
JP5115324B2 (ja) | 焦点検出装置および撮像装置 | |
JP2017138346A (ja) | 撮影装置 | |
JP6650666B2 (ja) | 撮像システム、照明装置及び制御方法 | |
JPH06222259A (ja) | 自動焦点カメラ | |
JP2770450B2 (ja) | カメラ | |
JP2006133608A (ja) | 撮影装置、およびカメラシステム | |
JP4541808B2 (ja) | 撮像装置及び撮像システム | |
JP2021015200A (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18787246 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019513643 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18787246 Country of ref document: EP Kind code of ref document: A1 |