[go: up one dir, main page]

WO2015151792A1 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
WO2015151792A1
WO2015151792A1 PCT/JP2015/057838 JP2015057838W WO2015151792A1 WO 2015151792 A1 WO2015151792 A1 WO 2015151792A1 JP 2015057838 W JP2015057838 W JP 2015057838W WO 2015151792 A1 WO2015151792 A1 WO 2015151792A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
luminance
image processing
pixel
Prior art date
Application number
PCT/JP2015/057838
Other languages
English (en)
French (fr)
Inventor
神尾 和憲
隆浩 永野
イーウェン ズー
英之 市橋
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201580015531.0A priority Critical patent/CN106133817B/zh
Priority to US15/128,172 priority patent/US10163402B2/en
Priority to JP2016511514A priority patent/JP6729368B2/ja
Priority to KR1020167025801A priority patent/KR102288250B1/ko
Priority to EP15772960.9A priority patent/EP3128506A4/en
Publication of WO2015151792A1 publication Critical patent/WO2015151792A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/029Improving the quality of display appearance by monitoring one or more pixels in the display panel, e.g. by monitoring a fixed reference pixel
    • G09G2320/0295Improving the quality of display appearance by monitoring one or more pixels in the display panel, e.g. by monitoring a fixed reference pixel by monitoring each display pixel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/021Power management, e.g. power saving
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Definitions

  • the present disclosure relates to an image processing device, an image processing method, and a program, and in particular, an image that can suppress deterioration in image quality when the power consumption of a display unit is reduced by reducing the luminance of the image.
  • the present invention relates to a processing device, an image processing method, and a program.
  • the technology to reduce the power consumption of the display is an important technology especially for long-time use of mobile devices driven by batteries such as smartphones and tablet terminals.
  • LCD Liquid Crystal Display
  • this technology cannot be applied to a self-luminous display such as an OLED (Organic light-Emitting Diode) display.
  • a technique for reducing the brightness by multiplying the brightness of the image uniformly by a gain smaller than 1 or a technique for reducing the brightness of an area having a predetermined feature for example, And Patent Document 2.
  • the image becomes dark overall.
  • the amount of luminance reduction cannot be finely controlled, so that the image quality deteriorates.
  • JP 2013-104912 A Japanese Unexamined Patent Publication No. 2011-2520
  • the present disclosure has been made in view of such a situation, and is intended to suppress degradation in image quality when the power consumption of the display unit is reduced by reducing the luminance of an image. is there.
  • An image processing apparatus includes: a determination unit that determines a reduction amount of luminance of a pixel based on a feature of each pixel of the image; and a luminance of the pixel by the reduction amount determined by the determination unit
  • An image processing apparatus including a reduction unit that reduces the amount of the image.
  • the image processing method and program according to one aspect of the present disclosure correspond to the image processing apparatus according to one aspect of the present disclosure.
  • the reduction amount of the luminance of the pixel is determined based on the feature of each pixel of the image, and the luminance of the pixel is reduced by the determined reduction amount.
  • the luminance can be reduced.
  • FIG. 1 It is a block diagram showing an example of composition of a 1st embodiment of an image processing device to which this indication is applied. It is a figure which shows the 1st example of the reduction amount when the characteristic of each pixel of an input image is an edge degree. It is a figure which shows the 2nd example of the reduction amount when the characteristic of each pixel of an input image is an edge degree.
  • 2 is a flowchart illustrating image processing of the image processing apparatus in FIG. 1. It is a block diagram which shows the structural example of 2nd Embodiment of the image processing apparatus to which this indication is applied. It is a figure which shows the example of an amplification gain in case metadata is an external light quantity. It is a figure which shows the example of the input image in which AC component was amplified.
  • FIG. 20 is a block diagram illustrating a configuration example of a third embodiment of an image processing apparatus to which the present disclosure is applied.
  • 13 is a flowchart illustrating image processing of the image processing apparatus in FIG. 12. It is a block diagram which shows the structural example of the hardware of a computer. It is a figure which shows the example of schematic structure of the television apparatus to which this indication is applied.
  • First embodiment image processing apparatus (FIGS. 1 to 4) 2.
  • Second Embodiment Image Processing Device (FIGS. 5 to 11) 3.
  • Third embodiment image processing apparatus (FIGS. 12 and 13) 4).
  • Fourth Embodiment Computer (FIG. 14) 5.
  • Fifth embodiment Television apparatus (FIG. 15) 6).
  • Sixth embodiment mobile phone (FIG. 16) 7).
  • Seventh embodiment recording / reproducing apparatus (FIG. 17) 8).
  • FIG. 1 is a block diagram illustrating a configuration example of a first embodiment of an image processing apparatus to which the present disclosure is applied.
  • the image processing apparatus 10 in FIG. 1 includes an extraction unit 11, a determination unit 12, a deletion unit 13, and a display unit 14.
  • the image processing apparatus 10 reduces the power consumption of the display unit 14 by reducing the luminance of an image input from the outside (hereinafter referred to as an input image).
  • the extraction unit 11 of the image processing apparatus 10 extracts features of each pixel of the input image.
  • the characteristics of each pixel of the input image include the contrast, brightness, color, positional relationship with the region of interest, position in the screen, amount of motion, bandwidth, edge degree, and the like.
  • the positional relationship of a pixel with the attention area indicates whether or not the pixel is in the attention area.
  • the edge degree represents the degree of being an edge region or a texture region, and is determined based on a high frequency component.
  • the extraction unit 11 supplies the extracted feature of each pixel to the determination unit 12.
  • the determining unit 12 determines, for each pixel of the input image, a reduction amount of the luminance of the input image based on the feature supplied from the extracting unit 11 and the metadata regarding the display of the image input from the outside.
  • the remaining power of a battery (not shown) that supplies power to the display unit 14, the amount of external light, the brightness adjustment mode, the type of application for displaying the input image, and the final operation of the user during the display of the input image Elapsed time, display orientation, display position on the screen, background color, character color, etc.
  • the brightness adjustment mode there are strong, medium, and weak modes in the order of wide allowable range according to the allowable range of change in luminance of the input image.
  • the determination unit 12 supplies the reduction amount of each pixel to the deletion unit 13.
  • the deletion unit 13 reduces the luminance of the input image by the reduction amount supplied from the determination unit 12 for each pixel of the input image.
  • the deletion unit 13 supplies an input image in which the luminance of each pixel is reduced to the display unit 14 as an output image.
  • the display unit 14 displays the output image supplied from the deletion unit 13. Since the luminance of each pixel of the output image is smaller than the luminance of each pixel of the input image, the power consumption of the display unit 14 is smaller than when the input image is displayed.
  • FIG. 2 is a diagram illustrating a first example of the reduction amount when the feature of each pixel of the input image is the edge degree.
  • the horizontal axis in FIG. 2 represents the edge degree, and the vertical axis represents the reduction amount.
  • the solid line represents the amount of reduction when the remaining amount of battery as metadata is small, and the dotted line represents the amount of reduction when the remaining amount of battery is large. The same applies to FIG. 3 described later.
  • the reduction amount is determined so as to increase as the edge degree increases in the range D1 and to be constant outside the range D1. Further, when the remaining amount of the battery is small, the reduction amount is determined so as to be larger by a predetermined amount than when the remaining amount is large.
  • the reduction amount of the edge region and the texture region where the change in luminance in the input image is not noticeable is larger than that in the flat region where the change in luminance is conspicuous. Further, when the remaining amount of the battery is small and the power consumption of the display unit 14 needs to be further reduced, the amount of reduction becomes larger than when the remaining amount of the battery is large.
  • FIG. 3 is a diagram illustrating a second example of the reduction amount when the feature of each pixel of the input image is the edge degree.
  • the reduction amount is determined so as to increase as the edge degree increases in the range D1 and to be constant outside the range D1.
  • the difference in the amount of reduction due to the remaining battery level is increased as the edge degree increases in the range D1.
  • the difference in the reduction amount due to the remaining battery level of the pixels with the edge degree smaller than the range D1 is smaller than the difference between the pixels with the edge degree larger than the range D1.
  • the reduction amount of the edge region and the texture region in which the luminance change is not conspicuous in the input image is larger than the flat region in which the luminance change is conspicuous. Further, when the remaining amount of the battery is small and the power consumption of the display unit 14 needs to be further reduced, the amount of reduction becomes larger than when the remaining amount of the battery is large.
  • the luminance of the image is uniformly multiplied by a gain smaller than 1.
  • the flat area becomes brighter than the image with reduced luminance. Therefore, the overall impression is brightened.
  • the texture area and the edge area become darker than the image in which the brightness is reduced by multiplying the brightness of the image uniformly by a gain smaller than 1. Therefore, the texture area and the edge area appear clear.
  • the contrast as the feature of each pixel of the input image is high, the luminance is small, the color is vivid, the position relationship with the attention area is outside the attention area, the position in the screen is below,
  • the amount of reduction is increased for a pixel with a small amount of motion, that is, a pixel whose change in luminance is not noticeable.
  • the reduction amount is increased when the external light amount as metadata is small, or when the brightness adjustment mode is a strong mode.
  • FIG. 4 is a flowchart for explaining image processing of the image processing apparatus 10 of FIG. This image processing is started, for example, when an input image is input to the image processing apparatus 10.
  • the extraction unit 11 of the image processing apparatus 10 extracts the feature of each pixel of the input image and supplies the extracted feature of each pixel to the determination unit 12.
  • step S12 the determination unit 12 determines the reduction amount of the luminance of the input image for each pixel of the input image, based on the feature supplied from the extraction unit 11 and the metadata input from the outside.
  • the determination unit 12 supplies the reduction amount of each pixel to the deletion unit 13.
  • step S13 the deletion unit 13 reduces the luminance of the input image for each pixel of the input image by the reduction amount supplied from the determination unit 12.
  • the deletion unit 13 supplies an input image in which the luminance of each pixel is reduced to the display unit 14 as an output image.
  • step S14 the display unit 14 displays the output image supplied from the deletion unit 13. Then, the process ends.
  • the image processing apparatus 10 determines a reduction amount for each pixel of the input image based on the characteristics of the pixel, and reduces the luminance by the reduction amount. Therefore, the image processing apparatus 10 can suppress degradation of the image quality of the output image by reducing the reduction amount corresponding to the feature of the pixel in which the luminance change is conspicuous. Moreover, since the image processing apparatus 10 displays the output image in which the luminance of each pixel of the input image is reduced on the display unit 14, the power consumption of the display unit 14 can be reduced. That is, the image processing apparatus 10 can suppress deterioration in image quality when reducing the power consumption of the display unit by reducing the luminance of the input image.
  • the deletion unit 13 may reduce the luminance according to the operation mode of the image processing apparatus 10. For example, the deletion unit 13 may reduce the luminance only when the operation mode is a mode for reducing the power consumption of the display unit 14.
  • the operation mode can be set, for example, by the user or determined according to the remaining battery level.
  • the determination unit 12 may determine the reduction amount for each block including a plurality of pixels, not for each pixel.
  • FIG. 5 is a block diagram illustrating a configuration example of the second embodiment of the image processing apparatus to which the present disclosure is applied.
  • the image processing device 30 reduces the power consumption of the display unit 14 by amplifying and reducing the AC (Alternating Current) component of the luminance of the input image.
  • the amplifying unit 31 of the image processing apparatus 30 compensates for the AC component by amplifying the AC component of the luminance of the input image with an amplification gain based on metadata relating to the display of the input image input from the outside. To do.
  • an AC component amplification method for example, a first method for amplifying the AC component using a second-order differential filter, or a second method for amplifying the AC component while adjusting the amplification gain based on the polarity of the second-order derivative of the input image. And a third method for adjusting the correction amount based on the waveform of the first derivative of the input image.
  • the metadata is the same as the metadata of the first embodiment, for example.
  • the amplifying unit 31 supplies the input image with the AC component amplified to the reducing unit 32.
  • the reduction unit 32 reduces the luminance by uniformly multiplying the luminance of the input image supplied from the amplification unit 31 by a gain smaller than 1.
  • the reduction unit 32 supplies the input image whose luminance has been reduced to the display unit 14 as an output image.
  • FIG. 6 is a diagram illustrating an example of the amplification gain when the metadata is an external light amount.
  • the horizontal axis represents the amount of external light
  • the vertical axis represents the amplification gain
  • the amplification gain is determined so that it increases as the amount of external light increases in the range D2, and is constant outside the range D2. Therefore, when the amount of external light is large and the output image is poorly visible, the amplification gain is larger than when the external light amount is small and the visibility of the output image is good.
  • FIG. 6 illustrates the case where the metadata is an external light amount
  • the amplification gain is similarly determined based on the metadata for other metadata.
  • FIG. 7 is a diagram illustrating an example of an input image in which an AC component is amplified.
  • FIG. 7 represents the horizontal position of the pixel, and the vertical axis represents the luminance of the pixel. Further, the dotted line in FIG. 7 represents the luminance of the input image in which the AC component is amplified by the amplification method without overshoot, and the solid line represents the luminance of the input image in which the AC component is amplified by the first method. A dashed-dotted line in FIG. 7 represents the luminance of the input image in which the AC component is amplified by the second or third method.
  • the dynamic range DR2 of the edge region of the input image amplified by the first method is the same as that of the input image amplified by the amplification method without overshooting as shown by the dotted line in FIG. Larger than the dynamic range DR1 of the edge region. Therefore, the amplifying unit 31 can increase the contrast of the edge region of the input image by performing the amplification by the first method as compared with the method that does not add overshoot. However, when amplification is performed by the first method, the maximum luminance of the edge region is larger than that in the method without overshooting, so that the power consumption of the display unit 14 is increased.
  • the brightness P1 of the edge region of the input image amplified by the second or third method is amplified by an amplification method without overshooting as shown by the dotted line in FIG. It is smaller than the brightness P2 of the edge region of the input image. Therefore, the amplification unit 31 can reduce the power consumption of the display unit 14 by performing amplification using the second or third method, compared to a method that does not add overshoot.
  • the luminance gradient of the edge region of the input image amplified by the second or third method is an amplification method that does not cause overshoot as indicated by the dotted line in FIG. This is steeper than the luminance gradient of the edge region of the amplified input image. Therefore, the amplifying unit 31 can increase the contrast by performing the amplification by the second or third method as compared with the method without adding the overshoot.
  • FIG. 8 is a diagram illustrating the principle of the effect of the image processing apparatus 30.
  • FIGS. 9 and 10 represent the position of the pixels arranged in the horizontal direction, and the vertical axis represents the luminance of the pixel. The same applies to FIGS. 9 and 10 described later.
  • the output image generated from the texture area of the input image indicated by the solid line on the left side of FIG. 8 is as indicated by the solid line on the right side of FIG. That is, in this case, the average value, which is the DC component of the luminance of the input image, is reduced by multiplication by a gain smaller than 1, but the local dynamic range, which is the AC component, is compensated for by amplification of the AC component. As a result, the power consumption of the display unit 14 is reduced, but a decrease in local contrast is suppressed.
  • the local dynamic range is larger than the input image. Therefore, the local contrast of the output image is higher than that of the input image.
  • the maximum brightness PM1 of the output image is larger than the maximum brightness PM2 of the input image.
  • an output image generated for a certain input image is, for example, as shown in FIG. That is, in the texture region represented by the left waveform in FIG. 9, the local luminance dynamic range DR3 is substantially the same as that of the input image with respect to the input image indicated by the solid line in FIG. 9, but the luminance average value is small. An output image indicated by a dotted line 9 is generated.
  • the AC component of the luminance of the input image is amplified by the first method.
  • the input image indicated by the solid line in FIG. An output image indicated by a dotted line in FIG. 9 with an overshoot is generated.
  • the luminance dynamic range DR4 is substantially the same as that of the input image also in the edge region. Therefore, in this case, the power consumption of the display unit 14 is reduced, but the contrast is not lowered.
  • the luminance dynamic range of the edge region of the output image is not the same as that of the input image. Since the slope of the region becomes steep, the contrast does not decrease as in the first method.
  • an image obtained by reducing the luminance by uniformly multiplying the input image indicated by the solid line in FIG. 9 by a gain smaller than 1 without amplifying the AC component of the luminance is, for example, a dotted line in FIG.
  • the solid line in FIG. 10 is the same as the solid line in FIG. 9 and shows the input image.
  • the average image of the input image after the uniform reduction of the luminance is smaller than the input image shown by the solid line in FIG.
  • the local dynamic range DR5 of the texture region of the input image after uniform reduction of the luminance is also the local dynamic range DR6 of the texture region of the input image, and the local dynamic range DR4 of the texture region of the input image. Smaller than Therefore, in this case, the power consumption of the display unit 14 is reduced, but the contrast is also lowered.
  • FIG. 11 is a flowchart illustrating image processing of the image processing apparatus 30 in FIG. This image processing is started, for example, when an input image is input to the image processing device 30.
  • the amplifying unit 31 of the image processing device 30 compensates the AC component by amplifying the AC component of the luminance of the input image with an amplification gain based on metadata input from the outside.
  • the amplifying unit 31 supplies the input image obtained by amplifying the luminance AC component to the reducing unit 32.
  • step S32 the reduction unit 32 reduces the luminance by uniformly multiplying the luminance of the input image obtained by amplifying the luminance AC component supplied from the amplification unit 31 by a gain smaller than one.
  • the reduction unit 32 supplies the input image whose luminance has been reduced to the display unit 14 as an output image.
  • step S33 the display unit 14 displays the output image supplied from the reduction unit 32. Then, the process ends.
  • the image processing apparatus 30 amplifies the AC component of the luminance of the input image, and uniformly reduces the luminance of the amplified input image with a gain smaller than 1. Therefore, the power consumption of the display unit 14 can be reduced. In addition, it is possible to suppress a decrease in local contrast due to luminance reduction, and to further improve the contrast.
  • the image processing device 30 may perform luminance AC component compensation and luminance reduction in accordance with the operation mode of the image processing device 30. For example, only when the operation mode is a mode for reducing the power consumption of the display unit 14, the amplifying unit 31 may compensate the luminance AC component, and the reducing unit 32 may reduce the luminance.
  • the operation mode can be set, for example, by the user or determined according to the remaining battery level.
  • FIG. 12 is a block diagram illustrating a configuration example of a third embodiment of an image processing apparatus to which the present disclosure is applied.
  • the configuration of the image processing apparatus 50 in FIG. 12 is different from the configuration in FIG. 1 in that an amplification unit 31 and a reduction unit 51 are provided instead of the reduction unit 13.
  • the image processing device 50 is a combination of the image processing device 10 and the image processing device 30, and reduces the luminance of the input image obtained by amplifying the luminance AC component for each pixel of the input image by a reduction amount.
  • the reduction unit 51 of the image processing apparatus 50 reduces the luminance of each pixel of the input image whose luminance AC component is amplified by the amplification unit 31 by the reduction amount of the pixel determined by the determination unit 12. To do.
  • the reduction unit 51 supplies the input image after reduction to the display unit 14 as an output image.
  • FIG. 13 is a flowchart for explaining image processing of the image processing apparatus 50 of FIG. This image processing is started, for example, when an input image is input to the image processing apparatus 50.
  • the extraction unit 11 of the image processing apparatus 50 extracts the feature of each pixel of the input image and supplies the extracted feature of each pixel to the determination unit 12.
  • step S52 the determination unit 12 determines the reduction amount of the luminance of the input image for each pixel of the input image, based on the feature supplied from the extraction unit 11 and the metadata input from the outside.
  • the determination unit 12 supplies the reduction amount of each pixel to the reduction unit 51.
  • step S53 the amplifying unit 31 compensates the AC component by amplifying the AC component of the luminance of the input image with an amplification gain based on metadata input from the outside.
  • the amplifying unit 31 supplies the input image obtained by amplifying the luminance AC component to the reducing unit 51.
  • step S54 the reduction unit 51 reduces the luminance of each pixel of the input image obtained by amplifying the luminance AC component supplied from the amplification unit 31 by the reduction amount of the pixel supplied from the determination unit 12.
  • the reduction unit 51 supplies the input image after reduction to the display unit 14 as an output image.
  • step S55 the display unit 14 displays the output image supplied from the reduction unit 51. Then, the process ends.
  • the image processing apparatus 50 amplifies the AC component of the luminance of the input image, and reduces the luminance of each pixel of the amplified input image by a reduction amount based on the feature of the pixel. Therefore, the image processing apparatus 50 can suppress the degradation of the image quality of the output image, as with the image processing apparatus 10. Similarly to the image processing device 30, the image processing device 50 can suppress a decrease in local contrast due to a reduction in luminance or can further improve the contrast. Furthermore, the image processing apparatus 50 can suppress the power consumption of the display unit 14, as with the image processing apparatus 10 and the image processing apparatus 30.
  • the signal system of the input image is not particularly limited as long as the pixel value corresponds to the luminance.
  • the input image can be, for example, an RGB signal, a YCbCr signal, or a YUV signal.
  • ⁇ Fourth embodiment> (Description of computer to which the present disclosure is applied)
  • the series of processes described above can be executed by hardware such as LSI (Large Scale Integration), or can be executed by software.
  • LSI Large Scale Integration
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 14 is a block diagram showing an example of a hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 205 is further connected to the bus 204.
  • An input unit 206, an output unit 207, a storage unit 208, a communication unit 209, and a drive 210 are connected to the input / output interface 205.
  • the input unit 206 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 207 includes a display, a speaker, and the like.
  • the storage unit 208 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 209 includes a network interface and the like.
  • the drive 210 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 201 loads the program stored in the storage unit 208 to the RAM 203 via the input / output interface 205 and the bus 204 and executes the program. A series of processing is performed.
  • the program executed by the computer 200 can be provided by being recorded in, for example, a removable medium 211 such as a package medium.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 208 via the input / output interface 205 by attaching the removable medium 211 to the drive 210.
  • the program can be received by the communication unit 209 via a wired or wireless transmission medium and installed in the storage unit 208.
  • the program can be installed in the ROM 202 or the storage unit 208 in advance.
  • the program executed by the computer 200 may be a program that is processed in time series in the order described in this specification, or a necessary timing such as in parallel or when a call is made. It may be a program in which processing is performed.
  • the above-described processing may be performed by the GPU instead of the CPU 201.
  • FIG. 15 illustrates a schematic configuration of a television apparatus to which the present disclosure is applied.
  • the television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, and an external interface unit 909. Furthermore, the television apparatus 900 includes a control unit 910, a user interface unit 911, and the like.
  • the tuner 902 selects a desired channel from the broadcast wave signal received by the antenna 901, demodulates it, and outputs the obtained encoded bit stream to the demultiplexer 903.
  • the demultiplexer 903 extracts video and audio packets of the program to be viewed from the encoded bit stream, and outputs the extracted packet data to the decoder 904. Further, the demultiplexer 903 supplies a packet of data such as EPG (Electronic Program Guide) to the control unit 910. If scrambling is being performed, descrambling is performed by a demultiplexer or the like.
  • EPG Electronic Program Guide
  • the decoder 904 performs packet decoding processing, and outputs video data generated by the decoding processing to the video signal processing unit 905 and audio data to the audio signal processing unit 907.
  • the video signal processing unit 905 performs noise removal, video processing according to user settings, and the like on the video data.
  • the video signal processing unit 905 generates video data of a program to be displayed on the display unit 906, image data by processing based on an application supplied via a network, and the like.
  • the video signal processing unit 905 generates video data for displaying a menu screen for selecting an item and the like, and superimposes the video data on the video data of the program.
  • the video signal processing unit 905 generates a drive signal based on the video data generated in this way, and drives the display unit 906.
  • the display unit 906 drives a display device (for example, a liquid crystal display element or the like) based on a drive signal from the video signal processing unit 905 to display a program video or the like.
  • a display device for example, a liquid crystal display element or the like
  • the audio signal processing unit 907 performs predetermined processing such as noise removal on the audio data, performs D / A conversion processing and amplification processing on the processed audio data, and outputs the audio data to the speaker 908.
  • the external interface unit 909 is an interface for connecting to an external device or a network, and transmits and receives data such as video data and audio data.
  • a user interface unit 911 is connected to the control unit 910.
  • the user interface unit 911 includes an operation switch, a remote control signal receiving unit, and the like, and supplies an operation signal corresponding to a user operation to the control unit 910.
  • the control unit 910 is configured using a CPU (Central Processing Unit), a memory, and the like.
  • the memory stores a program executed by the CPU, various data necessary for the CPU to perform processing, EPG data, data acquired via a network, and the like.
  • the program stored in the memory is read and executed by the CPU at a predetermined timing such as when the television device 900 is activated.
  • the CPU executes each program to control each unit so that the television device 900 operates in accordance with the user operation.
  • the television device 900 includes a bus 912 for connecting the tuner 902, the demultiplexer 903, the video signal processing unit 905, the audio signal processing unit 907, the external interface unit 909, and the control unit 910.
  • the video signal processing unit 905 is provided with the function of the image processing apparatus (image processing method) of the present application. For this reason, when reducing the power consumption of a display part by reducing the brightness
  • FIG. 16 illustrates a schematic configuration of a mobile phone to which the present disclosure is applied.
  • the cellular phone 920 includes a communication unit 922, an audio codec 923, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, and a control unit 931. These are connected to each other via a bus 933.
  • an antenna 921 is connected to the communication unit 922, and a speaker 924 and a microphone 925 are connected to the audio codec 923. Further, an operation unit 932 is connected to the control unit 931.
  • the mobile phone 920 performs various operations such as transmission / reception of voice signals, transmission / reception of e-mail and image data, image shooting, and data recording in various modes such as a voice call mode and a data communication mode.
  • the voice signal generated by the microphone 925 is converted into voice data and compressed by the voice codec 923 and supplied to the communication unit 922.
  • the communication unit 922 performs audio data modulation processing, frequency conversion processing, and the like to generate a transmission signal.
  • the communication unit 922 supplies a transmission signal to the antenna 921 and transmits it to a base station (not shown).
  • the communication unit 922 performs amplification, frequency conversion processing, demodulation processing, and the like of the reception signal received by the antenna 921, and supplies the obtained audio data to the audio codec 923.
  • the audio codec 923 performs data expansion of the audio data and conversion into an analog audio signal and outputs the result to the speaker 924.
  • the control unit 931 receives character data input by operating the operation unit 932 and displays the input characters on the display unit 930.
  • the control unit 931 generates mail data based on a user instruction or the like in the operation unit 932 and supplies the mail data to the communication unit 922.
  • the communication unit 922 performs mail data modulation processing, frequency conversion processing, and the like, and transmits the obtained transmission signal from the antenna 921.
  • the communication unit 922 performs amplification, frequency conversion processing, demodulation processing, and the like of the reception signal received by the antenna 921, and restores mail data. This mail data is supplied to the display unit 930 to display the mail contents.
  • the mobile phone 920 can also store the received mail data in a storage medium by the recording / playback unit 929.
  • the storage medium is any rewritable storage medium.
  • the storage medium is a removable memory such as a RAM, a semiconductor memory such as a built-in flash memory, a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB (Universal Serial Bus) memory, or a memory card.
  • the image data generated by the camera unit 926 is supplied to the image processing unit 927.
  • the image processing unit 927 performs encoding processing of image data and generates encoded data.
  • the demultiplexing unit 928 multiplexes the encoded data generated by the image processing unit 927 and the audio data supplied from the audio codec 923 by a predetermined method, and supplies the multiplexed data to the communication unit 922.
  • the communication unit 922 performs modulation processing and frequency conversion processing of multiplexed data, and transmits the obtained transmission signal from the antenna 921.
  • the communication unit 922 performs amplification, frequency conversion processing, demodulation processing, and the like of the reception signal received by the antenna 921, and restores multiplexed data. This multiplexed data is supplied to the demultiplexing unit 928.
  • the demultiplexing unit 928 performs demultiplexing of the multiplexed data, and supplies the encoded data to the image processing unit 927 and the audio data to the audio codec 923.
  • the image processing unit 927 performs a decoding process on the encoded data to generate image data.
  • the image data is supplied to the display unit 930 and the received image is displayed.
  • the audio codec 923 converts the audio data into an analog audio signal, supplies the analog audio signal to the speaker 924, and outputs the received audio.
  • the image processing unit 927 is provided with the function of the image processing device (image processing method) of the present application. For this reason, when reducing the power consumption of a display part by reducing the brightness
  • FIG. 17 illustrates a schematic configuration of a recording / reproducing apparatus to which the present disclosure is applied.
  • the recording / reproducing apparatus 940 records, for example, audio data and video data of a received broadcast program on a recording medium, and provides the recorded data to the user at a timing according to a user instruction.
  • the recording / reproducing device 940 can also acquire audio data and video data from another device, for example, and record them on a recording medium. Further, the recording / reproducing apparatus 940 decodes and outputs the audio data and video data recorded on the recording medium, thereby enabling image display and audio output on the monitor apparatus or the like.
  • the recording / reproducing apparatus 940 includes a tuner 941, an external interface unit 942, an encoder 943, an HDD (Hard Disk Drive) unit 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) unit 948, a control unit 949, A user interface unit 950 is included.
  • Tuner 941 selects a desired channel from a broadcast signal received by an antenna (not shown).
  • the tuner 941 outputs an encoded bit stream obtained by demodulating the received signal of a desired channel to the selector 946.
  • the external interface unit 942 includes at least one of an IEEE 1394 interface, a network interface unit, a USB interface, a flash memory interface, and the like.
  • the external interface unit 942 is an interface for connecting to an external device, a network, a memory card, and the like, and receives data such as video data and audio data to be recorded.
  • the encoder 943 performs encoding by a predetermined method when the video data and audio data supplied from the external interface unit 942 are not encoded, and outputs an encoded bit stream to the selector 946.
  • the HDD unit 944 records content data such as video and audio, various programs, and other data on a built-in hard disk, and reads them from the hard disk during playback.
  • the disk drive 945 records and reproduces signals with respect to the mounted optical disk.
  • An optical disk such as a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.), a Blu-ray (registered trademark) disk, or the like.
  • the selector 946 selects one of the encoded bit streams from the tuner 941 or the encoder 943 and supplies it to either the HDD unit 944 or the disk drive 945 when recording video or audio. Further, the selector 946 supplies the encoded bit stream output from the HDD unit 944 or the disk drive 945 to the decoder 947 at the time of reproduction of video and audio.
  • the decoder 947 performs a decoding process on the encoded bit stream.
  • the decoder 947 supplies the video data generated by performing the decoding process to the OSD unit 948.
  • the decoder 947 outputs audio data generated by performing the decoding process.
  • the OSD unit 948 generates video data for displaying a menu screen for selecting an item and the like, and superimposes it on the video data output from the decoder 947 and outputs the video data.
  • a user interface unit 950 is connected to the control unit 949.
  • the user interface unit 950 includes an operation switch, a remote control signal receiving unit, and the like, and supplies an operation signal corresponding to a user operation to the control unit 949.
  • the control unit 949 is configured using a CPU, a memory, and the like.
  • the memory stores programs executed by the CPU and various data necessary for the CPU to perform processing.
  • the program stored in the memory is read and executed by the CPU at a predetermined timing such as when the recording / reproducing apparatus 940 is activated.
  • the CPU executes the program to control each unit so that the recording / reproducing device 940 operates according to the user operation.
  • the decoder 947 is provided with the function of the image processing apparatus (image processing method) of the present application. For this reason, when reducing the power consumption of a display part by reducing the brightness
  • FIG. 18 illustrates a schematic configuration of an imaging apparatus to which the present disclosure is applied.
  • the imaging device 960 images a subject, displays an image of the subject on a display unit, and records it on a recording medium as image data.
  • the imaging device 960 includes an optical block 961, an imaging unit 962, a camera signal processing unit 963, an image data processing unit 964, a display unit 965, an external interface unit 966, a memory unit 967, a media drive 968, an OSD unit 969, and a control unit 970. Have. In addition, a user interface unit 971 is connected to the control unit 970. Furthermore, the image data processing unit 964, the external interface unit 966, the memory unit 967, the media drive 968, the OSD unit 969, the control unit 970, and the like are connected via a bus 972.
  • the optical block 961 is configured using a focus lens, a diaphragm mechanism, and the like.
  • the optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962.
  • the imaging unit 962 is configured using a CCD or CMOS image sensor, generates an electrical signal corresponding to the optical image by photoelectric conversion, and supplies the electrical signal to the camera signal processing unit 963.
  • the camera signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the electrical signal supplied from the imaging unit 962.
  • the camera signal processing unit 963 supplies the image data after the camera signal processing to the image data processing unit 964.
  • the image data processing unit 964 performs an encoding process on the image data supplied from the camera signal processing unit 963.
  • the image data processing unit 964 supplies the encoded data generated by performing the encoding process to the external interface unit 966 and the media drive 968. Further, the image data processing unit 964 performs a decoding process on the encoded data supplied from the external interface unit 966 and the media drive 968.
  • the image data processing unit 964 supplies the image data generated by performing the decoding process to the display unit 965. Further, the image data processing unit 964 superimposes the processing for supplying the image data supplied from the camera signal processing unit 963 to the display unit 965 and the display data acquired from the OSD unit 969 on the image data. To supply.
  • the OSD unit 969 generates display data such as a menu screen and icons made up of symbols, characters, or figures and outputs them to the image data processing unit 964.
  • the external interface unit 966 includes, for example, a USB input / output terminal, and is connected to a printer when printing an image.
  • a drive is connected to the external interface unit 966 as necessary, a removable medium such as a magnetic disk or an optical disk is appropriately mounted, and a computer program read from them is installed as necessary.
  • the external interface unit 966 has a network interface connected to a predetermined network such as a LAN or the Internet.
  • the control unit 970 reads encoded data from the media drive 968 in accordance with an instruction from the user interface unit 971, and supplies the encoded data to the other device connected via the network from the external interface unit 966. it can.
  • the control unit 970 may acquire encoded data and image data supplied from another device via the network via the external interface unit 966 and supply the acquired data to the image data processing unit 964. it can.
  • any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory is used.
  • the recording medium may be any type of removable medium, and may be a tape device, a disk, or a memory card. Of course, a non-contact IC (Integrated Circuit) card may be used.
  • media drive 968 and the recording medium may be integrated and configured by a non-portable storage medium such as a built-in hard disk drive or an SSD (Solid State Drive).
  • a non-portable storage medium such as a built-in hard disk drive or an SSD (Solid State Drive).
  • the control unit 970 is configured using a CPU.
  • the memory unit 967 stores a program executed by the control unit 970, various data necessary for the control unit 970 to perform processing, and the like.
  • the program stored in the memory unit 967 is read and executed by the control unit 970 at a predetermined timing such as when the imaging device 960 is activated.
  • the control unit 970 controls each unit so that the imaging device 960 performs an operation according to a user operation by executing a program.
  • the image data processing unit 964 is provided with the function of the image processing apparatus (image processing method) of the present application. For this reason, when reducing the power consumption of a display part by reducing the brightness
  • the present disclosure can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is processed jointly.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this indication can also take the following structures.
  • a determining unit that determines a reduction amount of luminance of the pixel based on a feature of each pixel of the image;
  • An image processing apparatus comprising: a reduction unit that reduces the luminance of the pixels by the reduction amount determined by the determination unit.
  • the determination unit is configured to determine the amount of reduction based on data related to display of the image and the characteristics.
  • An amplifying unit for amplifying an AC (Alternating Current) component of the image The image processing apparatus according to (1) or (2), wherein the reduction unit is configured to reduce the luminance of the pixel of the image in which the AC component is amplified by the amplification unit by the reduction amount.
  • the image processing apparatus configured to amplify the AC component with a gain based on data related to display of the image.
  • the amplifying unit is configured to amplify the AC component using a second-order differential filter.
  • the amplifying unit is configured to amplify the AC component based on a polarity of a second-order derivative of the image.
  • the amplifying unit is configured to amplify the AC component based on a first-order differential waveform of the image.
  • the image processing apparatus according to any one of (1) to (7), wherein the reduction unit is configured to perform the reduction according to an operation mode.
  • the determination unit is configured to determine the amount of reduction of the pixel based on a feature of each pixel of the image extracted by the extraction unit.
  • the image processing device A determination step for determining a reduction amount of luminance of the pixel based on a feature of each pixel of the image; A reduction step of reducing the luminance of the pixels by the reduction amount determined by the processing of the determination step.
  • Computer A determining unit that determines a reduction amount of luminance of the pixel based on a feature of each pixel of the image; A program for functioning as a reduction unit that reduces the luminance of the pixel by the reduction amount determined by the determination unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Television Receiver Circuits (AREA)

Abstract

 本開示は、画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができるようにする画像処理装置、画像処理方法、およびプログラムに関する。 決定部は、入力画像の各画素の特徴に基づいて、その画素の輝度の削減量を決定する。削減部は、決定部により決定された削減量だけ入力画像の画素の輝度を削減する。本開示は、例えば、入力画像の各画素の特徴に基づいて、その画素の輝度を削減し、輝度削減後の入力画像を表示する画像処理装置等に適用することができる。

Description

画像処理装置、画像処理方法、およびプログラム
 本開示は、画像処理装置、画像処理方法、およびプログラムに関し、特に、画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができるようにした画像処理装置、画像処理方法、およびプログラムに関する。
 ディスプレイの消費電力を低減する技術は、特にスマートフォン、タブレット端末等のバッテリで駆動するモバイル機器の長時間使用において重要な技術である。LCD(Liquid Crystal Display)の消費電力を低減する技術としては、輝度値とバックライトの輝度の積算で観測値に近づくようにすることで、バックライトの輝度を極力下げる技術がある(例えば、特許文献1参照)。しかしながら、この技術は、OLED(Organic light-Emitting Diode)ディスプレイなどの自発光型ディスプレイに適用することはできない。
 自発光型ディスプレイの消費電力を低減する技術としては、画像の輝度に一律に1より小さいゲインを乗算することにより輝度を削減する技術や、所定の特徴を有する領域の輝度を削減する技術(例えば、特許文献2参照)などがある。
 しかしながら、画像の輝度に一律に1より小さいゲインを乗算することにより輝度を削減する技術では、画像が全体的に暗くなってしまう。また、所定の特徴を有する領域の輝度を削減する技術では、輝度の削減量を細かく制御することができないため、画質は劣化する。
 また、自発光型ディスプレイの消費電力を低減する技術としては、トーンカーブを制御する技術もあるが、画面全体のコントラストが高くなり過ぎる。
特開2013-104912号公報 特開2011-2520号公報
 以上のように、画像の輝度を削減することにより表示部の消費電力を低減する場合、画質は劣化する。
 本開示は、このような状況に鑑みてなされたものであり、画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができるようにするものである。
 本開示の一側面の画像処理装置は、画像の各画素の特徴に基づいて、その画素の輝度の削減量を決定する決定部と、前記決定部により決定された前記削減量だけ前記画素の輝度を削減する削減部とを備える画像処理装置である。
 本開示の一側面の画像処理方法およびプログラムは、本開示の一側面の画像処理装置に対応する。
 本開示の一側面においては、画像の各画素の特徴に基づいて、その画素の輝度の削減量が決定され、決定された前記削減量だけ前記画素の輝度が削減される。
 本開示の一側面によれば、輝度を削減することができる。また、本開示の一側面によれば、画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。 入力画像の各画素の特徴がエッジ度である場合の削減量の第1の例を示す図である。 入力画像の各画素の特徴がエッジ度である場合の削減量の第2の例を示す図である。 図1の画像処理装置の画像処理を説明するフローチャートである。 本開示を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。 メタデータが外光量である場合の増幅ゲインの例を示す図である。 AC成分が増幅された入力画像の例を示す図である。 画像処理装置による効果の原理を示す図である。 入力画像と出力画像の輝度の例を示す図である。 入力画像と輝度の一律削減後の入力画像の輝度の例を示す図である。 図5の画像処理装置の画像処理を説明するフローチャートである。 本開示を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。 図12の画像処理装置の画像処理を説明するフローチャートである。 コンピュータのハードウエアの構成例を示すブロック図である。 本開示を適用したテレビジョン装置の概略構成例を示す図である。 本開示を適用した携帯電話機の概略構成例を示す図である。 本開示を適用した記録再生装置の概略構成例を示す図である。 本開示を適用した撮像装置の概略構成例を示す図である。
 以下、本開示の前提および本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.第1実施の形態:画像処理装置(図1乃至図4)
 2.第2実施の形態:画像処理装置(図5乃至図11)
 3.第3実施の形態:画像処理装置(図12および図13)
 4.第4実施の形態:コンピュータ(図14)
 5.第5実施の形態:テレビジョン装置(図15)
 6.第6実施の形態:携帯電話機(図16)
 7.第7実施の形態:記録再生装置(図17)
 8.第8実施の形態:撮像装置(図18)
 <第1実施の形態>
 (画像処理装置の第1実施の形態の構成例)
 図1は、本開示を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。
 図1の画像処理装置10は、抽出部11、決定部12、削除部13、および表示部14により構成される。画像処理装置10は、外部から入力される画像(以下、入力画像という)の輝度を削減することにより、表示部14の消費電力を低減する。
 具体的には、画像処理装置10の抽出部11は、入力画像の各画素の特徴を抽出する。入力画像の各画素の特徴としては、その画素のコントラスト、輝度、色、注目領域との位置関係、画面内の位置、動き量、帯域、エッジ度などがある。画素の注目領域との位置関係とは、その画素が注目領域内にあるかどうかを表すものである。また、エッジ度は、エッジ領域やテクスチャ領域である度合を表すものであり、高周波成分に基づいて決定される。抽出部11は、抽出された各画素の特徴を決定部12に供給する。
 決定部12は、入力画像の画素ごとに、抽出部11から供給される特徴と外部から入力される画像の表示に関するメタデータとに基づいて、入力画像の輝度の削減量を決定する。
 メタデータとしては、表示部14に電力を供給する図示せぬ電池の残量、外光量、明るさ調整モード、入力画像の表示を実行するアプリケーションの種類、入力画像の表示中のユーザの最終操作からの経過時間、表示向き、画面内の表示位置、背景色、文字色などがある。明るさ調整モードとしては、入力画像の輝度の変化の許容範囲に応じて、許容範囲の広い順に強、中、弱のモードがある。決定部12は、各画素の削減量を削除部13に供給する。
 削除部13は、入力画像の画素ごとに、決定部12から供給される削減量だけ入力画像の輝度を削減する。削除部13は、各画素の輝度が削減された入力画像を出力画像として表示部14に供給する。
 表示部14は、削除部13から供給される出力画像を表示する。出力画像の各画素の輝度は、入力画像の各画素の輝度より小さいため、表示部14の消費電力は、入力画像を表示する場合に比べて小さい。
 (削減量の第1の例)
 図2は、入力画像の各画素の特徴がエッジ度である場合の削減量の第1の例を示す図である。
 図2の横軸はエッジ度を表し、縦軸は削減量を表す。また、実線は、メタデータとしての電池の残量が少ない場合の削減量を表し、点線は、電池の残量が多い場合の削減量を表す。これらのことは、後述する図3についても同様である。
 図2の例では、範囲D1においてエッジ度が大きいほど大きくなり、範囲D1外において一定となるように、削減量が決定される。また、電池の残量が少ない場合、多い場合に比べて所定量だけ大きくなるように、削減量が決定される。
 従って、入力画像内の輝度の変化が目立たないエッジ領域やテクスチャ領域の削減量は、輝度の変化が目立つ平坦領域に比べて大きくなる。また、電池の残量が少なく、表示部14の消費電力をより削減する必要がある場合、電池の残量が多い場合に比べて削減量は大きくなる。
 (削減量の第2の例)
 図3は、入力画像の各画素の特徴がエッジ度である場合の削減量の第2の例を示す図である。
 図3の例では、図2の場合と同様に、範囲D1においてエッジ度が大きいほど大きくなり、範囲D1外において一定となるように、削減量が決定される。しかしながら、電池の残量による削減量の差分は、範囲D1においてエッジ度が大きいほど大きくされる。また、範囲D1より小さいエッジ度の画素の電池の残量による削減量の差分は、範囲D1より大きいエッジ度の画素の差分に比べて小さい。
 図3の場合も、図2の場合と同様に、入力画像内の輝度の変化が目立たないエッジ領域やテクスチャ領域の削減量は、輝度の変化が目立つ平坦領域に比べて大きくなる。また、電池の残量が少なく、表示部14の消費電力をより削減する必要がある場合、電池の残量が多い場合に比べて削減量は大きくなる。
 以上により、入力画像の各画素の特徴がエッジ度であり、メタデータが電池の残量である場合、画像処理装置10の出力画像では、画像の輝度に一律に1より小さいゲインを乗算することにより輝度を削減した画像に比べて平坦領域が明るくなる。従って、全体の印象が明るくなる。また、画像処理装置10の出力画像では、画像の輝度に一律に1より小さいゲインを乗算することにより輝度を削減した画像に比べてテクスチャ領域やエッジ領域が暗くなる。従って、テクスチャ領域やエッジ領域がくっきりして見える。
 なお、図2および図3では、入力画像の各画素の特徴がエッジ度であり、メタデータが電池の残量である場合について説明したが、他の特徴およびメタデータについても同様に、それらに基づいて削減量が決定される。
 例えば、入力画像の各画素の特徴としてのコントラストが高い、輝度が小さい、色が鮮やかである、注目領域との位置関係が注目領域外にあることを表す、画面内の位置が下である、または動き量が少ない画素、即ち輝度の変化が目立ちにくい画素ほど、削減量が大きくされる。また、例えば、メタデータとしての外光量が少ない場合や、明るさ調整モードが強のモードである場合、削減量は大きくされる。
 (画像処理装置の処理の説明)
 図4は、図1の画像処理装置10の画像処理を説明するフローチャートである。この画像処理は、例えば、入力画像が画像処理装置10に入力されたとき、開始される。
 図4のステップS11において、画像処理装置10の抽出部11は、入力画像の各画素の特徴を抽出し、抽出された各画素の特徴を決定部12に供給する。
 ステップS12において、決定部12は、入力画像の画素ごとに、抽出部11から供給される特徴と外部から入力されるメタデータとに基づいて、入力画像の輝度の削減量を決定する。決定部12は、各画素の削減量を削除部13に供給する。
 ステップS13において、削除部13は、入力画像の画素ごとに、決定部12から供給される削減量だけ入力画像の輝度を削減する。削除部13は、各画素の輝度が削減された入力画像を出力画像として表示部14に供給する。
 ステップS14において、表示部14は、削除部13から供給される出力画像を表示する。そして、処理は終了する。
 以上のように、画像処理装置10は、入力画像の画素ごとに、その画素の特徴に基づいて削減量を決定し、その削減量だけ輝度を削減する。従って、画像処理装置10は、輝度の変化が目立つ画素の特徴に対応する削減量を小さくすることにより、出力画像の画質の劣化を抑制することができる。また、画像処理装置10は、入力画像の各画素の輝度を削減した出力画像を表示部14に表示するので、表示部14の消費電力を低減することができる。即ち、画像処理装置10は、入力画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができる。
 なお、削除部13は、画像処理装置10の動作モードに応じて輝度を削減するようにしてもよい。例えば、削除部13は、動作モードが、表示部14の消費電力を削減するモードである場合にのみ、輝度を削減するようにしてもよい。動作モードは、例えば、ユーザにより設定されたり、電池の残量に応じて決定されたりすることができる。
 また、決定部12は、画素ごとではなく、複数の画素からなるブロックごとに削減量を決定するようにしてもよい。
 <第2実施の形態>
 (画像処理装置の第2実施の形態の構成例)
 図5は、本開示を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。
 図5に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図5の画像処理装置30は、増幅部31、削減部32、および表示部14により構成される。画像処理装置30は、入力画像の輝度のAC(Alternating Current)成分を増幅した後削減することにより、表示部14の消費電力を削減する。
 具体的には、画像処理装置30の増幅部31は、外部から入力される入力画像の表示に関するメタデータに基づく増幅ゲインで、入力画像の輝度のAC成分を増幅することにより、AC成分を補償する。
 AC成分の増幅方法としては、例えば2次微分フィルタを用いてAC成分を増幅する第1の方法、入力画像の2次微分の極性に基づいて増幅ゲインを調整しながらAC成分を増幅する第2の方法、入力画像の1次微分の波形に基づいて補正量を調整する第3の方法などがある。メタデータは、例えば、第1実施の形態のメタデータと同一である。増幅部31は、AC成分が増幅された入力画像を削減部32に供給する。
 削減部32は、増幅部31から供給される入力画像の輝度に一律に1より小さいゲインを乗算することにより輝度を削減する。削減部32は、輝度が削減された入力画像を出力画像として表示部14に供給する。
 (増幅ゲインの例)
 図6は、メタデータが外光量である場合の増幅ゲインの例を示す図である。
 図6の横軸は外光量を表し、縦軸は増幅ゲインを表す。
 図6に示すように、範囲D2において外光量が多いほど大きくなり、範囲D2外において一定となるように、増幅ゲインが決定される。従って、外光量が多く、出力画像の視認性が悪い場合、増幅ゲインは、外光量が少なく、出力画像の視認性が良い場合に比べて大きくなる。
 なお、図6では、メタデータが外光量である場合について説明したが、他のメタデータについても同様に、メタデータに基づいて増幅ゲインが決定される。
 (AC成分が増幅された入力画像の例)
 図7は、AC成分が増幅された入力画像の例を示す図である。
 図7の横軸は、画素の水平方向の位置を表し、縦軸は、その画素の輝度を表す。また、図7の点線は、オーバーシュートをつけない増幅方法でAC成分が増幅された入力画像の輝度を表し、実線は、第1の方法でAC成分が増幅された入力画像の輝度を表す。図7の一点鎖線は、第2または第3の方法でAC成分が増幅された入力画像の輝度を表す。
 図7の実線で示すように、第1の方法で増幅された入力画像のエッジ領域のダイナミックレンジDR2は、図7の点線で示すようにオーバーシュートをつけない増幅方法で増幅された入力画像のエッジ領域のダイナミックレンジDR1に比べて大きい。従って、増幅部31は、第1の方法で増幅を行うことにより、オーバーシュートをつけない方法に比べて入力画像のエッジ領域のコントラストを高めることができる。しかしながら、第1の方法で増幅が行われる場合、エッジ領域の最大輝度が、オーバーシュートをつけない方法に比べて大きくなるので、表示部14の消費電力は大きくなる。
 一方、図7の一点鎖線で示すように、第2または第3の方法で増幅された入力画像のエッジ領域の輝度P1は、図7の点線で示すようにオーバーシュートをつけない増幅方法で増幅された入力画像のエッジ領域の輝度P2に比べて小さい。従って、増幅部31は、第2または第3の方法で増幅を行うことにより、オーバーシュートをつけない方法に比べて表示部14の消費電力を削減することができる。
 また、図7の一点鎖線で示すように、第2または第3の方法で増幅された入力画像のエッジ領域の輝度の傾きは、図7の点線で示すようにオーバーシュートをつけない増幅方法で増幅された入力画像のエッジ領域の輝度の傾きに比べて急峻である。従って、増幅部31は、第2または第3の方法で増幅を行うことにより、オーバーシュートをつけない方法に比べてコントラストを高めることができる。
 (効果の説明)
 図8は、画像処理装置30による効果の原理を示す図である。
 図8の横軸は、水平方向に並ぶ画素の位置を表し、縦軸は、その画素の輝度を表す。これらのことは、後述する図9および図10においても同様である。
 図8の左側の実線で示す入力画像のテクスチャ領域に対して、輝度のAC成分を増幅させずに、一律に1より小さいゲインを乗算することにより輝度を削減する場合、輝度の削減後の画像は、図8の右側の一点鎖線で示すようになる。即ち、この場合、1より小さいゲインの乗算により、入力画像の輝度のDC成分である平均値は減少するが、AC成分である局所のダイナミックレンジも減少する。その結果、表示部14の消費電力は低減されるが、コントラストは低下する。
 これに対して、図8の左側の実線で示す入力画像のテクスチャ領域から生成される出力画像は、図8の右側の実線で示すようになる。即ち、この場合、1より小さいゲインの乗算により、入力画像の輝度のDC成分である平均値は減少するが、AC成分の増幅により、AC成分である局所のダイナミックレンジは補償される。その結果、表示部14の消費電力は低減されるが、局所のコントラストの低下は抑制される。
 図8の例では、増幅ゲインが輝度の削減時のゲインに比べて大きいため、局所のダイナミックレンジは入力画像に比べて大きくなっている。従って、出力画像の局所のコントラストは、入力画像に比べて高い。また、図8の例では、出力画像の最高輝度PM1は、入力画像の最高輝度PM2に比べて大きくなっている。
 以上の原理により、ある入力画像に対して生成される出力画像は、例えば、図9に示すようになる。即ち、図9の左側の波形が表すテクスチャ領域において、図9の実線で示す入力画像に対して、局所の輝度のダイナミックレンジDR3が入力画像と略同一であるが、輝度の平均値が小さい図9の点線で示す出力画像が生成される。
 また、図9の例では、第1の方法で入力画像の輝度のAC成分が増幅されており、図9の右側の波形が表すエッジ領域において、図9の実線で示す入力画像に対して、オーバーシュートがつけられた図9の点線で示す出力画像が生成される。従って、エッジ領域においても、輝度のダイナミックレンジDR4が入力画像と略同一になっている。よって、この場合、表示部14の消費電力は低減されるが、コントラストは低下しない。
 なお、図示は省略するが、第2または第3の方法で入力画像の輝度のAC成分が増幅される場合、出力画像のエッジ領域の輝度のダイナミックレンジは入力画像と同一にはならないが、エッジ領域の傾きは急峻になるため、第1の方法と同様にコントラストは低下しない。
 これに対して、図9の実線で示す入力画像に対して輝度のAC成分を増幅させずに、一律に1より小さいゲインを乗算することにより輝度を削減した画像は、例えば、図10の点線で示すようになる。なお、図10の実線は、図9の実線と同一であり、入力画像を示している。
 図10の点線で示すように、輝度の一律削減後の入力画像は、図10の実線で示す入力画像に対して、輝度の平均値が小さい。しかしながら、輝度の一律削減後の入力画像のテクスチャ領域の局所のダイナミックレンジDR5,エッジ領域の局所のダイナミックレンジDR6も、入力画像のテクスチャ領域の局所のダイナミックレンジDR3,エッジ領域の局所のダイナミックレンジDR4に比べて小さくなる。従って、この場合、表示部14の消費電力は低減されるが、コントラストも低下する。
 (画像処理装置の処理の説明)
 図11は、図5の画像処理装置30の画像処理を説明するフローチャートである。この画像処理は、例えば、画像処理装置30に入力画像が入力されたとき、開始される。
 図11のステップS31において、画像処理装置30の増幅部31は、外部から入力されるメタデータに基づく増幅ゲインで、入力画像の輝度のAC成分を増幅することにより、AC成分を補償する。増幅部31は、輝度のAC成分が増幅された入力画像を削減部32に供給する。
 ステップS32において、削減部32は、増幅部31から供給される輝度のAC成分が増幅された入力画像の輝度に一律に1より小さいゲインを乗算することにより、輝度を削減する。削減部32は、輝度が削減された入力画像を出力画像として表示部14に供給する。
 ステップS33において、表示部14は、削減部32から供給される出力画像を表示する。そして、処理は終了する。
 以上のように、画像処理装置30は、入力画像の輝度のAC成分を増幅し、増幅された入力画像の輝度を一律に1より小さいゲインで削減する。従って、表示部14の消費電力を削減することができる。また、輝度の削減による局所のコントラストの低下を抑制したり、コントラストの更なる向上を図ったりすることができる。
 なお、画像処理装置30は、画像処理装置30の動作モードに応じて輝度のAC成分の補償および輝度の削減を行うようにしてもよい。例えば、動作モードが表示部14の消費電力を削減するモードである場合にのみ、増幅部31が輝度のAC成分の補償を行い、削減部32が輝度の削減を行うようにしてもよい。動作モードは、例えば、ユーザにより設定されたり、電池の残量に応じて決定されたりすることができる。
 <第3実施の形態>
 (画像処理装置の第3実施の形態の構成例)
 図12は、本開示を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。
 図12に示す構成のうち、図1や図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図12の画像処理装置50の構成は、削減部13の代わりに増幅部31と削減部51が設けられる点が図1の構成と異なる。画像処理装置50は、画像処理装置10と画像処理装置30を組み合わせたものであり、入力画像の画素ごとに、輝度のAC成分が増幅された入力画像の輝度を削減量だけ削減する。
 具体的には、画像処理装置50の削減部51は、増幅部31により輝度のAC成分が増幅された入力画像の各画素の輝度を、決定部12により決定されたその画素の削減量だけ削減する。削減部51は、削減後の入力画像を出力画像として表示部14に供給する。
 (画像処理装置の処理の説明)
 図13は、図12の画像処理装置50の画像処理を説明するフローチャートである。この画像処理は、例えば、画像処理装置50に入力画像が入力されたとき、開始される。
 図13のステップS51において、画像処理装置50の抽出部11は、入力画像の各画素の特徴を抽出し、抽出された各画素の特徴を決定部12に供給する。
 ステップS52において、決定部12は、入力画像の画素ごとに、抽出部11から供給される特徴と外部から入力されるメタデータとに基づいて、入力画像の輝度の削減量を決定する。決定部12は、各画素の削減量を削減部51に供給する。
 ステップS53において、増幅部31は、外部から入力されるメタデータに基づく増幅ゲインで、入力画像の輝度のAC成分を増幅することにより、AC成分を補償する。増幅部31は、輝度のAC成分が増幅された入力画像を削減部51に供給する。
 ステップS54において、削減部51は、増幅部31から供給される輝度のAC成分が増幅された入力画像の各画素の輝度を、決定部12から供給されるその画素の削減量だけ削減する。削減部51は、削減後の入力画像を出力画像として表示部14に供給する。
 ステップS55において、表示部14は、削減部51から供給される出力画像を表示する。そして、処理は終了する。
 以上のように、画像処理装置50は、入力画像の輝度のAC成分を増幅し、増幅された入力画像の各画素の輝度を、その画素の特徴に基づく削減量だけ削減する。従って、画像処理装置50は、画像処理装置10と同様に、出力画像の画質の劣化を抑制することができる。また、画像処理装置50は、画像処理装置30と同様に、輝度の削減による局所のコントラストの低下を抑制したり、コントラストの更なる向上を図ったりすることができる。さらに、画像処理装置50は、画像処理装置10や画像処理装置30と同様に、表示部14の消費電力を抑制することができる。
 なお、入力画像の信号系は、画素値が輝度に対応するものであれば、特に限定されない。入力画像は、例えば、RGB信号、YCbCr信号、YUV信号にすることができる。
 <第4実施の形態>
 (本開示を適用したコンピュータの説明)
 上述した一連の処理は、LSI(Large Scale Integration)などのハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図14は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
 バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
 入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
 以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ200では、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
 なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、コンピュータ200が、GPU(Graphics Processing Unit)を有する場合には、上述した処理は、CPU201ではなく、GPUによって行われるようにしてもよい。
 <第5実施の形態>
 (テレビジョン装置の構成例)
 図15は、本開示を適用したテレビジョン装置の概略構成を例示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース部909を有している。さらに、テレビジョン装置900は、制御部910、ユーザインタフェース部911等を有している。
 チューナ902は、アンテナ901で受信された放送波信号から所望のチャンネルを選局して復調を行い、得られた符号化ビットストリームをデマルチプレクサ903に出力する。
 デマルチプレクサ903は、符号化ビットストリームから視聴対象である番組の映像や音声のパケットを抽出して、抽出したパケットのデータをデコーダ904に出力する。また、デマルチプレクサ903は、EPG(Electronic Program Guide)等のデータのパケットを制御部910に供給する。なお、スクランブルが行われている場合、デマルチプレクサ等でスクランブルの解除を行う。
 デコーダ904は、パケットの復号化処理を行い、復号処理化によって生成された映像データを映像信号処理部905、音声データを音声信号処理部907に出力する。
 映像信号処理部905は、映像データに対して、ノイズ除去やユーザ設定に応じた映像処理等を行う。映像信号処理部905は、表示部906に表示させる番組の映像データや、ネットワークを介して供給されるアプリケーションに基づく処理による画像データなどを生成する。また、映像信号処理部905は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それを番組の映像データに重畳する。映像信号処理部905は、このようにして生成した映像データに基づいて駆動信号を生成して表示部906を駆動する。
 表示部906は、映像信号処理部905からの駆動信号に基づき表示デバイス(例えば液晶表示素子等)を駆動して、番組の映像などを表示させる。
 音声信号処理部907は、音声データに対してノイズ除去などの所定の処理を施し、処理後の音声データのD/A変換処理や増幅処理を行いスピーカ908に供給することで音声出力を行う。
 外部インタフェース部909は、外部機器やネットワークと接続するためのインタフェースであり、映像データや音声データ等のデータ送受信を行う。
 制御部910にはユーザインタフェース部911が接続されている。ユーザインタフェース部911は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部910に供給する。
 制御部910は、CPU(Central Processing Unit)やメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータ、EPGデータ、ネットワークを介して取得されたデータ等を記憶する。メモリに記憶されているプログラムは、テレビジョン装置900の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、テレビジョン装置900がユーザ操作に応じた動作となるように各部を制御する。
 なお、テレビジョン装置900では、チューナ902、デマルチプレクサ903、映像信号処理部905、音声信号処理部907、外部インタフェース部909等と制御部910を接続するためバス912が設けられている。
 このように構成されたテレビジョン装置では、映像信号処理部905に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができる。
 <第6実施の形態>
 (携帯電話機の構成例)
 図16は、本開示を適用した携帯電話機の概略構成を例示している。携帯電話機920は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931を有している。これらは、バス933を介して互いに接続されている。
 また、通信部922にはアンテナ921が接続されており、音声コーデック923には、スピーカ924とマイクロホン925が接続されている。さらに制御部931には、操作部932が接続されている。
 携帯電話機920は、音声通話モードやデータ通信モード等の各種モードで、音声信号の送受信、電子メールや画像データの送受信、画像撮影、またはデータ記録等の各種動作を行う。
 音声通話モードにおいて、マイクロホン925で生成された音声信号は、音声コーデック923で音声データへの変換やデータ圧縮が行われて通信部922に供給される。通信部922は、音声データの変調処理や周波数変換処理等を行い、送信信号を生成する。また、通信部922は、送信信号をアンテナ921に供給して図示しない基地局へ送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、得られた音声データを音声コーデック923に供給する。音声コーデック923は、音声データのデータ伸張やアナログ音声信号への変換を行いスピーカ924に出力する。
 また、データ通信モードにおいて、メール送信を行う場合、制御部931は、操作部932の操作によって入力された文字データを受け付けて、入力された文字を表示部930に表示する。また、制御部931は、操作部932におけるユーザ指示等に基づいてメールデータを生成して通信部922に供給する。通信部922は、メールデータの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、メールデータを復元する。このメールデータを、表示部930に供給して、メール内容の表示を行う。
 なお、携帯電話機920は、受信したメールデータを、記録再生部929で記憶媒体に記憶させることも可能である。記憶媒体は、書き換え可能な任意の記憶媒体である。例えば、記憶媒体は、RAMや内蔵型フラッシュメモリ等の半導体メモリ、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USB(Universal Serial Bus)メモリ、またはメモリカード等のリムーバブルメディアである。
 データ通信モードにおいて画像データを送信する場合、カメラ部926で生成された画像データを、画像処理部927に供給する。画像処理部927は、画像データの符号化処理を行い、符号化データを生成する。
 多重分離部928は、画像処理部927で生成された符号化データと、音声コーデック923から供給された音声データを所定の方式で多重化して通信部922に供給する。通信部922は、多重化データの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、多重化データを復元する。この多重化データを多重分離部928に供給する。多重分離部928は、多重化データの分離を行い、符号化データを画像処理部927、音声データを音声コーデック923に供給する。画像処理部927は、符号化データの復号化処理を行い、画像データを生成する。この画像データを表示部930に供給して、受信した画像の表示を行う。音声コーデック923は、音声データをアナログ音声信号に変換してスピーカ924に供給して、受信した音声を出力する。
 このように構成された携帯電話装置では、画像処理部927に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができる。
 <第7実施の形態>
 (記録再生装置の構成例)
 図17は、本開示を適用した記録再生装置の概略構成を例示している。記録再生装置940は、例えば受信した放送番組のオーディオデータとビデオデータを、記録媒体に記録して、その記録されたデータをユーザの指示に応じたタイミングでユーザに提供する。また、記録再生装置940は、例えば他の装置からオーディオデータやビデオデータを取得し、それらを記録媒体に記録させることもできる。さらに、記録再生装置940は、記録媒体に記録されているオーディオデータやビデオデータを復号して出力することで、モニタ装置等において画像表示や音声出力を行うことができるようにする。
 記録再生装置940は、チューナ941、外部インタフェース部942、エンコーダ943、HDD(Hard Disk Drive)部944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)部948、制御部949、ユーザインタフェース部950を有している。
 チューナ941は、図示しないアンテナで受信された放送信号から所望のチャンネルを選局する。チューナ941は、所望のチャンネルの受信信号を復調して得られた符号化ビットストリームをセレクタ946に出力する。
 外部インタフェース部942は、IEEE1394インタフェース、ネットワークインタフェース部、USBインタフェース、フラッシュメモリインタフェース等の少なくともいずれかで構成されている。外部インタフェース部942は、外部機器やネットワーク、メモリカード等と接続するためのインタフェースであり、記録する映像データや音声データ等のデータ受信を行う。
 エンコーダ943は、外部インタフェース部942から供給された映像データや音声データが符号化されていないとき所定の方式で符号化を行い、符号化ビットストリームをセレクタ946に出力する。
 HDD部944は、映像や音声等のコンテンツデータ、各種プログラムやその他のデータ等を内蔵のハードディスクに記録し、また再生時等にそれらを当該ハードディスクから読み出す。
 ディスクドライブ945は、装着されている光ディスクに対する信号の記録および再生を行う。光ディスク、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)やBlu-ray(登録商標)ディスク等である。
 セレクタ946は、映像や音声の記録時には、チューナ941またはエンコーダ943からのいずれかの符号化ビットストリームを選択して、HDD部944やディスクドライブ945のいずれかに供給する。また、セレクタ946は、映像や音声の再生時に、HDD部944またはディスクドライブ945から出力された符号化ビットストリームをデコーダ947に供給する。
 デコーダ947は、符号化ビットストリームの復号化処理を行う。デコーダ947は、復号処理化を行うことにより生成された映像データをOSD部948に供給する。また、デコーダ947は、復号処理化を行うことにより生成された音声データを出力する。
 OSD部948は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それをデコーダ947から出力された映像データに重畳して出力する。
 制御部949には、ユーザインタフェース部950が接続されている。ユーザインタフェース部950は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部949に供給する。
 制御部949は、CPUやメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータを記憶する。メモリに記憶されているプログラムは、記録再生装置940の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、記録再生装置940がユーザ操作に応じた動作となるように各部を制御する。
 このように構成された記録再生装置では、デコーダ947に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができる。
 <第8実施の形態>
 (撮像装置の構成例)
 図18は、本開示を適用した撮像装置の概略構成を例示している。撮像装置960は、被写体を撮像し、被写体の画像を表示部に表示させたり、それを画像データとして、記録媒体に記録する。
 撮像装置960は、光学ブロック961、撮像部962、カメラ信号処理部963、画像データ処理部964、表示部965、外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970を有している。また、制御部970には、ユーザインタフェース部971が接続されている。さらに、画像データ処理部964や外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970等は、バス972を介して接続されている。
 光学ブロック961は、フォーカスレンズや絞り機構等を用いて構成されている。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCDまたはCMOSイメージセンサを用いて構成されており、光電変換によって光学像に応じた電気信号を生成してカメラ信号処理部963に供給する。
 カメラ信号処理部963は、撮像部962から供給された電気信号に対してニー補正やガンマ補正、色補正等の種々のカメラ信号処理を行う。カメラ信号処理部963は、カメラ信号処理後の画像データを画像データ処理部964に供給する。
 画像データ処理部964は、カメラ信号処理部963から供給された画像データの符号化処理を行う。画像データ処理部964は、符号化処理を行うことにより生成された符号化データを外部インタフェース部966やメディアドライブ968に供給する。また、画像データ処理部964は、外部インタフェース部966やメディアドライブ968から供給された符号化データの復号化処理を行う。画像データ処理部964は、復号化処理を行うことにより生成された画像データを表示部965に供給する。また、画像データ処理部964は、カメラ信号処理部963から供給された画像データを表示部965に供給する処理や、OSD部969から取得した表示用データを、画像データに重畳させて表示部965に供給する。
 OSD部969は、記号、文字、または図形からなるメニュー画面やアイコンなどの表示用データを生成して画像データ処理部964に出力する。
 外部インタフェース部966は、例えば、USB入出力端子などで構成され、画像の印刷を行う場合に、プリンタと接続される。また、外部インタフェース部966には、必要に応じてドライブが接続され、磁気ディスク、光ディスク等のリムーバブルメディアが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて、インストールされる。さらに、外部インタフェース部966は、LANやインターネット等の所定のネットワークに接続されるネットワークインタフェースを有する。制御部970は、例えば、ユーザインタフェース部971からの指示にしたがって、メディアドライブ968から符号化データを読み出し、それを外部インタフェース部966から、ネットワークを介して接続される他の装置に供給させることができる。また、制御部970は、ネットワークを介して他の装置から供給される符号化データや画像データを、外部インタフェース部966を介して取得し、それを画像データ処理部964に供給したりすることができる。
 メディアドライブ968で駆動される記録メディアとしては、例えば、磁気ディスク、光磁気ディスク、光ディスク、または半導体メモリ等の、読み書き可能な任意のリムーバブルメディアが用いられる。また、記録メディアは、リムーバブルメディアとしての種類も任意であり、テープデバイスであってもよいし、ディスクであってもよいし、メモリカードであってもよい。もちろん、非接触IC(Integrated Circuit)カード等であってもよい。
 また、メディアドライブ968と記録メディアを一体化し、例えば、内蔵型ハードディスクドライブやSSD(Solid State Drive)等のように、非可搬性の記憶媒体により構成されるようにしてもよい。
 制御部970は、CPUを用いて構成されている。メモリ部967は、制御部970により実行されるプログラムや制御部970が処理を行う上で必要な各種のデータ等を記憶する。メモリ部967に記憶されているプログラムは、撮像装置960の起動時などの所定タイミングで制御部970により読み出されて実行される。制御部970は、プログラムを実行することで、撮像装置960がユーザ操作に応じた動作となるように各部を制御する。
 このように構成された撮像装置では、画像データ処理部964に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、画像の輝度を削減することにより表示部の消費電力を低減する場合に、画質の劣化を抑制することができる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本開示は、以下のような構成もとることができる。
 (1)
 画像の各画素の特徴に基づいて、その画素の輝度の削減量を決定する決定部と、
 前記決定部により決定された前記削減量だけ前記画素の輝度を削減する削減部と
 を備える画像処理装置。
 (2)
 前記決定部は、前記画像の表示に関するデータと前記特徴に基づいて前記削減量を決定する
 ように構成された
 前記(1)に記載の画像処理装置。
 (3)
 前記画像のAC(Alternating Current)成分を増幅する増幅部
 をさらに備え、
 前記削減部は、前記増幅部により前記AC成分が増幅された前記画像の前記画素の輝度を前記削減量だけ削減する
 ように構成された
 前記(1)または(2)に記載の画像処理装置。
 (4)
 前記増幅部は、前記画像の表示に関するデータに基づくゲインで前記AC成分を増幅する
 ように構成された
 前記(3)に記載の画像処理装置。
 (5)
 前記増幅部は、2次微分フィルタを用いて前記AC成分を増幅する
 ように構成された
 前記(3)または(4)に記載の画像処理装置。
 (6)
 前記増幅部は、前記画像の2次微分の極性に基づいて前記AC成分を増幅する
 ように構成された
 前記(3)または(4)に記載の画像処理装置。
 (7)
 前記増幅部は、前記画像の1次微分の波形に基づいて前記AC成分を増幅する
 ように構成された
 前記(3)または(4)に記載の画像処理装置。
 (8)
 前記削減部は、動作モードに応じて前記削減を行う
 ように構成された
 前記(1)乃至(7)のいずれかに記載の画像処理装置。
 (9)
 前記画像の各画素の特徴を抽出する抽出部
 をさらに備え、
 前記決定部は、前記抽出部により抽出された前記画像の各画素の特徴に基づいて、その画素の前記削減量を決定する
 ように構成された
 前記(1)乃至(8)のいずれかに記載の画像処理装置。
 (10)
 画像処理装置が、
 画像の各画素の特徴に基づいて、その画素の輝度の削減量を決定する決定ステップと、
 前記決定ステップの処理により決定された前記削減量だけ前記画素の輝度を削減する削減ステップと
 を含む画像処理方法。
 (11)
 コンピュータを、
 画像の各画素の特徴に基づいて、その画素の輝度の削減量を決定する決定部と、
 前記決定部により決定された前記削減量だけ前記画素の輝度を削減する削減部と
 して機能させるためのプログラム。
 10 画像処理装置, 11 抽出部, 12 決定部, 13 削減部, 31 増幅部, 50 画像処理装置

Claims (11)

  1.  画像の各画素の特徴に基づいて、その画素の輝度の削減量を決定する決定部と、
     前記決定部により決定された前記削減量だけ前記画素の輝度を削減する削減部と
     を備える画像処理装置。
  2.  前記決定部は、前記画像の表示に関するデータと前記特徴に基づいて前記削減量を決定する
     ように構成された
     請求項1に記載の画像処理装置。
  3.  前記画像のAC(Alternating Current)成分を増幅する増幅部
     をさらに備え、
     前記削減部は、前記増幅部により前記AC成分が増幅された前記画像の前記画素の輝度を前記削減量だけ削減する
     ように構成された
     請求項1に記載の画像処理装置。
  4.  前記増幅部は、前記画像の表示に関するデータに基づくゲインで前記AC成分を増幅する
     ように構成された
     請求項3に記載の画像処理装置。
  5.  前記増幅部は、2次微分フィルタを用いて前記AC成分を増幅する
     ように構成された
     請求項3に記載の画像処理装置。
  6.  前記増幅部は、前記画像の2次微分の極性に基づいて前記AC成分を増幅する
     ように構成された
     請求項3に記載の画像処理装置。
  7.  前記増幅部は、前記画像の1次微分の波形に基づいて前記AC成分を増幅する
     ように構成された
     請求項3に記載の画像処理装置。
  8.  前記削減部は、動作モードに応じて前記削減を行う
     ように構成された
     請求項1に記載の画像処理装置。
  9.  前記画像の各画素の特徴を抽出する抽出部
     をさらに備え、
     前記決定部は、前記抽出部により抽出された前記画像の各画素の特徴に基づいて、その画素の前記削減量を決定する
     ように構成された
     請求項1に記載の画像処理装置。
  10.  画像処理装置が、
     画像の各画素の特徴に基づいて、その画素の輝度の削減量を決定する決定ステップと、
     前記決定ステップの処理により決定された前記削減量だけ前記画素の輝度を削減する削減ステップと
     を含む画像処理方法。
  11.  コンピュータを、
     画像の各画素の特徴に基づいて、その画素の輝度の削減量を決定する決定部と、
     前記決定部により決定された前記削減量だけ前記画素の輝度を削減する削減部と
     して機能させるためのプログラム。
PCT/JP2015/057838 2014-03-31 2015-03-17 画像処理装置、画像処理方法、およびプログラム WO2015151792A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201580015531.0A CN106133817B (zh) 2014-03-31 2015-03-17 图像处理装置、图像处理方法和程序
US15/128,172 US10163402B2 (en) 2014-03-31 2015-03-17 Image processing apparatus and image processing method
JP2016511514A JP6729368B2 (ja) 2014-03-31 2015-03-17 画像処理装置、画像処理方法、およびプログラム
KR1020167025801A KR102288250B1 (ko) 2014-03-31 2015-03-17 화상 처리 장치, 화상 처리 방법 및 프로그램
EP15772960.9A EP3128506A4 (en) 2014-03-31 2015-03-17 Image processing device, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-073505 2014-03-31
JP2014073505 2014-03-31

Publications (1)

Publication Number Publication Date
WO2015151792A1 true WO2015151792A1 (ja) 2015-10-08

Family

ID=54240124

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057838 WO2015151792A1 (ja) 2014-03-31 2015-03-17 画像処理装置、画像処理方法、およびプログラム

Country Status (6)

Country Link
US (1) US10163402B2 (ja)
EP (1) EP3128506A4 (ja)
JP (1) JP6729368B2 (ja)
KR (1) KR102288250B1 (ja)
CN (1) CN106133817B (ja)
WO (1) WO2015151792A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020518018A (ja) * 2017-05-24 2020-06-18 深▲せん▼市華星光電半導体顕示技術有限公司Shenzhen China Star Optoelectronics Semiconductor Display Technology Co.,Ltd. 輝度調整システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163408B1 (en) * 2014-09-05 2018-12-25 Pixelworks, Inc. LCD image compensation for LED backlighting
WO2016157670A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 画像表示装置、画像表示方法、情報処理装置、情報処理方法、及びプログラム
US10114447B2 (en) * 2015-12-10 2018-10-30 Samsung Electronics Co., Ltd. Image processing method and apparatus for operating in low-power mode
JP2023519933A (ja) 2020-04-02 2023-05-15 ドルビー ラボラトリーズ ライセンシング コーポレイション メタデータ・ベースの電力管理
US12254823B2 (en) * 2022-12-08 2025-03-18 Sharp Kabushiki Kaisha Display device and method for controlling display device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512441A (ja) * 1991-05-30 1993-01-22 Omron Corp エツジ画像生成装置
JP2001119610A (ja) * 1999-08-10 2001-04-27 Alps Electric Co Ltd 輪郭検出回路及び画像表示装置
JP2007114579A (ja) * 2005-10-21 2007-05-10 Pioneer Electronic Corp 表示装置、表示方法、表示システム及びサーバ及びプログラム
JP2008020502A (ja) * 2006-07-10 2008-01-31 Sony Corp 低消費電力パターン生成装置、自発光表示装置、電子機器、低消費電力パターン生成方法、コンピュータプログラム及びデータ構造
JP2008070496A (ja) * 2006-09-13 2008-03-27 Sony Corp 消費電力削減装置、視認性向上装置、自発光表示装置、画像処理装置、電子機器、消費電力削減方法、視認性向上方法及びコンピュータプログラム
JP2008151921A (ja) * 2006-12-15 2008-07-03 Hitachi Ltd 携帯型情報端末機及び携帯型情報端末機用のプログラム
JP2010091719A (ja) * 2008-10-07 2010-04-22 Sony Corp 表示装置、表示データ処理装置、表示データ処理方法
JP2010139944A (ja) * 2008-12-15 2010-06-24 Sony Corp 表示装置、表示データ処理装置、表示データ処理方法
JP2011002520A (ja) * 2009-06-16 2011-01-06 Sony Corp 自発光表示装置、消費電力削減方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI285872B (en) * 1999-05-10 2007-08-21 Matsushita Electric Ind Co Ltd Image display device and method for displaying image
JP3649043B2 (ja) * 1999-06-07 2005-05-18 セイコーエプソン株式会社 画像表示装置及び方法、並びに、画像処理装置及び方法
KR101152064B1 (ko) * 2005-11-02 2012-06-11 엘지디스플레이 주식회사 화상 구현 장치 및 그 구동방법
JP2011528528A (ja) * 2008-07-16 2011-11-17 トムソン ライセンシング ビデオ制作機用のマルチプレビュー機能
JP5304211B2 (ja) * 2008-12-11 2013-10-02 ソニー株式会社 表示装置、輝度調整装置、バックライト装置、輝度調整方法及びプログラム
JP2011017997A (ja) * 2009-07-10 2011-01-27 Sony Corp 自発光表示装置及び自発光表示装置の駆動方法
JP2013104912A (ja) 2011-11-10 2013-05-30 Sony Corp 表示装置および表示方法
JP5903283B2 (ja) * 2012-01-25 2016-04-13 シャープ株式会社 画像処理装置、画像表示システム、および画像表示方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512441A (ja) * 1991-05-30 1993-01-22 Omron Corp エツジ画像生成装置
JP2001119610A (ja) * 1999-08-10 2001-04-27 Alps Electric Co Ltd 輪郭検出回路及び画像表示装置
JP2007114579A (ja) * 2005-10-21 2007-05-10 Pioneer Electronic Corp 表示装置、表示方法、表示システム及びサーバ及びプログラム
JP2008020502A (ja) * 2006-07-10 2008-01-31 Sony Corp 低消費電力パターン生成装置、自発光表示装置、電子機器、低消費電力パターン生成方法、コンピュータプログラム及びデータ構造
JP2008070496A (ja) * 2006-09-13 2008-03-27 Sony Corp 消費電力削減装置、視認性向上装置、自発光表示装置、画像処理装置、電子機器、消費電力削減方法、視認性向上方法及びコンピュータプログラム
JP2008151921A (ja) * 2006-12-15 2008-07-03 Hitachi Ltd 携帯型情報端末機及び携帯型情報端末機用のプログラム
JP2010091719A (ja) * 2008-10-07 2010-04-22 Sony Corp 表示装置、表示データ処理装置、表示データ処理方法
JP2010139944A (ja) * 2008-12-15 2010-06-24 Sony Corp 表示装置、表示データ処理装置、表示データ処理方法
JP2011002520A (ja) * 2009-06-16 2011-01-06 Sony Corp 自発光表示装置、消費電力削減方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3128506A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020518018A (ja) * 2017-05-24 2020-06-18 深▲せん▼市華星光電半導体顕示技術有限公司Shenzhen China Star Optoelectronics Semiconductor Display Technology Co.,Ltd. 輝度調整システム

Also Published As

Publication number Publication date
US10163402B2 (en) 2018-12-25
CN106133817A (zh) 2016-11-16
EP3128506A1 (en) 2017-02-08
JP6729368B2 (ja) 2020-07-22
KR102288250B1 (ko) 2021-08-11
EP3128506A4 (en) 2017-12-06
US20170103711A1 (en) 2017-04-13
CN106133817B (zh) 2020-10-27
KR20160137535A (ko) 2016-11-30
JPWO2015151792A1 (ja) 2017-04-13

Similar Documents

Publication Publication Date Title
JP7065376B2 (ja) 表示装置、変換装置、表示方法、および、コンピュータプログラム
JP6729368B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US10638023B2 (en) Image processing apparatus and image processing method
US10402681B2 (en) Image processing apparatus and image processing method
JP4221434B2 (ja) 輪郭補正方法、画像処理装置及び表示装置
JP5502868B2 (ja) 階調調整装置、画像表示装置、テレビ受像機、プログラム、及び、プログラムが記録されたコンピュータ読み取り可能な記憶媒体
JP6767629B2 (ja) 信号処理装置、録画再生装置、信号処理方法、およびプログラム
JP4602184B2 (ja) 映像表示処理装置とそのバックライト制御方法
JP6213341B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20130135334A1 (en) Image processing apparatus, storage medium for storing control program, and controlling method for image processing apparatus
US10121265B2 (en) Image processing device and method to calculate luminosity of an environmental light of an image
JP6868797B2 (ja) 変換方法及び変換装置
KR101087927B1 (ko) 영상의 노이즈 저감을 위한 장치 및 방법
WO2013024603A1 (ja) 画像処理装置、画像処理方法、および表示システム
JP2015122585A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15772960

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016511514

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015772960

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015772960

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20167025801

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15128172

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE