[go: up one dir, main page]

JP6423612B2 - Information device, image processing method, and program - Google Patents

Information device, image processing method, and program Download PDF

Info

Publication number
JP6423612B2
JP6423612B2 JP2014093050A JP2014093050A JP6423612B2 JP 6423612 B2 JP6423612 B2 JP 6423612B2 JP 2014093050 A JP2014093050 A JP 2014093050A JP 2014093050 A JP2014093050 A JP 2014093050A JP 6423612 B2 JP6423612 B2 JP 6423612B2
Authority
JP
Japan
Prior art keywords
image
unit
image data
extraction
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014093050A
Other languages
Japanese (ja)
Other versions
JP2015211395A (en
JP2015211395A5 (en
Inventor
真梨子 牛尾
真梨子 牛尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014093050A priority Critical patent/JP6423612B2/en
Publication of JP2015211395A publication Critical patent/JP2015211395A/en
Publication of JP2015211395A5 publication Critical patent/JP2015211395A5/ja
Application granted granted Critical
Publication of JP6423612B2 publication Critical patent/JP6423612B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体を撮像して該被写体の画像データを生成する情報機器、画像処理方法およびプログラムに関する。   The present invention relates to an information device, an image processing method, and a program for imaging a subject and generating image data of the subject.

近年、デジタルカメラ等の撮像装置において、星を撮影しながら順次生成した画像に対して比較明合成処理を行うことによって、星の軌跡を撮影することができる技術が知られている(特許文献1参照)。   2. Description of the Related Art In recent years, there has been known a technique capable of capturing a star trajectory by performing comparatively bright combination processing on images sequentially generated while capturing a star in an imaging apparatus such as a digital camera (Patent Document 1). reference).

特開2013−62740号公報JP2013-62740A

しかしながら、上述した特許文献1では、撮影における一つの機能を拡張したものでしかなく、撮影する画像に対して、ユーザの感性を反映することができるものではなかった。このため、撮影する画像に対して、ユーザの感性を反映することができる技術が望まれていた。   However, in the above-described Patent Document 1, only one function in photographing is expanded, and the sensitivity of the user cannot be reflected on the photographed image. For this reason, the technique which can reflect a user's sensitivity to the image | photographed image was desired.

本発明は、上記に鑑みてなされたものであって、撮影する画像に対して、ユーザの感性を反映することができる情報機器、画像処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an information device, an image processing method, and a program that can reflect a user's sensitivity to an image to be captured.

上述した課題を解決し、目的を達成するために、本発明に係る情報機器は、所定の視野領域を撮像し、該視野領域の画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像から特定の成分を含む領域を抽出した抽出データを生成する抽出部と、前記抽出部が生成した前記抽出データと、前記抽出部が前記抽出データを生成したタイミングと異なるタイミングに前記撮像部が生成した前記画像データとを合成した合成画像データを生成する画像合成部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, an information device according to the present invention captures an image of a predetermined visual field and generates image data of the visual field, and the image generated by the imaging unit An extraction unit that generates extraction data obtained by extracting a region including a specific component from an image corresponding to image data, the extraction data generated by the extraction unit, and a timing different from the timing at which the extraction unit generates the extraction data And an image composition unit that generates composite image data obtained by combining the image data generated by the imaging unit.

また、本発明に係る画像処理方法は、情報機器が実行する画像処理方法であって、所定の視野領域を撮像し、該視野領域の画像データを生成する撮像ステップと、前記撮像ステップにおいて生成した前記画像データに対応する画像から特定の成分を含む領域を抽出した抽出データを生成する抽出ステップと、前記抽出ステップにおいて生成した前記抽出データと、前記抽出ステップにおいて前記抽出データを生成したタイミングと異なるタイミングに前記撮像ステップにおいて生成した前記画像データとを合成した合成画像データを生成する画像合成ステップと、を含むことを特徴とする。   The image processing method according to the present invention is an image processing method executed by an information device, imaging an image of a predetermined visual field, and generating image data of the visual field, and the image processing method generated in the imaging step An extraction step for generating an extraction data obtained by extracting a region including a specific component from an image corresponding to the image data, the extraction data generated in the extraction step, and a timing at which the extraction data is generated in the extraction step An image synthesis step of generating synthesized image data obtained by synthesizing the image data generated in the imaging step at a timing.

また、本発明に係るプログラムは、情報機器に、所定の視野領域を撮像し、該視野領域の画像データを生成する撮像ステップと、前記撮像ステップにおいて生成した前記画像データに対応する画像から特定の成分を含む領域を抽出した抽出データを生成する抽出ステップと、前記抽出ステップにおいて生成した前記抽出データと、前記抽出ステップにおいて前記抽出データを生成したタイミングと異なるタイミングに前記撮像ステップにおいて生成した前記画像データとを合成した合成画像データを生成する画像合成ステップと、を実行させることを特徴とする。   In addition, the program according to the present invention captures a predetermined visual field area on an information device, generates an image data of the visual field area, and specifies a specific image from an image corresponding to the image data generated in the imaging step. An extraction step for generating extraction data obtained by extracting a region including a component; the extraction data generated in the extraction step; and the image generated in the imaging step at a timing different from a timing at which the extraction data is generated in the extraction step. And an image synthesis step for generating synthesized image data obtained by synthesizing the data.

本発明によれば、撮影する画像に対して、ユーザの感性を反映することができるという効果を奏する。   According to the present invention, there is an effect that a user's sensitivity can be reflected on a captured image.

図1は、本発明の一実施の形態に係る撮像装置の被写体に面する側の構成を示す斜視図である。FIG. 1 is a perspective view showing a configuration of a side facing a subject of an imaging apparatus according to an embodiment of the present invention. 図2は、本発明の一実施の形態に係る撮像装置の撮影者に面する側の構成を示す斜視図である。FIG. 2 is a perspective view showing the configuration of the side facing the photographer of the imaging apparatus according to the embodiment of the present invention. 図3は、本発明の一実施の形態に係る撮像装置の機能構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of the imaging apparatus according to the embodiment of the present invention. 図4は、本発明の一実施の形態に係る撮像装置が実行する処理の概要を示すフローチャートである。FIG. 4 is a flowchart showing an outline of processing executed by the imaging apparatus according to the embodiment of the present invention. 図5は、本発明の一実施の形態に係る撮像装置の表示部が表示する画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image displayed on the display unit of the imaging apparatus according to the embodiment of the present invention. 図6は、本発明の一実施の形態に係る撮像装置の撮像部が生成したライブビュー画像データに対応するライブビュー画像における位置と輝度との関係を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the relationship between the position and luminance in the live view image corresponding to the live view image data generated by the imaging unit of the imaging apparatus according to the embodiment of the present invention. 図7は、本発明の一実施の形態に係る撮像装置の抽出部が生成した抽出データに対応する抽出画像における位置と輝度との関係を模式的に示す図である。FIG. 7 is a diagram schematically illustrating the relationship between the position and the luminance in the extracted image corresponding to the extracted data generated by the extraction unit of the imaging apparatus according to the embodiment of the present invention. 図8は、本発明の一実施の形態に係る撮像装置の抽出部が抽出画像内における明部領域の輝度を除去した後の抽出画像における位置と輝度との関係を模式的に示す図である。FIG. 8 is a diagram schematically illustrating a relationship between the position and the luminance in the extracted image after the extraction unit of the imaging device according to the embodiment of the present invention removes the luminance of the bright area in the extracted image. . 図9は、本発明の一実施の形態に係る撮像装置の撮像部が生成した画像データに対応するライブビュー画像における位置と輝度との関係を示す図である。FIG. 9 is a diagram illustrating a relationship between a position and luminance in a live view image corresponding to image data generated by the imaging unit of the imaging apparatus according to the embodiment of the present invention. 図10は、本発明の一実施の形態に係る撮像装置の画像合成部が生成する合成画像データに対応する合成画像における位置と輝度との関係を示す図である。FIG. 10 is a diagram illustrating the relationship between the position and the luminance in the composite image corresponding to the composite image data generated by the image composition unit of the imaging apparatus according to the embodiment of the present invention. 図11は、図4の装飾位置変更処理の概要を示すフローチャートである。FIG. 11 is a flowchart showing an outline of the decoration position changing process of FIG. 図12は、本発明の一実施の形態の変形例に係る抽出データの生成方法の別の一例を模式的に示す図である。FIG. 12 is a diagram schematically illustrating another example of the extraction data generation method according to the modification of the embodiment of the present invention.

以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。また、以下においては、情報機器として撮像装置を例に説明する。なお、以下の実施の形態により、本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付して説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. In the following description, an imaging apparatus will be described as an example of information equipment. The present invention is not limited to the following embodiments. In the description of the drawings, the same portions are denoted by the same reference numerals for description.

図1は、本発明の一実施の形態に係る撮像装置の被写体に面する側(前面側)の構成を示す斜視図である。図2は、本発明の一実施の形態に係る撮像装置の撮影者に面する側(背面側)の構成を示す斜視図である。図3は、本発明に係る撮像装置の機能構成を示すブロック図である。   FIG. 1 is a perspective view showing a configuration of a side (front side) facing an object of an imaging apparatus according to an embodiment of the present invention. FIG. 2 is a perspective view showing a configuration of a side (back side) facing the photographer of the imaging apparatus according to the embodiment of the present invention. FIG. 3 is a block diagram showing a functional configuration of the imaging apparatus according to the present invention.

〔撮像装置の構成〕
図1に示す撮像装置1は、撮像部2と、入力部3と、操作リング34と、記録部4と、表示部5と、タッチパネル6と、制御部7と、を備える。
[Configuration of imaging device]
The imaging device 1 illustrated in FIG. 1 includes an imaging unit 2, an input unit 3, an operation ring 34, a recording unit 4, a display unit 5, a touch panel 6, and a control unit 7.

撮像部2は、制御部7の制御のもと、所定の視野領域を連続的に撮像して、時間的に連続する複数の画像データを生成する。撮像部2は、少なくとも、複数のレンズから構成され、被写体像を結像する光学系21と、光学系21を収容するレンズ鏡筒22と、光学系21が結像した被写体像を受光して光電変換を行うことによって画像データを生成する撮像素子23と、を有する。撮像素子23は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成される。   Under the control of the control unit 7, the imaging unit 2 continuously captures a predetermined visual field region and generates a plurality of temporally continuous image data. The imaging unit 2 includes at least a plurality of lenses, and receives an optical system 21 that forms a subject image, a lens barrel 22 that houses the optical system 21, and a subject image that is formed by the optical system 21. And an image sensor 23 that generates image data by performing photoelectric conversion. The image sensor 23 is configured using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like.

入力部3は、撮像装置1の各種の操作を指示する指示信号の入力を受け付ける。入力部3は、撮像装置1の電源をオンまたはオフする指示信号の入力を受け付ける電源スイッチ31と、撮影を指示するレリーズ信号の入力を受け付けるレリーズスイッチ32と、撮像装置1の各種モードを切り替えるモードスイッチ33と、光学系21の光軸O1を中心に回転可能にレンズ鏡筒22に設けられ、撮像装置1の各種の操作を指示する指示信号の入力を受け付ける操作リング34と、を有する。   The input unit 3 receives input of instruction signals for instructing various operations of the imaging device 1. The input unit 3 is a power switch 31 that receives an input of an instruction signal for turning on or off the power of the imaging apparatus 1, a release switch 32 that receives an input of a release signal that instructs shooting, and a mode for switching various modes of the imaging apparatus 1. The switch 33 includes an operation ring 34 that is provided in the lens barrel 22 so as to be rotatable about the optical axis O <b> 1 of the optical system 21 and that receives input of instruction signals for instructing various operations of the imaging apparatus 1.

記録部4は、制御部7を介して入力される画像データ、撮像装置1の処理中の情報、撮像装置1を動作させるための各種プログラムや本実施の形態に係るプログラムおよびプログラムの実行中に使用される各種データ等を記録する。記録部4は、SDRAM(Synchronous Dynamic Random Access Memory)、Flashメモリおよび記録媒体等を用いて構成される。記録部4は、画像データを記録する画像データ記録部41と、対応する画像に装飾する際に用いる抽出データとしての装飾画像データを記録する抽出データ記録部42と、各種プログラムを記録するプログラム記録部43と、を有する。   The recording unit 4 receives image data input via the control unit 7, information being processed by the imaging apparatus 1, various programs for operating the imaging apparatus 1, the program according to the present embodiment, and the execution of the program Records various data used. The recording unit 4 is configured using an SDRAM (Synchronous Dynamic Random Access Memory), a flash memory, a recording medium, and the like. The recording unit 4 includes an image data recording unit 41 that records image data, an extraction data recording unit 42 that records decoration image data as extraction data used when decorating a corresponding image, and a program recording that records various programs. Part 43.

表示部5は、制御部7の制御のもと、撮像部2が生成した画像データに対応する画像を表示する。ここで、画像の表示には、撮影直後の画像データを所定時間(例えば1秒間)だけ表示する確認表示、記録部4に記録された画像データを再生する再生表示、および撮像部2が連続的に生成する画像データに対応するライブビュー画像を順次表示するライブビュー画像表示等が含まれる。表示部5は、液晶または有機EL(Electro Luminescence)からなる表示パネルおよび駆動ドライバ等を用いて構成される。また、表示部5は、制御部7の制御のもと、撮像装置1の操作情報および撮影に関する情報を適宜表示する。   The display unit 5 displays an image corresponding to the image data generated by the imaging unit 2 under the control of the control unit 7. Here, for image display, confirmation display for displaying image data immediately after photographing for a predetermined time (for example, 1 second), reproduction display for reproducing image data recorded in the recording unit 4, and imaging unit 2 are continuously performed. Live view image display for sequentially displaying live view images corresponding to the image data to be generated. The display unit 5 is configured using a display panel made of liquid crystal or organic EL (Electro Luminescence), a drive driver, and the like. In addition, the display unit 5 appropriately displays operation information of the imaging device 1 and information related to photographing under the control of the control unit 7.

タッチパネル6は、表示部5の表示領域に重畳して設けられ、外部からの物体の接触位置(タッチ位置)を検出し、この検出した接触位置に応じた位置信号の入力を受け付ける。   The touch panel 6 is provided so as to overlap the display area of the display unit 5, detects a contact position (touch position) of an object from the outside, and receives an input of a position signal corresponding to the detected contact position.

制御部7は、撮像装置1を構成する各部に対する指示やデータの転送等を行って撮像装置1の動作を統括的に制御する。制御部7は、CPU(Central Processing Unit)を用いて構成される。   The control unit 7 comprehensively controls the operation of the imaging apparatus 1 by giving instructions to each unit constituting the imaging apparatus 1 and transferring data. The control unit 7 is configured using a CPU (Central Processing Unit).

ここで、制御部7の詳細な構成について説明する。制御部7は、少なくとも、画像取得部71と、抽出部72と、画像合成部73と、表示制御部74と、を有する。   Here, a detailed configuration of the control unit 7 will be described. The control unit 7 includes at least an image acquisition unit 71, an extraction unit 72, an image composition unit 73, and a display control unit 74.

画像取得部71は、撮像部2を制御し、撮像部2から画像データを取得する。画像取得部71は、レリーズスイッチ32からレリーズ信号が入力された場合、撮像部2に撮影を実行させる。また、画像取得部71は、撮像部2を制御し、撮像部2に連続的に画像データを生成させ、この画像データを順次取得して抽出部72、画像合成部73および表示制御部74へ出力する。   The image acquisition unit 71 controls the imaging unit 2 and acquires image data from the imaging unit 2. When the release signal is input from the release switch 32, the image acquisition unit 71 causes the imaging unit 2 to perform shooting. Further, the image acquisition unit 71 controls the imaging unit 2 to cause the imaging unit 2 to continuously generate image data, sequentially acquire the image data, and to the extraction unit 72, the image composition unit 73, and the display control unit 74. Output.

抽出部72は、画像取得部71を介して入力された撮像部2が生成した画像データに対応する画像から特定の成分を含む領域を抽出して抽出データを生成し、この抽出データを抽出データ記録部42、画像合成部73および表示制御部74のいずれかに出力する。ここで、特定の成分を含む領域とは、特定の成分を含む領域は、所定の輝度成分を含む領域、所定の色を含む領域および幾何学的なパターンを含む領域のいずれかである。また、抽出部72は、入力部3から入力を受け付けた特定の成分を含む領域を選択する選択信号に基づいて、撮像部2が生成した画像データに対応する画像から特定の成分を含む領域を抽出して抽出データを生成する。具体的には、抽出部72は、操作リング34の回転方向および回転量に基づいて、撮像部2が生成した画像データに対応する画像から特定の成分の値を含む領域を変更して抽出データを生成する。   The extraction unit 72 extracts a region including a specific component from the image corresponding to the image data generated by the imaging unit 2 input via the image acquisition unit 71 to generate extraction data. The data is output to any of the recording unit 42, the image composition unit 73, and the display control unit 74. Here, the region including a specific component is one of a region including a predetermined luminance component, a region including a predetermined color, and a region including a geometric pattern. Further, the extraction unit 72 selects a region including the specific component from the image corresponding to the image data generated by the imaging unit 2 based on a selection signal for selecting the region including the specific component received from the input unit 3. Extract and generate extracted data. Specifically, the extraction unit 72 changes the region including the value of a specific component from the image corresponding to the image data generated by the imaging unit 2 based on the rotation direction and the rotation amount of the operation ring 34 and extracts the extracted data. Is generated.

画像合成部73は、抽出部72が生成した抽出データと、抽出部72が抽出データを生成したタイミングと異なるタイミングに撮像部2が生成した画像データとを合成した合成画像データを生成し、この合成画像データを表示制御部74へ出力する。また、画像合成部73は、撮像部2が連続的に生成した画像データと抽出部72が生成した抽出データとを時系列に沿って比較明合成処理を順次行うことによって合成画像データを連続的に生成する。   The image combining unit 73 generates combined image data obtained by combining the extracted data generated by the extracting unit 72 and the image data generated by the imaging unit 2 at a timing different from the timing at which the extracting unit 72 generates the extracted data. The composite image data is output to the display control unit 74. In addition, the image composition unit 73 sequentially performs composite bright composition processing along the time series on the image data continuously generated by the imaging unit 2 and the extraction data generated by the extraction unit 72, thereby continuously combining the composite image data. To generate.

表示制御部74は、表示部5の表示態様を制御する。具体的には、表示制御部74は、撮像部2が生成した画像データに対応する画像を表示部5に表示させる。また、表示制御部74は、画像合成部73が生成した合成画像データに対応する合成画像を表示部5に表示させる。また、表示制御部74は、抽出部72が生成した抽出データに対応する抽出画像を表示部5に表示させる。   The display control unit 74 controls the display mode of the display unit 5. Specifically, the display control unit 74 causes the display unit 5 to display an image corresponding to the image data generated by the imaging unit 2. Further, the display control unit 74 causes the display unit 5 to display a composite image corresponding to the composite image data generated by the image composition unit 73. In addition, the display control unit 74 causes the display unit 5 to display an extracted image corresponding to the extracted data generated by the extracting unit 72.

〔撮像装置1の処理〕
次に、上述した撮像装置1が実行する処理について説明する。図4は、撮像装置1が実行する処理の概要を示すフローチャートである。
[Processing of Imaging Device 1]
Next, processing executed by the above-described imaging device 1 will be described. FIG. 4 is a flowchart illustrating an outline of processing executed by the imaging apparatus 1.

図4に示すように、まず、撮像装置1に撮影モードが設定されている場合(ステップS101:Yes)について説明する。この場合、表示制御部74は、撮像部2が生成した画像データに対応するライブビュー画像を表示部5に表示させる(ステップS102)。具体的には、図5に示すように、表示制御部74は、撮像部2が生成した画像データに対応するライブビュー画像W1を表示部5に表示させる。このとき、表示制御部74は、ライブビュー画像W1上に、抽出アイコンA1および装飾アイコンA2を重畳して表示部5に表示させる。抽出アイコンA1は、抽出部72がライブビュー画像W1から特定の成分を抽出して抽出データを生成する指示信号の入力を受け付ける。装飾アイコンA2は、画像合成部73が抽出データ記録部42に記録された抽出データと撮像部2が生成した画像データとを合成して合成画像データを生成する指示信号の入力を受け付ける。   As shown in FIG. 4, first, a case where a shooting mode is set in the imaging apparatus 1 (step S <b> 101: Yes) will be described. In this case, the display control unit 74 causes the display unit 5 to display a live view image corresponding to the image data generated by the imaging unit 2 (step S102). Specifically, as illustrated in FIG. 5, the display control unit 74 causes the display unit 5 to display a live view image W1 corresponding to the image data generated by the imaging unit 2. At this time, the display control unit 74 causes the display unit 5 to display the extracted icon A1 and the decoration icon A2 on the live view image W1. The extraction icon A1 receives an input of an instruction signal that causes the extraction unit 72 to extract a specific component from the live view image W1 and generate extracted data. The decoration icon A2 receives an input of an instruction signal for generating composite image data by combining the extracted data recorded in the extracted data recording unit 42 by the image combining unit 73 and the image data generated by the imaging unit 2.

続いて、操作リング34が操作されることによって、撮像装置1の撮影パラメータが変更された場合(ステップS103:Yes)、制御部7は、撮像装置1の撮影パラメータを変更する(ステップS104)。ここで、撮影パラメータとは、焦点距離、絞り値、シャッタスピード、ISO感度、ホワイトバランス、彩度、色相およびピント位置である。ステップS104の後、撮像装置1は、後述するステップS105へ移行する。これに対して、操作リング34が操作されず、撮像装置1の撮影パラメータが変更されていない場合(ステップS103:No)、撮像装置1は、後述するステップS105へ移行する。   Subsequently, when the shooting parameter of the imaging device 1 is changed by operating the operation ring 34 (step S103: Yes), the control unit 7 changes the shooting parameter of the imaging device 1 (step S104). Here, the shooting parameters are focal length, aperture value, shutter speed, ISO sensitivity, white balance, saturation, hue, and focus position. After step S104, the imaging apparatus 1 proceeds to step S105 described later. On the other hand, when the operation ring 34 is not operated and the shooting parameters of the imaging device 1 are not changed (step S103: No), the imaging device 1 proceeds to step S105 described later.

続いて、タッチパネル6を介して抽出アイコンA1が選択された場合(ステップS105:Yes)において、操作リング34のダイヤル操作があったとき(ステップS106:Yes)、撮像装置1は、後述するステップS107へ移行する。   Subsequently, when the extraction icon A1 is selected via the touch panel 6 (step S105: Yes), when there is a dial operation on the operation ring 34 (step S106: Yes), the imaging apparatus 1 performs step S107 described later. Migrate to

続いて、制御部7は、操作リング34の操作が奇数回目であるか否かを判断する(ステップS107)。具体的には、制御部7は、記録部4に記録された操作リング34の操作回数を示す操作情報に基づいて、操作リング34の操作が奇数回目であるか否かを判断する。制御部7が操作リング34の操作回数が奇数回目であると判断した場合(ステップS107:Yes)、撮像装置1は、後述するステップS108へ移行する。これに対して、制御部7が操作リング34の操作回数が奇数回目でないと判断した場合(ステップS107:No)、撮像装置1は、ステップS109へ移行する。   Subsequently, the control unit 7 determines whether or not the operation of the operation ring 34 is an odd number of times (step S107). Specifically, the control unit 7 determines whether or not the operation of the operation ring 34 is an odd number based on the operation information indicating the number of operations of the operation ring 34 recorded in the recording unit 4. When the control unit 7 determines that the number of operations of the operation ring 34 is an odd number (step S107: Yes), the imaging device 1 proceeds to step S108 described later. On the other hand, when the control unit 7 determines that the number of operations of the operation ring 34 is not an odd number (step S107: No), the imaging device 1 proceeds to step S109.

ステップS108において、抽出部72は、操作リング34の回転量に基づいて、ライブビュー画像内における特定の成分として暗部領域の輝度を除去して抽出データを生成する。ここで、暗部領域とは、輝度の最小値(0)から操作リング34の回転量に応じて設定された輝度の値を有する領域である。   In step S <b> 108, the extraction unit 72 removes the luminance of the dark area as a specific component in the live view image based on the rotation amount of the operation ring 34 and generates extraction data. Here, the dark area is an area having a luminance value set according to the rotation amount of the operation ring 34 from the minimum luminance value (0).

図6は、撮像部2が生成したライブビュー画像W1における位置と輝度との関係を模式的に示す図である。図7は、抽出部72が生成した抽出データに対応する抽出画像W2における位置と輝度との関係を模式的に示す図である。図6(b)および図7(b)において、横軸が直線L1の画像位置を示し、縦軸が輝度を示す。また、曲線C1は、直線L1の位置に対応する輝度を示す。なお、以下においては、説明を簡略化するため、ライブビュー画像W1の直線L1上における各画素の輝度分布を一例に説明するが、抽出部72は、ライブビュー画像W1の各水平ラインに対して輝度を走査して暗部領域の輝度を除去して抽出データを生成してもよい。   FIG. 6 is a diagram schematically illustrating the relationship between the position and the luminance in the live view image W1 generated by the imaging unit 2. FIG. 7 is a diagram schematically showing the relationship between the position and luminance in the extracted image W2 corresponding to the extracted data generated by the extracting unit 72. As shown in FIG. In FIG. 6B and FIG. 7B, the horizontal axis indicates the image position of the straight line L1, and the vertical axis indicates the luminance. A curve C1 indicates the luminance corresponding to the position of the straight line L1. In the following, in order to simplify the description, the luminance distribution of each pixel on the straight line L1 of the live view image W1 will be described as an example. However, the extraction unit 72 applies to each horizontal line of the live view image W1. The extracted data may be generated by scanning the luminance to remove the luminance in the dark area.

図6および図7に示すように、抽出部72は、操作リング34の回転量に基づいて、ライブビュー画像W1内における暗部領域LDの輝度を除去して抽出データを生成する。具体的には、抽出部72は、操作リング34の操作回数が奇数回目である場合、ライブビュー画像W1上における暗部領域LDを選択する。その後、抽出部72は、操作リング34の回転量に基づいて、ライブビュー画像W1上における暗部領域LDの範囲(ダイナミックレンズ)を変更後、暗部領域LDの輝度を除去して抽出データを生成する(図6→図7)。例えば、図6(b)および図7(b)に示すように、抽出部72は、被写体の顔F1の幅における暗部領域LDの輝度を除去して抽出データを生成する。これにより、被写体の顔F1の領域が黒くなる(図6(a)→図7(a))。なお、図6および図7においては、抽出部72が輝度を除去して抽出データを生成していたが、例えば彩度や色を除去して抽出データを生成してもよい。   As illustrated in FIGS. 6 and 7, the extraction unit 72 generates extraction data by removing the luminance of the dark region LD in the live view image W <b> 1 based on the rotation amount of the operation ring 34. Specifically, when the number of operations of the operation ring 34 is an odd number, the extraction unit 72 selects the dark area LD on the live view image W1. Thereafter, the extraction unit 72 changes the range (dynamic lens) of the dark region LD on the live view image W1 based on the rotation amount of the operation ring 34, and then removes the luminance of the dark region LD to generate extraction data. (FIG. 6 → FIG. 7). For example, as shown in FIGS. 6B and 7B, the extraction unit 72 removes the luminance of the dark area LD in the width of the face F1 of the subject and generates extraction data. As a result, the area of the subject's face F1 becomes black (FIG. 6 (a) → FIG. 7 (a)). In FIGS. 6 and 7, the extraction unit 72 generates the extraction data by removing the luminance. However, for example, the extraction data may be generated by removing the saturation and the color.

ステップS109において、抽出部72は、操作リング34の回転量に基づいて、ライブビュー画像内における明部領域の輝度を除去して抽出データを生成する。ここで、明部領域とは、輝度の最大値から操作リング34の回転量に応じて設定された輝度の値を有する領域である。   In step S <b> 109, the extraction unit 72 generates extraction data by removing the brightness of the bright area in the live view image based on the rotation amount of the operation ring 34. Here, the bright area is an area having a luminance value set according to the rotation amount of the operation ring 34 from the maximum luminance value.

図8は、抽出部72が抽出画像W2内における明部領域の輝度を除去した後の抽出画像W3における位置と輝度との関係を模式的に示す図である。図8(b)において、横軸が抽出画像W3上における直線L1の画像位置を示し、縦軸が輝度を示す。   FIG. 8 is a diagram schematically showing the relationship between the position and the luminance in the extracted image W3 after the extracting unit 72 removes the luminance of the bright area in the extracted image W2. In FIG. 8B, the horizontal axis indicates the image position of the straight line L1 on the extracted image W3, and the vertical axis indicates the luminance.

図7および図8に示すように、抽出部72は、操作リング34の回転量に基づいて、抽出画像W2内における明部領域の輝度を除去して抽出データを生成する。具体的には、抽出部72は、操作リング34の操作回数が偶数回目である場合、ライブビュー画像W1上における明部領域LBを選択する。その後、抽出部72は、操作リング34の回転量に基づいて、抽出画像W2上における明部領域LBの領域を変更して明部領域LBの輝度を除去して抽出データを生成する(図7→図8)。例えば、図7(b)および図8(b)に示すように、抽出部72は、被写体の顔F1以外の明部領域LBの輝度を除去する。これにより、背景の領域が黒くなる(図7(a)→図8(a))。なお、図8においては、説明を簡略化するため、抽出部72は、直線L1の明部領域LBの輝度を除去しているが、抽出画像W2の各水平ラインに対して明部領域LBの輝度を除去して抽出データを生成する。また、抽出部72は、暗部領域LDの輝度を除去した後に、明部領域LBの輝度を除去しているが、明部領域LBの輝度を除去後、暗部領域LDの輝度を除去して抽出データを生成してもよい。   As illustrated in FIGS. 7 and 8, the extraction unit 72 generates extraction data by removing the brightness of the bright area in the extraction image W <b> 2 based on the rotation amount of the operation ring 34. Specifically, when the number of operations of the operation ring 34 is an even number, the extraction unit 72 selects the bright area LB on the live view image W1. Thereafter, based on the rotation amount of the operation ring 34, the extraction unit 72 changes the area of the bright area LB on the extracted image W2 to remove the luminance of the bright area LB to generate extraction data (FIG. 7). (Fig. 8). For example, as illustrated in FIGS. 7B and 8B, the extraction unit 72 removes the luminance of the bright area LB other than the face F1 of the subject. As a result, the background area becomes black (FIG. 7A → FIG. 8A). In FIG. 8, in order to simplify the description, the extraction unit 72 removes the brightness of the bright part region LB of the straight line L1, but the bright part region LB of each horizontal line of the extracted image W2 is removed. Extraction data is generated by removing luminance. The extraction unit 72 removes the brightness of the bright area LB after removing the brightness of the dark area LD, but removes the brightness of the dark area LD after removing the brightness of the bright area LB. Data may be generated.

ステップS108の後またはステップS109の後、レリーズスイッチ32からレリーズ信号があった場合(ステップS110:Yes)、撮像部2は、現在の撮影パラメータ(上述したステップS108またはステップS109の内容も含む)によって撮影した抽出データまたは画像データを装飾画像データとして抽出データ記録部42に記録する(ステップS111)。なお、以下においては、抽出データを装飾画像データといい、抽出画像を装飾画像という。   If there is a release signal from the release switch 32 after step S108 or after step S109 (step S110: Yes), the imaging unit 2 determines whether the current shooting parameter (including the contents of step S108 or step S109 described above) is present. The photographed extracted data or image data is recorded in the extracted data recording unit 42 as decoration image data (step S111). In the following, the extracted data is referred to as decorative image data, and the extracted image is referred to as a decorative image.

続いて、表示制御部74は、撮像部2が撮影した装飾画像データに対応する装飾画像を撮影結果として表示部5に表示させる(ステップS112)。この場合、表示制御部74は、例えば図8(a)に示す装飾画像W3を表示部5に表示させる。これにより、ユーザは、自分の感性を反映した画像(テンプレート)を把握することができる。   Subsequently, the display control unit 74 causes the display unit 5 to display a decoration image corresponding to the decoration image data photographed by the imaging unit 2 as a photographing result (step S112). In this case, the display control unit 74 causes the display unit 5 to display, for example, a decoration image W3 illustrated in FIG. Thereby, the user can grasp | ascertain the image (template) reflecting his sensitivity.

その後、電源スイッチ31が操作され、撮像装置1の電源がオフになった場合(ステップS113:Yes)、撮像装置1は、本処理を終了する。これに対して、電源スイッチ31が操作されず、撮像装置1の電源がオフになっていない場合(ステップS113:No)、撮像装置1は、上述したステップS101へ戻る。   Thereafter, when the power switch 31 is operated and the power of the imaging device 1 is turned off (step S113: Yes), the imaging device 1 ends the process. On the other hand, when the power switch 31 is not operated and the power supply of the imaging device 1 is not turned off (step S113: No), the imaging device 1 returns to step S101 described above.

ステップS106において、操作リング34のダイヤル操作がないとき(ステップS106:No)、撮像装置1は、後述するステップS113へ移行する。   In step S106, when there is no dial operation of the operation ring 34 (step S106: No), the imaging device 1 proceeds to step S113 described later.

ステップS110において、レリーズスイッチ32からレリーズ信号がなかった場合(ステップS110:No)、撮像装置1は、ステップS113へ移行する。   In step S110, when there is no release signal from the release switch 32 (step S110: No), the imaging device 1 proceeds to step S113.

ステップS105において、タッチパネル6を介して抽出アイコンA1が選択されてない場合(ステップS105:No)において、装飾アイコンA2が選択されたとき(ステップS114:Yes)、表示制御部74は、抽出データ記録部42に記録された複数の装飾画像データに対応する複数の装飾画像を表示部5に表示させる(ステップS115)。   In step S105, when the extraction icon A1 is not selected via the touch panel 6 (step S105: No), when the decoration icon A2 is selected (step S114: Yes), the display control unit 74 records the extracted data. A plurality of decoration images corresponding to the plurality of decoration image data recorded in the unit 42 are displayed on the display unit 5 (step S115).

続いて、操作リング34のダイヤル操作があった場合(ステップS116:Yes)、画像合成部73は、操作リング34の回転量に基づいて、表示部5が表示する装飾画像を選択し(ステップS117)、画像合成部73は、操作リング34の回転量に基づいて選択した装飾画像の装飾画像データ(抽出データ)と、撮像部2が生成したライブビュー画像データとを合成した合成画像データを生成する(ステップS118)。   Subsequently, when there is a dial operation on the operation ring 34 (step S116: Yes), the image composition unit 73 selects a decoration image displayed on the display unit 5 based on the rotation amount of the operation ring 34 (step S117). ), The image composition unit 73 generates composite image data obtained by combining the decoration image data (extraction data) of the decoration image selected based on the rotation amount of the operation ring 34 and the live view image data generated by the imaging unit 2. (Step S118).

図9は、撮像部2が生成した画像データに対応するライブビュー画像における位置と輝度の関係を示す図である。図10は、画像合成部73が生成した合成画像データに対応する合成画像における位置と輝度の関係を示す図である。図9(b)および図10(b)において、横軸が画像上における直線L1の位置を示し、縦軸が輝度を示す。また、図9(b)において、曲線C2がライブビュー画像W10上における直線L1の位置に対応する輝度を示す。さらに、図10(b)において、曲線C3が合成画像W11上における直線L1の位置に対応する輝度を示す。   FIG. 9 is a diagram illustrating the relationship between the position and the luminance in the live view image corresponding to the image data generated by the imaging unit 2. FIG. 10 is a diagram illustrating the relationship between the position and the luminance in the composite image corresponding to the composite image data generated by the image composition unit 73. 9B and 10B, the horizontal axis indicates the position of the straight line L1 on the image, and the vertical axis indicates the luminance. In FIG. 9B, a curve C2 indicates the luminance corresponding to the position of the straight line L1 on the live view image W10. Further, in FIG. 10B, the curve C3 indicates the luminance corresponding to the position of the straight line L1 on the composite image W11.

図8〜図10に示すように、画像合成部73は、ライブビュー画像W10(図9を参照)と、装飾画像データに対応する装飾画像W3(図8を参照)とを比較明合成処理を行うことによって、合成画像データに対応する合成画像W11を生成する。具体的には、画像合成部73は、ライブビュー画像W10および装飾画像W3それぞれの同じ座標(画素アドレス)の画素毎に輝度を比較し、輝度が高い方の画素の輝度を合成画像の輝度として用いる。例えば、画像合成部73が、ライブビュー画像W10上における直線L1および装飾画像W3上における直線L1それぞれの同じ座標の画素の輝度を比較し、輝度が高い画素を合成画像の輝度(信号値)として用いる。即ち、画像合成部73は、図10(b)に示すように、比較明合成処理を行うことによって、ライブビュー画像W10上における被写体の顔F2の画素の輝度を用いるとともに、被写体の顔F2の領域以外を装飾画像W3の画素の輝度を用いることによって、合成画像W11を生成する。なお、図8および図9では、画像合成部73は、ライブビュー画像W10および装飾画像W3それぞれの直線L1上における同じ座標の画素毎に比較明合成処理を行っていたが、ライブビュー画像W10および装飾画像W3それぞれの水平ラインの同じ座標の画素毎に比較明合成処理を行って合成画像データを生成してもよい。   As shown in FIGS. 8 to 10, the image composition unit 73 performs a comparatively bright composition process on the live view image W <b> 10 (see FIG. 9) and the decoration image W <b> 3 (see FIG. 8) corresponding to the decoration image data. As a result, a composite image W11 corresponding to the composite image data is generated. Specifically, the image composition unit 73 compares the brightness of each pixel at the same coordinate (pixel address) in each of the live view image W10 and the decoration image W3, and uses the brightness of the higher brightness pixel as the brightness of the composite image. Use. For example, the image composition unit 73 compares the brightness of pixels having the same coordinates of the straight line L1 on the live view image W10 and the straight line L1 on the decoration image W3, and uses a pixel with high brightness as the brightness (signal value) of the composite image. Use. That is, as shown in FIG. 10B, the image composition unit 73 uses the brightness of the pixel of the subject face F2 on the live view image W10 by performing the comparatively bright composition process, and also uses the brightness of the subject face F2. The synthesized image W11 is generated by using the brightness of the pixels of the decorative image W3 except for the area. In FIGS. 8 and 9, the image composition unit 73 performs the comparatively bright composition process for each pixel having the same coordinates on the straight lines L1 of the live view image W10 and the decoration image W3. The comparatively bright combination processing may be performed for each pixel having the same coordinate on the horizontal line of each decoration image W3 to generate the combined image data.

ステップS118の後、表示制御部74は、画像合成部73が生成した合成画像データに対応する合成画像を表示部5に表示させる(ステップS119)。具体的には、図10(a)に示すように、表示制御部74は、画像合成部73が生成した合成画像データに対応する合成画像W11を表示部5に表示させる。これにより、ユーザは、ライブビュー画像W10に装飾画像W3を重ねた状態のライブビュー画像を視認することができる。この場合、ユーザは、撮像装置1を操作することによって、装飾画像W3(図8を参照)に写る被写体の位置を調整することができる。さらに、ユーザは、合成画像W11内におけるライブビュー画像W10の比率を上げる場合、入力部3を操作して撮像装置1の露出値を上げることによって、ライブビュー画像W10の明るさ(輝度)を上げる。これにより、画像合成部73は、比較明合成処理を行うときに、装飾画像W3の画素の輝度より、ライブビュー画像W10の画素の輝度が高くなるので、ライブビュー画像W10の画素の輝度を用いて合成画像データを生成することができる。   After step S118, the display control unit 74 causes the display unit 5 to display a composite image corresponding to the composite image data generated by the image composition unit 73 (step S119). Specifically, as illustrated in FIG. 10A, the display control unit 74 causes the display unit 5 to display a composite image W <b> 11 corresponding to the composite image data generated by the image composition unit 73. Thereby, the user can visually recognize the live view image in a state where the decoration image W3 is superimposed on the live view image W10. In this case, the user can adjust the position of the subject in the decoration image W3 (see FIG. 8) by operating the imaging device 1. Further, when increasing the ratio of the live view image W10 in the composite image W11, the user increases the brightness (luminance) of the live view image W10 by operating the input unit 3 and increasing the exposure value of the imaging device 1. . As a result, the image composition unit 73 uses the brightness of the pixel of the live view image W10 because the brightness of the pixel of the live view image W10 is higher than the brightness of the pixel of the decoration image W3 when performing the comparative bright composition process. Thus, the composite image data can be generated.

続いて、表示部5が表示する合成画像W11上の装飾領域に対してタッチがあった場合(ステップS120:Yes)、撮像装置1は、合成画像W11上における装飾画像の位置を変更する装飾位置変更処理を実行する(ステップS121)。   Subsequently, when there is a touch on the decoration area on the composite image W11 displayed on the display unit 5 (step S120: Yes), the imaging apparatus 1 changes the position of the decoration image on the composite image W11. A change process is executed (step S121).

図11は、ステップS121の装飾位置変更処理の概要を示すフローチャートである。図11に示すように、表示部5が表示する合成画像W11上の装飾領域に対するタッチがタッチを維持したままタッチ位置が連続的に変化するスライド操作であった場合(ステップS201:Yes)、画像合成部73は、スライド操作に応じて装飾画像W3の位置を変更する(ステップS202)。この場合、画像合成部73は、装飾画像W3の位置が変更後の装飾画像データとライブビュー画像とを比較明合成処理を行うことによって、再度、合成画像データを生成する。これにより、ユーザの感性をさらに反映させた画像を撮影することができる。ステップS202の後、撮像装置1は、図4のメインルーチンへ戻る。   FIG. 11 is a flowchart showing an outline of the decoration position changing process in step S121. As shown in FIG. 11, when the touch on the decoration area on the composite image W11 displayed on the display unit 5 is a slide operation in which the touch position continuously changes while maintaining the touch (Yes in step S201), the image The composition unit 73 changes the position of the decoration image W3 according to the slide operation (step S202). In this case, the image composition unit 73 generates composite image data again by performing comparatively bright composition processing on the decoration image data after the position of the decoration image W3 is changed and the live view image. As a result, an image that further reflects the user's sensitivity can be taken. After step S202, the imaging apparatus 1 returns to the main routine in FIG.

ステップS201において、表示部5が表示する合成画像W11上の装飾領域に対するタッチがスライド操作でなかった場合(ステップS201:No)、撮像装置1は、ステップS203へ移行する。   In step S201, when the touch on the decoration area on the composite image W11 displayed by the display unit 5 is not a slide operation (step S201: No), the imaging device 1 proceeds to step S203.

続いて、表示部5が表示する合成画像W11上の装飾領域に対するタッチが2点のタッチ位置の距離を拡大または縮小するピンチ操作であった場合(ステップS203:Yes)、画像合成部73は、ピンチ操作に基づいて、装飾領域の拡大または縮小を行う(ステップS204)。この場合、画像合成部73は、装飾領域の拡大または縮小した装飾画像データとライブビュー画像とを比較明合成処理を行うことによって、再度、合成画像データを生成する。ステップS204の後、撮像装置1は、図4のメインルーチンへ戻る。   Subsequently, when the touch on the decoration area on the composite image W11 displayed on the display unit 5 is a pinch operation for expanding or reducing the distance between the two touch positions (step S203: Yes), the image composition unit 73 Based on the pinch operation, the decoration area is enlarged or reduced (step S204). In this case, the image composition unit 73 generates composite image data again by performing comparatively bright composition processing on the decoration image data obtained by enlarging or reducing the decoration region and the live view image. After step S204, the imaging apparatus 1 returns to the main routine in FIG.

ステップS203において、表示部5が表示する合成画像W11上の装飾領域に対するタッチがピンチ操作でなかった場合(ステップS203:No)、撮像装置1は、ステップS205へ移行する。   In step S203, when the touch on the decoration area on the composite image W11 displayed by the display unit 5 is not a pinch operation (step S203: No), the imaging device 1 proceeds to step S205.

操作リング34のダイヤル操作があった場合(ステップS205:Yes)、画像合成部73は、操作リング34の回転量および回転方向に基づいて、ライブビュー画像W10と装飾画像W3との合成比率を変更する(ステップS206)。具体的には、画像合成部73は、操作リング34の回転方向が右回りの場合、操作リング34の回転量に基づいて装飾画像W3の合成比率を小さくする一方、操作リング34の回転方向が左回りの場合、操作リング34の回転量に基づいてライブビュー画像W10の合成比率を小さくする。この場合、画像合成部73は、操作リング34の回転量に基づいて、装飾画像W3またはライブビュー画像W10それぞれの画素の輝度に所定の比率を乗じることによって、比較明暗合成処理における比率を変更する。ステップS206の後、撮像装置1は、図4のメインルーチンへ戻る。   When there is a dial operation on the operation ring 34 (step S205: Yes), the image composition unit 73 changes the composition ratio between the live view image W10 and the decoration image W3 based on the rotation amount and the rotation direction of the operation ring 34. (Step S206). Specifically, when the rotation direction of the operation ring 34 is clockwise, the image composition unit 73 reduces the composition ratio of the decoration image W3 based on the rotation amount of the operation ring 34, while the rotation direction of the operation ring 34 is In the case of counterclockwise rotation, the composition ratio of the live view image W10 is reduced based on the rotation amount of the operation ring 34. In this case, the image composition unit 73 changes the ratio in the comparative light / dark composition process by multiplying the luminance of each pixel of the decoration image W3 or the live view image W10 by a predetermined ratio based on the rotation amount of the operation ring 34. . After step S206, the imaging apparatus 1 returns to the main routine in FIG.

ステップS205において、操作リング34のダイヤル操作がなかった場合(ステップS205:No)、撮像装置1は、図4のメインルーチンへ戻る。   In step S205, when there is no dial operation of the operation ring 34 (step S205: No), the imaging apparatus 1 returns to the main routine of FIG.

図4に戻り、ステップS122以降の説明を続ける。
ステップS122において、レリーズスイッチ32からレリーズ信号が入力された場合(ステップS122:Yes)、撮像装置1は、撮像部2に撮影を実行させ、画像合成部73が撮像部2によって生成された画像データと装飾画像データとを合成した合成画像データを画像データ記録部41に記録する(ステップS123)。ステップS123の後、撮像装置1は、ステップS113へ移行する。
Returning to FIG. 4, the description of step S122 and subsequent steps will be continued.
In step S122, when a release signal is input from the release switch 32 (step S122: Yes), the imaging apparatus 1 causes the imaging unit 2 to perform imaging, and the image composition unit 73 generates image data generated by the imaging unit 2. The combined image data obtained by combining the decorative image data and the decoration image data is recorded in the image data recording unit 41 (step S123). After step S123, the imaging device 1 proceeds to step S113.

ステップS114において、装飾アイコンA2が選択されていないとき(ステップS114:No)、撮像装置1は、ステップS122へ移行する。   In step S114, when the decoration icon A2 is not selected (step S114: No), the imaging device 1 proceeds to step S122.

ステップS116において、操作リング34のダイヤル操作がなかった場合(ステップS116:No)、撮像装置1は、ステップS122へ移行する。   In step S116, when there is no dial operation of the operation ring 34 (step S116: No), the imaging device 1 proceeds to step S122.

ステップS120において、表示部5が表示する合成画像W11上の装飾領域に対してタッチがなかった場合(ステップS120:No9、撮像装置1は、ステップS122へ移行する。   In step S120, when there is no touch on the decoration area on the composite image W11 displayed by the display unit 5 (step S120: No9, the imaging apparatus 1 proceeds to step S122).

ステップS122において、レリーズスイッチ32からレリーズ信号が入力されていない場合(ステップS122:No)、撮像装置1は、ステップS113へ移行する。   If no release signal is input from the release switch 32 in step S122 (step S122: No), the imaging apparatus 1 proceeds to step S113.

次に、撮像装置1に撮影モードが設定されていない場合(ステップS101:No)において、撮像装置1に再生モードが設定されているとき(ステップS122:Yes)、表示制御部74は、画像データ記録部41から画像データを取得して、取得した画像データに対応する画像を表示部5に表示させる(ステップS123)。   Next, when the shooting mode is not set in the imaging device 1 (step S101: No), when the playback mode is set in the imaging device 1 (step S122: Yes), the display control unit 74 displays the image data. Image data is acquired from the recording unit 41, and an image corresponding to the acquired image data is displayed on the display unit 5 (step S123).

続いて、入力部3を介して表示部5が表示する画像の変更が指示された場合(ステップS124:Yes)、撮像装置1は、ステップS123へ移行する。これに対して、入力部3を介して表示部5が再生する画像の変更が指示されていない場合(ステップS124:No)、撮像装置1は、ステップS113へ移行する。   Subsequently, when an instruction to change the image displayed on the display unit 5 is given via the input unit 3 (step S124: Yes), the imaging device 1 proceeds to step S123. On the other hand, when the change of the image reproduced by the display unit 5 is not instructed via the input unit 3 (step S124: No), the imaging device 1 proceeds to step S113.

ステップS122において、撮像装置1に再生モードが設定されていないとき(ステップS122:No)、撮像装置1は、ステップS113へ移行する。   In step S122, when the reproduction mode is not set for the imaging apparatus 1 (step S122: No), the imaging apparatus 1 proceeds to step S113.

以上説明した本発明の一実施の形態によれば、画像合成部73が抽出部72によって生成された抽出データと、抽出部72が抽出データを生成したタイミングと異なるタイミングに撮像部2によって生成された画像データとを合成した合成画像データを生成するので、撮影する画像に対して、ユーザの感性を反映することができる。   According to the embodiment of the present invention described above, the image synthesizing unit 73 is generated by the imaging unit 2 at a timing different from the extracted data generated by the extracting unit 72 and the timing at which the extracting unit 72 generates the extracted data. Therefore, the user's sensibility can be reflected in the captured image.

また、本発明の一実施の形態によれば、表示制御部74が抽出部72によって生成された抽出データに対応する抽出画像を表示部5に表示させるので、ユーザは、所望の装飾画像を直感的に把握することができる。   Further, according to the embodiment of the present invention, the display control unit 74 causes the display unit 5 to display the extracted image corresponding to the extracted data generated by the extracting unit 72, so that the user can intuitively view the desired decoration image. Can be grasped.

また、本発明の一実施の形態によれば、画像合成部73が撮像部2によって連続的に生成された画像データと、操作リング34によって抽出データ記録部42が記録する複数の抽出データから選択された抽出データとを時系列に沿って順次合成した合成画像データを生成し、表示制御部74が画像合成部73によって連続的に生成された合成画像データに対応する合成画像をリアルタイムで表示するライブビュー画像として表示部5に表示させるので、ユーザは、合成具合を把握しながら撮影を行うことができる。   Further, according to the embodiment of the present invention, the image composition unit 73 selects from the image data continuously generated by the imaging unit 2 and the plurality of extraction data recorded by the extraction data recording unit 42 by the operation ring 34. Composite image data is generated by sequentially synthesizing the extracted data along a time series, and the display control unit 74 displays a composite image corresponding to the composite image data continuously generated by the image composition unit 73 in real time. Since it is displayed on the display unit 5 as a live view image, the user can take a picture while grasping the degree of composition.

なお、上述した本発明の一実施の形態では、抽出部72が撮像部2によって生成された画像データに対応する画像の特定の成分を含む領域を除去して装飾画像データとしての抽出データを生成していたが、例えばタッチパネル6を介してユーザが所望の絵を描写することによって、抽出データを生成してもよい。   In the above-described embodiment of the present invention, the extraction unit 72 generates extracted data as decoration image data by removing a region including a specific component of the image corresponding to the image data generated by the imaging unit 2. However, the extracted data may be generated when the user draws a desired picture via the touch panel 6, for example.

図12は、本発明の一実施の形態の変形例に係る抽出データの生成方法の別の一例を模式的に示す図である。   FIG. 12 is a diagram schematically illustrating another example of the extraction data generation method according to the modification of the embodiment of the present invention.

図12に示すように、表示制御部74は、タッチパネル6から入力される位置信号に応じて、タッチ操作の軌跡を表示する。また、表示制御部74は、塗り潰しアイコンA10、グラデーションアイコンA11およびブラシアイコンA12を表示部5に表示させる。塗り潰しアイコンA10は、タッチ操作の軌跡に応じて形成された図形内を指定された色で塗り潰す指示信号の入力を受け付ける。グラデーションアイコンA11は、タッチ操作の軌跡に応じて形成された図形内を指定された色のグラデーションで表示する指示信号の入力を受け付ける。ブラシアイコンA12は、タッチ操作の軌跡に色を表示する指示信号の入力を受け付ける。これにより、ユーザは、タッチパネル6を介して表示部5の表示画面上に所望の絵を描くことによって、自身の感性を反映した抽出データを生成することができる。この場合、制御部7は、ユーザによって生成された抽出データを抽出データ記録部42に記録する。   As illustrated in FIG. 12, the display control unit 74 displays the locus of the touch operation according to the position signal input from the touch panel 6. Further, the display control unit 74 causes the display unit 5 to display the fill icon A10, the gradation icon A11, and the brush icon A12. The fill icon A10 receives an input of an instruction signal for filling a figure formed according to a touch operation locus with a specified color. The gradation icon A11 accepts an input of an instruction signal for displaying the inside of a figure formed according to the touch operation locus with gradation of a designated color. The brush icon A12 receives an input of an instruction signal that displays a color on the locus of the touch operation. Thereby, the user can generate extraction data reflecting his / her sensitivity by drawing a desired picture on the display screen of the display unit 5 via the touch panel 6. In this case, the control unit 7 records the extracted data generated by the user in the extracted data recording unit 42.

また、本発明の一実施の形態では、抽出部72が撮像部2によって生成された画像データに対応する画像の特定の成分を含む領域を除去して装飾画像データとしての抽出データを生成していたが、撮像部2によって生成された画像データに対応する画像から特定の成分として幾何学的なパターンを有する領域を抽出して抽出データを生成してもよい。具体的には、抽出部72は、撮像部2がテキスタイルパターン、例えば格子状のパターン、花や野菜、規則的に変化する図形(星、ハート、ドット)および文字を有する布や積み木細工等の幾何学的なパターンを有する被写体を撮像した場合、撮像部2が生成した画像データに対応する画像からテキスタイルパターンを抽出して抽出データを生成してもよい。この場合、抽出部72は、撮像部2が生成した画像データに対して、例えばコントラストの2値化処理を行った後に、規則的に変化する輪郭内の領域または連続的に繋がる輪郭内の領域を抽出して抽出して抽出データを生成する。これにより、テキスタイルパターンの装飾画像をライブビュー画像に合成することができ、ユーザの感性を反映したアーティスティックな画像を撮影することができる。   In an embodiment of the present invention, the extraction unit 72 generates extracted data as decoration image data by removing a region including a specific component of an image corresponding to the image data generated by the imaging unit 2. However, the extracted data may be generated by extracting a region having a geometric pattern as a specific component from the image corresponding to the image data generated by the imaging unit 2. Specifically, the extraction unit 72 is configured such that the imaging unit 2 is a textile pattern, for example, a lattice pattern, flowers or vegetables, regularly changing figures (stars, hearts, dots), and cloths or blocks that have characters. When a subject having a geometric pattern is imaged, the extracted data may be generated by extracting a textile pattern from an image corresponding to the image data generated by the imaging unit 2. In this case, the extraction unit 72 performs, for example, a contrast binarization process on the image data generated by the imaging unit 2, and then a region within a contour that changes regularly or a region within a contour that is continuously connected. To extract and generate extracted data. As a result, the decoration image of the textile pattern can be combined with the live view image, and an artistic image reflecting the user's sensitivity can be taken.

(その他の実施の形態)
また、本発明に係る撮像装置は、デジタル一眼レフカメラ以外にも、たとえばアクセサリ等を装着可能なデジタルカメラ、デジタルビデオカメラおよび撮像機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。
(Other embodiments)
In addition to a digital single-lens reflex camera, the imaging apparatus according to the present invention is also applicable to, for example, digital cameras that can be equipped with accessories and the like, digital video cameras, and electronic devices such as mobile phones and tablet mobile devices having imaging functions can do.

また、本発明に係る情報機器に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The program to be executed by the information apparatus according to the present invention is file data in an installable format or executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk), USB medium. And recorded on a computer-readable recording medium such as a flash memory.

また、本発明に係る情報機器に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。さらに、本発明に係る情報機器に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   The program to be executed by the information device according to the present invention may be configured to be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Furthermore, the program to be executed by the information device according to the present invention may be provided or distributed via a network such as the Internet.

なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。   In the description of the flowchart in the present specification, the context of the processing between steps is clearly indicated using expressions such as “first”, “after”, “follow”, etc., in order to implement the present invention. The order of processing required is not uniquely determined by their representation. That is, the order of processing in the flowcharts described in this specification can be changed within a consistent range.

このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。   As described above, the present invention can include various embodiments not described herein, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is possible.

1:撮像装置 2:撮像部 3:入力部 4:記録部 5:表示部 6:タッチパネル 7:制御部 21:光学系 22:レンズ鏡筒 23:撮像素子 31:電源スイッチ 32:レリーズスイッチ 33:モードスイッチ 34:操作リング 41:画像データ記録部 42:抽出データ記録部 43:プログラム記録部 71:画像取得部 72:抽出部 73:画像合成部 74:表示制御部   1: Imaging device 2: Imaging unit 3: Input unit 4: Recording unit 5: Display unit 6: Touch panel 7: Control unit 21: Optical system 22: Lens barrel 23: Imaging device 31: Power switch 32: Release switch 33: Mode switch 34: Operation ring 41: Image data recording unit 42: Extracted data recording unit 43: Program recording unit 71: Image acquisition unit 72: Extraction unit 73: Image composition unit 74: Display control unit

Claims (9)

所定の視野領域を撮像し、該視野領域の画像データを生成する撮像部と、
前記撮像部が生成した前記画像データに対応する画像から特定の成分を含む領域の輝度を除去して抽出した抽出データを生成する抽出部と、
前記抽出部が生成した前記抽出データと、前記抽出部が前記抽出データを生成したタイミングと異なるタイミングに前記撮像部が生成した前記画像データとを比較して輝度が高い方の画素の輝度を合成画像の輝度として用いて合成した合成画像データを生成する画像合成部と、
を備えたことを特徴とする情報機器。
An imaging unit that images a predetermined visual field and generates image data of the visual field;
An extraction unit for generating extraction data extracted by removing the luminance of a region including a specific component from an image corresponding to the image data generated by the imaging unit;
The extracted data generated by the extraction unit is compared with the image data generated by the imaging unit at a timing different from the timing at which the extraction unit generates the extracted data, and the luminance of the higher luminance pixel is synthesized. An image compositing unit that generates composite image data synthesized using the brightness of the image;
An information device characterized by comprising:
前記撮像部が生成する前記画像データに対応する画像を表示可能な表示部と、
前記抽出部が生成した前記抽出データに対応する抽出画像を前記表示部に表示させる表示制御部と、
をさらに備えたことを特徴とする請求項1に記載の情報機器。
A display unit capable of displaying an image corresponding to the image data generated by the imaging unit;
A display control unit that causes the display unit to display an extraction image corresponding to the extraction data generated by the extraction unit;
The information device according to claim 1, further comprising:
前記撮像部は、連続的に前記画像データを生成し、
前記画像合成部は、前記撮像部が連続的に生成した前記画像データと前記抽出データとを時系列に沿って順次合成した前記合成画像データを連続的に生成し、
前記表示制御部は、前記画像合成部が連続的に生成した前記合成画像データに対応する合成画像を時系列に沿って前記表示部に順次表示させることを特徴とする請求項2に記載の情報機器。
The imaging unit continuously generates the image data,
The image composition unit continuously generates the composite image data in which the image data continuously generated by the imaging unit and the extracted data are sequentially combined along a time series,
The information according to claim 2, wherein the display control unit causes the display unit to sequentially display a composite image corresponding to the composite image data continuously generated by the image synthesis unit in a time series. machine.
前記表示部の表示領域に重畳して設けられ、外部からの物体の接触位置を検出し、この接触位置に応じた位置信号の入力を受け付けるタッチパネルを有し、
前記画像合成部は、前記タッチパネルが入力を受け付けた信号に応じて、前記表示部が表示する前記合成画像内における前記抽出画像の位置または大きさを変更して前記合成画像データを生成することを特徴とする請求項3に記載の情報機器。
A touch panel that is provided so as to overlap the display area of the display unit, detects a contact position of an object from the outside, and receives an input of a position signal corresponding to the contact position;
The image synthesizing unit generates the synthesized image data by changing the position or size of the extracted image in the synthesized image displayed by the display unit in response to a signal received by the touch panel. The information device according to claim 3, wherein
前記撮像部は、
被写体像を結像する光学系と、
前記光学系を収容するレンズ鏡筒と、
前記光学系の光軸を中心に回転可能に前記レンズ鏡筒に設けられ、前記特定の成分を含む領域を選択する選択信号の入力を受け付ける操作リングと、
を有し、
前記抽出部は、前記操作リングの回転量および回転方向に基づいて、前記特定の成分の値を変更して前記抽出データを生成することを特徴とする請求項1〜4のいずれか一つに記載の情報機器。
The imaging unit
An optical system for forming a subject image;
A lens barrel that houses the optical system;
An operation ring that is provided in the lens barrel so as to be rotatable about the optical axis of the optical system, and that receives an input of a selection signal for selecting a region including the specific component;
Have
5. The extraction unit according to claim 1, wherein the extraction unit generates the extraction data by changing a value of the specific component based on a rotation amount and a rotation direction of the operation ring. Information equipment described.
前記画像合成部は、前記操作リングの回転量および回転方向に基づいて、前記画像データと前記抽出データとの比率を変更して前記合成画像データを生成することを特徴とする請求項5に記載の情報機器。   The said image composition part produces | generates the said synthesized image data by changing the ratio of the said image data and the said extraction data based on the rotation amount and rotation direction of the said operation ring. Information equipment. 前記特定の成分を含む領域は、所定の輝度成分を含む領域、所定の色成分を含む領域および幾何学的なパターンを含む領域のいずれかであることを特徴とする請求項1〜6のいずれか一つに記載の情報機器。   The region including the specific component is any one of a region including a predetermined luminance component, a region including a predetermined color component, and a region including a geometric pattern. Information equipment as described in one. 情報機器が実行する画像処理方法であって、
所定の視野領域を撮像し、該視野領域の画像データを生成する撮像ステップと、
前記撮像ステップにおいて生成した前記画像データに対応する画像から特定の成分を含む領域の輝度を除去して抽出した抽出データを生成する抽出ステップと、
前記抽出ステップにおいて生成した前記抽出データと、前記抽出ステップにおいて前記抽出データを生成したタイミングと異なるタイミングに前記撮像ステップにおいて生成した前記画像データとを比較して輝度が高い方の画素の輝度を合成画像の輝度として用いて合成した合成画像データを生成する画像合成ステップと、
を含むことを特徴とする画像処理方法。
An image processing method executed by an information device,
An imaging step of imaging a predetermined visual field and generating image data of the visual field;
An extraction step for generating extraction data extracted by removing the luminance of a region including a specific component from the image corresponding to the image data generated in the imaging step;
The extracted data generated in the extracting step is compared with the image data generated in the imaging step at a timing different from the timing at which the extracted data is generated in the extracting step, and the luminance of the pixel having the higher luminance is synthesized. An image synthesis step for generating synthesized image data synthesized using the luminance of the image;
An image processing method comprising:
情報機器に、
所定の視野領域を撮像し、該視野領域の画像データを生成する撮像ステップと、
前記撮像ステップにおいて生成した前記画像データに対応する画像から特定の成分を含む領域の輝度を除去して抽出した抽出データを生成する抽出ステップと、
前記抽出ステップにおいて生成した前記抽出データと、前記抽出ステップにおいて前記抽出データを生成したタイミングと異なるタイミングに前記撮像ステップにおいて生成した前記画像データとを比較して輝度が高い方の画素の輝度を合成画像の輝度として用いて合成した合成画像データを生成する画像合成ステップと、
を実行させることを特徴とするプログラム。
For information equipment,
An imaging step of imaging a predetermined visual field and generating image data of the visual field;
An extraction step for generating extraction data extracted by removing the luminance of a region including a specific component from the image corresponding to the image data generated in the imaging step;
The extracted data generated in the extracting step is compared with the image data generated in the imaging step at a timing different from the timing at which the extracted data is generated in the extracting step, and the luminance of the pixel having the higher luminance is synthesized. An image synthesis step for generating synthesized image data synthesized using the luminance of the image;
A program characterized by having executed.
JP2014093050A 2014-04-28 2014-04-28 Information device, image processing method, and program Expired - Fee Related JP6423612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014093050A JP6423612B2 (en) 2014-04-28 2014-04-28 Information device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014093050A JP6423612B2 (en) 2014-04-28 2014-04-28 Information device, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2015211395A JP2015211395A (en) 2015-11-24
JP2015211395A5 JP2015211395A5 (en) 2017-06-08
JP6423612B2 true JP6423612B2 (en) 2018-11-14

Family

ID=54613282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014093050A Expired - Fee Related JP6423612B2 (en) 2014-04-28 2014-04-28 Information device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6423612B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3873157B2 (en) * 1997-11-13 2007-01-24 カシオ計算機株式会社 Electronic camera device and imaging method
JP5195317B2 (en) * 2008-11-07 2013-05-08 カシオ計算機株式会社 Camera device, photographing method, and photographing control program
JP5636660B2 (en) * 2009-09-30 2014-12-10 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP5493839B2 (en) * 2009-12-25 2014-05-14 カシオ計算機株式会社 Imaging apparatus, image composition method, and program
JP5346848B2 (en) * 2010-03-09 2013-11-20 京セラドキュメントソリューションズ株式会社 Image forming apparatus and image processing program
JP2012186538A (en) * 2011-03-03 2012-09-27 Nikon Corp Electronic camera, image display device, program, and recording medium
JP6088733B2 (en) * 2011-11-29 2017-03-01 オリンパス株式会社 Imaging device

Also Published As

Publication number Publication date
JP2015211395A (en) 2015-11-24

Similar Documents

Publication Publication Date Title
JP5769768B2 (en) Imaging apparatus, imaging method, and program
JP4823970B2 (en) Image editing device
JP6460721B2 (en) Image processing apparatus, image processing method, and program
US20120307103A1 (en) Imaging apparatus, imaging method and computer-readable storage medium
JP2017509259A (en) Imaging method for portable terminal and portable terminal
JP2014078855A (en) Electronic apparatus, driving method, and program
JP2017520135A (en) Method and apparatus for acquiring images with motion blur
CN106878605A (en) Method and electronic device for image generation based on electronic device
JP2009212899A (en) Imaging device
JP5750692B2 (en) Imaging apparatus, imaging program, and imaging method
JP2014039084A (en) Imaging apparatus
JP2020107956A (en) Imaging apparatus, imaging method, and program
JP2017163191A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP7337562B2 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
JP6423612B2 (en) Information device, image processing method, and program
JP2012199836A (en) Imaging apparatus and imaging program
JP6223173B2 (en) Image processing apparatus, control method thereof, and program
JP6320463B2 (en) Electronic device, imaging method and program
JP5964937B2 (en) Image processing method, electronic device, and program
JP5539820B2 (en) Imaging apparatus, imaging method, and imaging program
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2008282077A (en) Image pickup device and image processing method, and program therefor
CN112640430A (en) Imaging element, imaging device, image data processing method, and program
JP6338463B2 (en) Information device, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181019

R151 Written notification of patent or utility model registration

Ref document number: 6423612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees