[go: up one dir, main page]

JP5585168B2 - DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD - Google Patents

DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD Download PDF

Info

Publication number
JP5585168B2
JP5585168B2 JP2010079944A JP2010079944A JP5585168B2 JP 5585168 B2 JP5585168 B2 JP 5585168B2 JP 2010079944 A JP2010079944 A JP 2010079944A JP 2010079944 A JP2010079944 A JP 2010079944A JP 5585168 B2 JP5585168 B2 JP 5585168B2
Authority
JP
Japan
Prior art keywords
image
region
area
angle
designating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010079944A
Other languages
Japanese (ja)
Other versions
JP2011210204A (en
Inventor
芳治 北條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010079944A priority Critical patent/JP5585168B2/en
Publication of JP2011210204A publication Critical patent/JP2011210204A/en
Application granted granted Critical
Publication of JP5585168B2 publication Critical patent/JP5585168B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影された第1の画像と第2の画像とから両者の差分画像を生成する差分画像生成装置、プログラム及び差分画像生成方法に関する。   The present invention relates to a difference image generation apparatus, a program, and a difference image generation method for generating a difference image between a photographed first image and a second image.

従来、共に撮影された第1の画像と、当該第1の画像内に切り出すべき被写体が存在する第2の画像とから両者の差分画像を切り出す技術が考案されている(特許文献1参照)。この技術を用いれば、背景のみの第1の画像を撮影した後、当該背景内に切り出すべき主要被写体が存在する第2の画像を撮影することにより、主要被写体のみを切り出した画像を生成することができる。   Conventionally, a technique has been devised for cutting out a difference image between a first image taken together and a second image in which a subject to be cut out exists in the first image (see Patent Document 1). If this technique is used, a first image of only the background is captured, and then a second image in which the main subject to be extracted exists in the background is generated, thereby generating an image in which only the main subject is cut out. Can do.

特開平10−21408号公報Japanese Patent Laid-Open No. 10-21408

しかしながら、撮影する際の背景は必ずしも固定的ではなく、風により揺動する樹木、あるいは分針を有する時計等の動く被写体が背景内に存在する場合がある。この場合、背景のみの第1の画像を撮影した後、当該背景内に主要被写体が存在する第2の画像を撮影した際に、主要被写体のみならず、風により揺動した樹木や回転移動した分針等の動いた背景被写体が両画像の差分画像として存在することとなる。   However, the background at the time of shooting is not necessarily fixed, and there may be a moving subject such as a tree that swings in the wind or a clock with a minute hand in the background. In this case, when the second image in which the main subject is present in the background is taken after taking the first image of only the background, not only the main subject but also a tree swung by the wind or rotated. A moving background subject such as a minute hand exists as a difference image between the two images.

したがって、第1の画像と第2の画像とから差分画像を切り出すと、動いた背景被写体が主要被写体とともに切り出されてしまい、目的とする主要被写体のみを切り出すことができないという問題が生ずる。   Therefore, when the difference image is cut out from the first image and the second image, the moving background subject is cut out together with the main subject, and there is a problem that it is not possible to cut out only the target main subject.

本発明は、かかる従来の課題に鑑みなされたものであり、画像内のユーザが所望する被写体のみを確実に切り出すことのできる差分画像生成装置、プログラム及び差分画像生成方法を提供することを目的とする。   The present invention has been made in view of such conventional problems, and an object of the present invention is to provide a differential image generation device, a program, and a differential image generation method that can reliably cut out only a subject desired by a user in an image. To do.

前記課題を解決するために、請求項1記載の発明は、第1の画像と、この第1の画像内に切り出すべき被写体が存在する第2の画像と、を一組の組画像として取得する取得手段と、この取得手段により組画像として取得された前記第1の画像と前記第2の画像のうち、第2の画像を表示する表示手段と、この表示手段に表示された第2の画像の前記被写体が存在する領域を切り出す対象領域として指定する領域指定手段と、この領域指定手段により指定された対象領域に対応する領域を前記第1の画像に設定し、前記対象領域とこの設定された領域との差分画像を切り出す切出手段と、を備え、更に前記領域指定手段は、前記第2の画像を、撮影時の画角よりも小さい画角で拡大表示するよう表示制御手段と、この表示制御手段により拡大表示された第2の画像の前記撮影時の画角よりも小さい画角内を前記領域として指定する指定手段とを備え、前記切出手段は、前記指定手段により指定された領域内において、前記差分画像を切り出すことを特徴とする。 In order to solve the above problem, the invention according to claim 1 acquires the first image and the second image in which the subject to be cut out exists in the first image as a set of set images. Acquisition means, display means for displaying a second image among the first image and the second image acquired as a combined image by the acquisition means, and a second image displayed on the display means An area designating unit that designates an area where the subject is present as a target area to be cut out, and an area corresponding to the target area designated by the area designating unit is set in the first image, and the target area and the set area are set. Cutting means for cutting out a difference image with respect to the area, and the area specifying means further displays the second image with an angle of view smaller than the angle of view at the time of shooting, This display control means Designating means for designating, as the area, an angle of view smaller than the angle of view of the captured second image as the area, and the clipping means includes the difference within the area designated by the designating means. The image is cut out .

また、請求項記載の発明は、請求項記載の発明において、操作に応じて、前記拡大表示を指示する指示手段を更に備え、前記表示制御手段は、この指示手段の指示に応答して、前記表示手段に表示された第2の画像を拡大表示させることを特徴とする。 The invention according to claim 2 further comprises instruction means for instructing the enlarged display in response to an operation in the invention according to claim 1 , wherein the display control means is responsive to an instruction from the instruction means. The second image displayed on the display means is enlarged and displayed .

また、請求項記載の発明は、機器が有するコンピュータを、第1の画像と、この第1の画像内に切り出すべき被写体が存在する第2の画像と、を一組の組画像として取得する取得手段、この取得手段により組画像として取得された前記第1の画像と前記第2の画像のうち、第2の画像を表示する表示手段、この表示手段に表示された第2の画像の前記被写体が存在する領域を切り出す対象領域として指定する領域指定手段、この領域指定手段により指定された対象領域に対応する領域を前記第1の画像に設定し、前記対象領域とこの設定された領域との差分画像を切り出す切出手段、として機能させ、更に、前記領域指定手段は、前記第2の画像を、撮影時の画角よりも小さい画角で拡大表示するよう表示制御手段、この表示制御手段により拡大表示された第2の画像の前記撮影時の画角よりも小さい画角内を前記領域として指定する指定手段として機能させ、前記切出手段は、前記指定手段により指定された領域内において、前記差分画像を切り出すよう機能させることを特徴とする。 According to a third aspect of the present invention, a computer included in a device acquires a first image and a second image in which a subject to be cut out exists in the first image as a set of combined images. An acquisition means, a display means for displaying a second image among the first image and the second image acquired as a combined image by the acquisition means, and the second image displayed on the display means An area designating unit for designating an area where a subject exists as a target area to be cut out, an area corresponding to the target area designated by the area designating unit is set in the first image, and the target area, the set area, A display control unit for displaying the second image with an angle of view smaller than the angle of view at the time of shooting, and the display control unit. By means The second image displayed in an enlarged manner is caused to function as a designating unit that designates an angle of view smaller than the angle of view at the time of shooting as the region. It is characterized by functioning to cut out the difference image .

また、請求項記載の発明は、第1の画像と、この第1の画像内に切り出すべき被写体が存在する第2の画像と、を一組の組画像として取得する取得ステップと、この取得ステップにて組画像として取得された前記第1の画像と前記第2の画像のうち、第2の画像を表示部に表示させる表示ステップと、この表示ステップにて表示された第2の画像の前記被写体が存在する領域を切り出す対象領域として指定する領域指定ステップと、この領域指定ステップにて指定された対象領域に対応する領域を前記第1の画像に設定し、前記対象領域とこの設定された領域との差分画像を切り出す切出ステップと、を含み更に、前記領域指定ステップは、前記第2の画像を、撮影時の画角よりも小さい画角で拡大表示するよう表示制御ステップと、この表示制御ステップにて拡大表示された第2の画像の前記撮影時の画角よりも小さい画角内を前記領域として指定する指定ステップとを含み、前記切出ステップは、前記指定ステップにて指定された領域内において、前記差分画像を切り出すことを特徴とする。 According to a fourth aspect of the present invention, an acquisition step of acquiring a first image and a second image in which a subject to be cut out exists in the first image as a set of combined images, and the acquisition Of the first image and the second image acquired as the combined image in the step, a display step for displaying the second image on the display unit, and a second image displayed in the display step An area designating step for designating an area in which the subject exists as a target area to be cut out, and an area corresponding to the target area designated in the area designating step are set in the first image, and the target area and the set area are set. A step of cutting out a difference image with respect to the region, and the region specifying step further includes a display control step for displaying the second image with an angle of view smaller than the angle of view at the time of shooting, this A designating step of designating, as the region, an angle of view smaller than the angle of view of the second image enlarged and displayed in the display control step, and the clipping step is designated in the designating step The difference image is cut out in the region thus formed.

本発明によれば、画像内のユーザが所望する被写体のみを確実に切り出することができる。   According to the present invention, it is possible to reliably cut out only a subject desired by a user in an image.

本発明の一実施の形態を適用した電子カメラのブロック図である。1 is a block diagram of an electronic camera to which an embodiment of the present invention is applied. 第1の実施の形態の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of 1st Embodiment. 本実施の形態における処理手順を示す説明図である。It is explanatory drawing which shows the process sequence in this Embodiment. 第2の実施の形態の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of 2nd Embodiment. 本実施の形態における処理手順を示す説明図である。It is explanatory drawing which shows the process sequence in this Embodiment.

以下、本発明の一実施の形態を図に従って説明する。
図1は、本発明の各実施の形態に共通するデジタルカメラ1の電気的構成を示す回路ブロック図である。このデジタルカメラ1は、AE(Auto Exposure)、AWB(Auto White Balance)、AF(Auto Focus)等の一般的な機能を有するものである。すなわち、レンズブロック11には、ズームレンズ111や図示しないフォーカスレンズ等の光学系、及び光学系を駆動するための駆動機構が含まれている。前記ズームレンズ111は、駆動機構に設けられているズームモーター12によって光軸方向に駆動される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a circuit block diagram showing an electrical configuration of a digital camera 1 common to each embodiment of the present invention. The digital camera 1 has general functions such as AE (Auto Exposure), AWB (Auto White Balance), and AF (Auto Focus). That is, the lens block 11 includes an optical system such as a zoom lens 111 and a focus lens (not shown), and a drive mechanism for driving the optical system. The zoom lens 111 is driven in the optical axis direction by a zoom motor 12 provided in a drive mechanism.

デジタルカメラ1全体を制御するCPU(Central Processing Unit)13には、バス14及びタイミング発生器(TG:Timing Generator)15を介してモータードライバ16が接続されている。モータードライバ16は、ユーザの操作に応じたCPU13の命令に従いタイミング発生器15が発生するタイミング信号に基づき、ズームモーター12を駆動する。これにより、ズームレンズ111が駆動されて、そのレンズ位置が変化する。   A motor driver 16 is connected to a central processing unit (CPU) 13 that controls the entire digital camera 1 via a bus 14 and a timing generator (TG) 15. The motor driver 16 drives the zoom motor 12 based on a timing signal generated by the timing generator 15 in accordance with an instruction from the CPU 13 according to a user operation. As a result, the zoom lens 111 is driven to change its lens position.

このとき、CPU13は、自己が発生する命令を記憶して管理している。したがって、CPU13は、自己が発生する命令を記憶して管理することにより、自己が発生する命令によりタイミング発生器15が発生するタイミング信号に応じて変化するズームレンズ111のレンズ位置を取得することができる。   At this time, the CPU 13 stores and manages instructions generated by itself. Therefore, the CPU 13 can acquire and manage the lens position of the zoom lens 111 that changes according to the timing signal generated by the timing generator 15 according to the command generated by the CPU 13 by storing and managing the command generated by the CPU 13. it can.

また、図示は省略するが、実際には、フォーカスレンズを駆動するためのフォーカスモーター及びモータードライバや、メカシャッタやメカ絞り及びそれらを駆動するためのモーターを有する駆動機構等が設けられている。   Although not shown in the drawings, actually, a focus motor and a motor driver for driving the focus lens, a mechanical shutter, a mechanical aperture, and a drive mechanism having a motor for driving them are provided.

また、デジタルカメラ1は、撮像素子としてCCD(Charge Coupled Device)18を有している。CCD18は、レンズブロック11の光軸上に配置されている。被写体は、レンズブロック11によってCCD18の受光面に結像される。CCD18は、CPU13の命令に従いタイミング発生器15が生成するタイミング信号に基づき垂直及び水平ドライバ19によって駆動され、被写体の光学像に応じたアナログの撮像信号をユニット回路20に出力する。ユニット回路20は、CCD18の出力信号に含まれるノイズを相関二重サンプリングによって除去するCDS(Correllated Double Sampling)回路や、ノイズが除去された撮像信号をデジタル信号に変換するA/D(Analog/Digital)変換器等から構成され、デジタル信号をDSP(Digital Signal Processor)21へ出力する。   The digital camera 1 also has a CCD (Charge Coupled Device) 18 as an image sensor. The CCD 18 is disposed on the optical axis of the lens block 11. The subject is imaged on the light receiving surface of the CCD 18 by the lens block 11. The CCD 18 is driven by a vertical and horizontal driver 19 based on a timing signal generated by the timing generator 15 in accordance with a command from the CPU 13, and outputs an analog imaging signal corresponding to the optical image of the subject to the unit circuit 20. The unit circuit 20 is a CDS (Correllated Double Sampling) circuit that removes noise included in the output signal of the CCD 18 by correlated double sampling, or an A / D (Analog / Digital) that converts an imaging signal from which noise has been removed to a digital signal. ) Consists of a converter and the like, and outputs a digital signal to a DSP (Digital Signal Processor) 21.

DSP21は、ユニット回路20から出力されたデジタル信号に対しペデスタルクランプやオートホワイトバランス等の各種画像処理を施すことにより、輝度(Y)信号及び色差(UV)信号からなる画像データを生成する。DSP21で変換された画像データは順次SDRAM(Synchronous Dynamic Random Access Memory)22に格納されるとともに、REC(Record)ライブビュー・モードでは1フレーム分のデータ(画像データ)が蓄積される毎にビデオ信号に変換され、液晶のモニタ4へ送られてライブビュー画像として画面表示される。   The DSP 21 performs image processing such as pedestal clamp and auto white balance on the digital signal output from the unit circuit 20 to generate image data including a luminance (Y) signal and a color difference (UV) signal. The image data converted by the DSP 21 is sequentially stored in an SDRAM (Synchronous Dynamic Random Access Memory) 22 and a video signal every time one frame of data (image data) is accumulated in the REC (Record) live view mode. And is sent to the liquid crystal monitor 4 and displayed on the screen as a live view image.

そして、静止画撮影モードにおいては、シャッタボタン操作をトリガとして、CPU13は、CCD18、垂直及び水平ドライバ19、ユニット回路20、及びDSP21に対してライブビュー画撮影モードから静止画撮影モードへの切り替えを指示し、この静止画撮影モードによる撮影処理により得られSDRAM22に一時記憶された画像データは、CPU13により圧縮され、最終的には所定のフォーマットの静止画ファイルとして外部メモリ25に記録される。この外部メモリ25に記録された静止画ファイルは、PLAY・モードにおいてユーザの選択操作に応じてCPU13に読み出されるとともに伸張され、画像データとしてSDRAM22に展開された後、画像データに基づく画像がモニタ4に表示される。   In the still image shooting mode, using the shutter button operation as a trigger, the CPU 13 switches the live view image shooting mode to the still image shooting mode for the CCD 18, the vertical and horizontal drivers 19, the unit circuit 20, and the DSP 21. The image data obtained by the shooting processing in the still image shooting mode and temporarily stored in the SDRAM 22 is compressed by the CPU 13 and finally recorded in the external memory 25 as a still image file of a predetermined format. The still image file recorded in the external memory 25 is read out and expanded by the CPU 13 in accordance with the user's selection operation in the PLAY mode, and expanded as image data on the SDRAM 22, and then an image based on the image data is displayed on the monitor 4. Is displayed.

フラッシュメモリ26には、CPU13に前記各部を制御させるための各種のプログラム、例えばAE、AF、AWB制御用のプログラムや、後述するフローチャートに示す処理を実行するためのプログラム等の各種のプログラムが格納されている。   The flash memory 26 stores various programs for causing the CPU 13 to control each unit, for example, a program for controlling AE, AF, and AWB, and a program for executing processing shown in the flowcharts described later. Has been.

また、デジタルカメラ1は、シャッタボタン、ズームボタン、OKボタン等の複数の操作キー及びスイッチを含むキー入力部27を有している。キー入力部27は、ユーザによっていずれかの操作キーが操作されると、その操作内容に応じた操作信号をCPU13へ供給する。   The digital camera 1 also has a key input unit 27 including a plurality of operation keys and switches such as a shutter button, a zoom button, and an OK button. When any operation key is operated by the user, the key input unit 27 supplies an operation signal corresponding to the operation content to the CPU 13.

なお、モニタ4には、タッチパネル23が積層されている。タッチパネル23は、モニタ4上におけるユーザのタッチ位置を検出し、検出したタッチ位置を示す信号をCPU13に供給する。   A touch panel 23 is stacked on the monitor 4. The touch panel 23 detects the touch position of the user on the monitor 4 and supplies a signal indicating the detected touch position to the CPU 13.

(第1の実施の形態)
次に、以上の構成にかかるデジタルカメラ1の第1の実施の形態における動作を説明する。図2は、本実施の形態における差分画像生成モードの処理手順を示すフローチャートである。ユーザによるキー入力部27での操作により、差分画像生成モードが設定されるとCPU13は前記プログラムに従って、このフローチャートに示す処理を実行する。
(First embodiment)
Next, the operation of the digital camera 1 according to the above configuration in the first embodiment will be described. FIG. 2 is a flowchart showing a processing procedure in the difference image generation mode in the present embodiment. When the difference image generation mode is set by the user's operation on the key input unit 27, the CPU 13 executes the processing shown in this flowchart according to the program.

すなわち、CPU13は、差分画像生成モードにおける撮影モードが設定されているか否かを判断する(ステップS101)。撮影モードが設定されているならば、1回目のシャッタボタン操作が検出されたか否かを判断する(ステップS102)。1回目のシャッタボタン操作が検出されたならば、撮影処理を実行しその画像を第1の画像として記録する(ステップS103)。具体的には、CPU13は、シャッタボタンの押下時点でS10DRAM22に記憶されている画像データを圧縮し、圧縮した画像データを第1の画像として外部メモリ25に記録する。   That is, the CPU 13 determines whether or not the shooting mode in the difference image generation mode is set (step S101). If the shooting mode is set, it is determined whether or not the first shutter button operation has been detected (step S102). If the first shutter button operation is detected, the photographing process is executed and the image is recorded as the first image (step S103). Specifically, the CPU 13 compresses the image data stored in the S10 DRAM 22 when the shutter button is pressed, and records the compressed image data in the external memory 25 as a first image.

次に、2回目のシャッタボタン操作が検出されたか否かを判断する(ステップS104)。2回目のシャッタボタン操作が検出されたならば、撮影処理を実行しその画像を第2の画像として、前記ステップS103で記録した第1の画像と関連付けて、外部メモリ25に記録する(ステップS105)。   Next, it is determined whether or not a second shutter button operation has been detected (step S104). If the second shutter button operation is detected, the photographing process is executed and the image is recorded as the second image in the external memory 25 in association with the first image recorded in step S103 (step S105). ).

引き続き、差分画像生成モードにおける切出モードに移行したか否かを判断し、移行するまでステップS101〜ステップS106の処理を繰り返す。したがって、この間にユーザが1回目のシャッタボタン操作で背景を撮影し、2回目のシャッタボタン操作で当該背景内に切り出されるべき主要被写体が存在する画像を撮影することにより、関連付けられた第1の画像と第2の画像とを一組として、複数組の画像が外部メモリ25に記録されていく。   Subsequently, it is determined whether or not the cut-out mode in the difference image generation mode has been shifted, and the processing in steps S101 to S106 is repeated until the shift is made. Therefore, during this period, the user captures the background by the first shutter button operation, and captures the image in which the main subject to be cut out in the background exists by the second shutter button operation. Multiple sets of images are recorded in the external memory 25 with the image and the second image as a set.

そして、ユーザが差分画像の合成を行うべく差分画像生成モードにおける切出モードを設定すると、ステップS106からステップS107に進み、外部メモリ25に記録された複数組の画像から、何れかが一組の画像が選択されたか否かを判断する。外部メモリ25から、関連付けられた第1の画像と第2の画像とからなる一組の画像が選択されたならば、選択された一組の画像における第2の画像をモニタ4に表示させる(ステップS108)。したがって、図3(a)に示す第1の画像P1と、同図(b)に示す第2の画像P2とからなる一組の画像が選択されたとすると、同図(b)に示すように、第2の画像P2がモニタ4に表示される。   When the user sets the extraction mode in the difference image generation mode to synthesize the difference image, the process proceeds from step S106 to step S107, and any one of the plurality of sets of images recorded in the external memory 25 is one set. It is determined whether an image is selected. If a set of images composed of the associated first image and second image is selected from the external memory 25, the second image in the selected set of images is displayed on the monitor 4 ( Step S108). Therefore, if a set of images consisting of the first image P1 shown in FIG. 3A and the second image P2 shown in FIG. 3B is selected, as shown in FIG. The second image P2 is displayed on the monitor 4.

なお、図3(a)に示すように、この例においては第1の画像P1は樹木が背景被写体A,Bとして存在する背景からなる画像である。また、図3(b)に示すように、第2の画像は同様の樹木が背景被写体A,Bとして存在する背景内に、ユーザ所望の切り出されるべき主要被写体Cが存在する画像である。   As shown in FIG. 3A, in this example, the first image P1 is an image composed of a background in which trees exist as background subjects A and B. As shown in FIG. 3B, the second image is an image in which a main subject C to be cut out is present in a background where similar trees exist as background subjects A and B.

次に、CPU13は、キー入力部27に設けられているズームボタンの操作が検出されたか否かを判断する(ステップS109)。ユーザによるズームボタンの操作が検出されたならば、SDRAM22内で第2の画像P2を拡大処理して、モニタ4に表示されている画像を拡大表示させる(ステップS110)。引き続き、OKボタンの操作が検出されたか否かを判断し(ステップS111)、OKボタンの操作が検出されるまで、ステップS109からの処理を繰り返す。   Next, the CPU 13 determines whether or not an operation of a zoom button provided in the key input unit 27 is detected (step S109). If the operation of the zoom button by the user is detected, the second image P2 is enlarged in the SDRAM 22 and the image displayed on the monitor 4 is enlarged (step S110). Subsequently, it is determined whether or not an OK button operation has been detected (step S111), and the processing from step S109 is repeated until an OK button operation is detected.

したがって、この間ユーザがズームボタンを操作する都度第2の画像P2のSDRAM22での拡大処理がなされて、図3(c)に示すように、モニタ4に表示されている画像が拡大されていく(ステップS110)。これにより、同図に示すように、背景被写体A、Bはモニタ4の画面外となる。その結果、モニタ4の画面内には、背景被写体A、Bを除く部分からなり主要被写体Cが存在する小さい画角の拡大部分画像P3のみが表示された状態となる。   Accordingly, whenever the user operates the zoom button during this time, the second image P2 is enlarged in the SDRAM 22, and the image displayed on the monitor 4 is enlarged as shown in FIG. Step S110). As a result, the background subjects A and B are outside the screen of the monitor 4 as shown in FIG. As a result, in the screen of the monitor 4, only the enlarged partial image P3 having a small angle of view including the main subject C and including the background subjects A and B is displayed.

このようにして、モニタ4に背景被写体A,Bを除いて主要被写体Cが存在する画像P3が表示されたならば、ユーザはOKボタンを操作する。すると、CPU13は、ステップS111からステップS112に処理を進めて、第2の画像の拡大倍率、つまりは表示させている拡大部分画像P3の拡大倍率を算出する。   In this way, if the image P3 in which the main subject C exists except for the background subjects A and B is displayed on the monitor 4, the user operates the OK button. Then, the CPU 13 advances the processing from step S111 to step S112, and calculates the magnification of the second image, that is, the magnification of the enlarged partial image P3 being displayed.

ここで拡大倍率とは、撮影時の画角からなる第2の画像P2を基準(1倍)として算出されるモニタ4の画面を画角とする拡大部分画像P3の倍率である。   Here, the enlargement magnification is the magnification of the enlarged partial image P3 with the angle of view of the screen of the monitor 4 calculated using the second image P2 having the angle of view at the time of shooting as a reference (1 time).

そして、拡大倍率を算出したならば、算出した拡大倍率で第1の画像P1をSDRAM22内で拡大処理する(ステップS113)。したがって、第1の画像P1も仮にこれをモニタ4に表示したならば、背景被写体A、Bがモニタ4の画面外となる大きさに拡大される。また、これによりSDRAM22内には、同一の拡大倍率で拡大処理された第1の画像P1と第2の画像P2とが格納された状態となる。   When the enlargement magnification is calculated, the first image P1 is enlarged in the SDRAM 22 with the calculated enlargement magnification (step S113). Therefore, if the first image P1 is also displayed on the monitor 4, the background subjects A and B are enlarged to a size outside the screen of the monitor 4. As a result, the SDRAM 22 stores the first image P1 and the second image P2 that have been enlarged at the same magnification.

引き続き、CPU13は、これら拡大処理された第2の画像P2のモニタ4に表示されている画角内と、拡大処理された第1の画像の対応する画角内とを領域指定する(ステップS114)。そして、この指定した領域内で、拡大処理されている第1の画像P1と第2の画像P2との差分画像を切り出す(ステップS115)。   Subsequently, the CPU 13 designates a region within the angle of view displayed on the monitor 4 of the enlarged second image P2 and the corresponding angle of view of the enlarged first image (step S114). ). Then, a difference image between the first image P1 and the second image P2 that has been enlarged is cut out within the designated region (step S115).

このとき、撮影された第1の画像P1と第2の画像P2の画角内には、図3(a)(b)に示すように、樹木が背景被写体A,Bとして存在する。したがって、背景のみの第1の画像P1を撮影した後、当該背景内に主要被写体Cが存在する第2の画像P2を撮影した際に、風により背景被写体A,Bが揺動すると、第2の画像P2内には主要被写体Cのみならず、風により揺動した背景被写体A,Bが両画像に差分画像として存在することとなる。よって、仮に第1の画像P1と第2の画像P2とをそのまま用いて、差分画像を切り出すと、差分画像内に主要被写体Cのみならず、背景被写体A,Bの変化した部分までも切り出されてしまう。   At this time, trees are present as background subjects A and B within the angle of view of the captured first image P1 and second image P2, as shown in FIGS. Therefore, after the first image P1 having only the background is captured and then the second image P2 in which the main subject C is present in the background is captured, if the background subjects A and B swing due to the wind, the second In this image P2, not only the main subject C but also background subjects A and B that have been swung by the wind exist as differential images in both images. Therefore, if the difference image is cut out using the first image P1 and the second image P2 as they are, not only the main subject C but also the changed portions of the background subjects A and B are cut out in the difference image. End up.

しかし、本実施の形態においては、拡大処理に伴って背景被写体A,Bを領域外に移動させ、しかる後に当該領域内で第1の画像P1と第2の画像P2との差分画像を切り出す(ステップS115)。したがって、第1及び第2の画像P1、P2内に主要被写体C以外の変化のあった被写体が存在しても、図3(d)に示すように、ユーザが所望する主要被写体Cのみからなる差分画像RPを確実に切り出すことができる。   However, in the present embodiment, the background subjects A and B are moved outside the area in accordance with the enlargement process, and then the difference image between the first image P1 and the second image P2 is cut out within the area ( Step S115). Therefore, even if there is a subject other than the main subject C in the first and second images P1 and P2, as shown in FIG. 3D, only the main subject C desired by the user is included. The difference image RP can be reliably cut out.

しかも、本実施の形態においては、第2の画像P2をモニタ4に表示させるとともに、ユーザの操作に応じてモニタ4に表示させた画像を拡大させて、領域を指定するようにした。したがって、ユーザはモニタ4に表示させた画像を見ながら、不要な背景被写体A,Bを切り出し対象領域から容易に排除することができる。   In addition, in the present embodiment, the second image P2 is displayed on the monitor 4, and the image displayed on the monitor 4 is enlarged in accordance with the user's operation so that the area is designated. Therefore, the user can easily exclude unnecessary background subjects A and B from the cutout target area while viewing the image displayed on the monitor 4.

以上のようにして、主要被写体Cの差分画像RPを切り出したならば、この差分画像RPを前記第1及び第2の画像と関連付けて、あるいは関連付けることなく外部メモリ25に記録する(ステップS116)。したがって、ユーザは後日、主要被写体Cのみからなる差分画像RPを外部メモリ25から読み出して、他の背景画像に貼り付けることにより、合成画像を生成することができる。   When the difference image RP of the main subject C is cut out as described above, the difference image RP is recorded in the external memory 25 in association with or without association with the first and second images (step S116). . Therefore, the user can generate a composite image by reading out the differential image RP consisting only of the main subject C from the external memory 25 and pasting it on another background image at a later date.

(第2の実施の形態)
図4は、本発明の第2の実施の形態における処理手順を示すフローチャートである。
ユーザによるキー入力部27での操作により、差分画像生成モードが設定されるとCPU13は前記プログラムに従って、このフローチャートに示す処理を実行する。
(Second Embodiment)
FIG. 4 is a flowchart showing a processing procedure in the second embodiment of the present invention.
When the difference image generation mode is set by the user's operation on the key input unit 27, the CPU 13 executes the processing shown in this flowchart according to the program.

すなわち、CPU13は、差分画像生成モードにおける撮影モードが設定されているか否かを判断する(ステップS201)。撮影モードが設定されているならば、1回目のシャッタボタン操作が検出されたか否かを判断する(ステップS202)。1回目のシャッタボタン操作が検出されたならば、撮影処理を実行しその画像を第1の画像として記録する(ステップS203)。具体的には、CPU13は、シャッタボタンの押下時点でS20DRAM22に記憶されている画像データを圧縮し、圧縮した画像データを第1の画像として外部メモリ25に記録する。   That is, the CPU 13 determines whether or not the shooting mode in the difference image generation mode is set (step S201). If the shooting mode is set, it is determined whether or not the first shutter button operation has been detected (step S202). If the first shutter button operation is detected, the photographing process is executed and the image is recorded as the first image (step S203). Specifically, the CPU 13 compresses the image data stored in the S20 DRAM 22 when the shutter button is pressed, and records the compressed image data in the external memory 25 as a first image.

次に、2回目のシャッタボタン操作が検出されたか否かを判断する(ステップS204)。2回目のシャッタボタン操作が検出されたならば、撮影処理を実行しその画像を第2の画像として、前記ステップS203で記録した第1の画像と関連付けて、外部メモリ25に記録する(ステップS205)。   Next, it is determined whether or not a second shutter button operation has been detected (step S204). If the second shutter button operation is detected, the photographing process is executed and the image is recorded as the second image in the external memory 25 in association with the first image recorded in step S203 (step S205). ).

引き続き、差分画像生成モードにおける切出モードに移行したか否かを判断し、移行するまでステップS201〜ステップS206の処理を繰り返す。したがって、この間にユーザが1回目のシャッタボタン操作で背景を撮影し、2回目のシャッタボタン操作で当該背景内に切り出されるべき主要被写体が存在する画像を撮影することにより、関連付けられた第1の画像と第2の画像とを一組として、複数組の画像が外部メモリ25に記録されていく。   Subsequently, it is determined whether or not the cut-out mode in the difference image generation mode has been shifted, and the processes in steps S201 to S206 are repeated until the shift is made. Therefore, during this period, the user captures the background by the first shutter button operation, and captures the image in which the main subject to be cut out in the background exists by the second shutter button operation. Multiple sets of images are recorded in the external memory 25 with the image and the second image as a set.

そして、ユーザが差分画像の合成を行うべく差分画像生成モードにおける切出モードを設定すると、ステップS206からステップS207に進み、外部メモリ25に記録された複数組の画像から、何れかが一組の画像が選択されたか否かを判断する。外部メモリ25から、関連付けられた第1の画像と第2の画像とからなる一組の画像が選択されたならば、選択された一組の画像における第2の画像をモニタ4に表示させる(ステップS208)。したがって、図5(d)に示す第1の画像P1と、同図(a)に示す第2の画像P2とからなる一組の画像が選択されたとすると、同図(a)に示すように、第2の画像P2がモニタ4に表示される。   When the user sets the extraction mode in the difference image generation mode to synthesize the difference images, the process proceeds from step S206 to step S207, and any one of the plurality of sets of images recorded in the external memory 25 is one set. It is determined whether an image is selected. If a set of images composed of the associated first image and second image is selected from the external memory 25, the second image in the selected set of images is displayed on the monitor 4 ( Step S208). Therefore, if a set of images consisting of the first image P1 shown in FIG. 5D and the second image P2 shown in FIG. 5A is selected, as shown in FIG. The second image P2 is displayed on the monitor 4.

なお、図5(d)に示すように、この例においては第1の画像P1は樹木が背景被写体A,Bとして存在する背景からなる画像である。また、図5(a)に示すように、第2の画像は同様の樹木が背景被写体A,Bとして存在する背景内に、ユーザ所望の切り出されるべき主要被写体Cが存在する画像である。   As shown in FIG. 5D, in this example, the first image P1 is an image composed of a background in which trees exist as background subjects A and B. Further, as shown in FIG. 5A, the second image is an image in which a main subject C to be cut out is present in a background where similar trees exist as background subjects A and B.

次に、CPU13は、モニタ4上におけるユーザのペンによるタッチ位置であるポイントがタッチパネル23により検出されたか否かを判断する(ステップS209)。タッチポイントが検出されたならば、第2の画像P2が表示されているモニタ4にタッチポイントを表示させる(ステップS210)。引き続き、OKボタンの操作が検出されたか否かを判断し(ステップS211)、OKボタンの操作が検出されるまで、ステップS209からの処理を繰り返す。   Next, the CPU 13 determines whether or not a point that is a touch position of the user's pen on the monitor 4 is detected by the touch panel 23 (step S209). If the touch point is detected, the touch point is displayed on the monitor 4 on which the second image P2 is displayed (step S210). Subsequently, it is determined whether or not an OK button operation has been detected (step S211), and the processing from step S209 is repeated until an OK button operation is detected.

したがって、この間ユーザが第2の画像P2が表示されているモニタ4上で背景被写体A,Bを除くように主要被写体Cの周囲にペンでタッチすると、その都度ステップS210でタッチポイントの表示処理がなされて、図5(b)に示すように、主要被写体Cの周囲に複数のタッチポイントTが表示されていく。   Therefore, during this time, when the user touches the main subject C around the main subject C so as to remove the background subjects A and B on the monitor 4 on which the second image P2 is displayed, the touch point display processing is performed in step S210 each time. Thus, a plurality of touch points T are displayed around the main subject C as shown in FIG.

このようにして、モニタ4に背景被写体A,Bを除く主要被写体Cの周囲にこれを囲む複数のタッチポイントTが表示されたならば、ユーザはOKボタンを操作する。すると、CPU13は、ステップS211からステップS212に処理を進め、隣接するタッチポイントを順次線で結んでモニタ4に表示させる(ステップS212)。   In this way, when a plurality of touch points T surrounding the main subject C excluding the background subjects A and B are displayed on the monitor 4, the user operates the OK button. Then, the CPU 13 advances the processing from step S211 to step S212, and displays the adjacent touch points on the monitor 4 by connecting them sequentially with a line (step S212).

したがって、このステップS212での処理により図5(c)に示すように、モニタ4には、第2の画像P2が有する主要被写体Cの周囲の隣接するタッチポイントTを順次結んだ結合線L2が表示される。   Therefore, as shown in FIG. 5C by the process in step S212, the monitor 4 has a connecting line L2 that sequentially connects adjacent touch points T around the main subject C included in the second image P2. Is displayed.

引き続き、CPU13は、第2の画像の結合線で囲まれた画像部分と、第1の画像の対応する画像部分とを領域指定する(ステップS213)。したがって、このステップS213での処理により、図5(c)に示すように、第2の画像P2の結合線L2で囲まれた画像部分PP2と、同図(d)に示すように、結合線L2と同一位置同一形状の結合線L1で囲まれた第1の画像P1の画像部分PP1とが領域指定される。そして、この指定した領域内、つまり部分画像PP1と部分画像PP2とから差分画像を切り出す(ステップS214)。   Subsequently, the CPU 13 designates the area of the image portion surrounded by the connecting line of the second image and the corresponding image portion of the first image (step S213). Therefore, by the processing in step S213, as shown in FIG. 5C, the image portion PP2 surrounded by the connection line L2 of the second image P2, and the connection line as shown in FIG. The region of the image portion PP1 of the first image P1 surrounded by the connecting line L1 having the same position and the same shape as L2 is designated. Then, a difference image is cut out from the designated area, that is, from the partial image PP1 and the partial image PP2 (step S214).

このとき、撮影された第1の画像P1と第2の画像P2の画角内には、図5(d)(a)に示すように、樹木が背景被写体A,Bとして存在する。したがって、背景のみの第1の画像P1を撮影した後、当該背景内に主要被写体Cが存在する第2の画像P2を撮影した際に、風により背景被写体A,Bが揺動すると、第2の画像P2内には主要被写体Cのみならず、風により揺動した背景被写体A,Bが両画像に差分画像として存在することとなる。よって、仮に第1の画像P1と第2の画像P2とをそのまま用いて、差分画像を切り出すと、差分画像内に主要被写体Cのみならず、背景被写体A,Bの変化した部分までも切り出されてしまう。   At this time, trees are present as background subjects A and B within the angle of view of the captured first image P1 and second image P2, as shown in FIGS. Therefore, after the first image P1 having only the background is captured and then the second image P2 in which the main subject C is present in the background is captured, if the background subjects A and B swing due to the wind, the second In this image P2, not only the main subject C but also background subjects A and B that have been swung by the wind exist as differential images in both images. Therefore, if the difference image is cut out using the first image P1 and the second image P2 as they are, not only the main subject C but also the changed portions of the background subjects A and B are cut out in the difference image. End up.

しかし、本実施の形態においては、ステップS214で、ユーザが指定した領域内である部分画像PP1とPP2とから差分画像を切り出す。したがって、第1及び第2の画像P1、P2内に主要被写体C以外の変化のあった被写体が存在しても、図5(e)に示すように、ユーザが所望する主要被写体Cのみからなる差分画像RPを確実に切り出すことができる。   However, in the present embodiment, in step S214, a difference image is cut out from the partial images PP1 and PP2 that are within the area designated by the user. Therefore, even if there is a subject other than the main subject C in the first and second images P1 and P2, as shown in FIG. 5E, only the main subject C desired by the user is included. The difference image RP can be reliably cut out.

しかも、本実施の形態においては、第2の画像P2をモニタ4に表示させるとともに、ユーザの操作に応じてモニタ4に表示させて、ユーザに領域を指定させるようにした。したがって、ユーザはモニタ4に表示させた画像を見ながら、不要な背景被写体A,Bを切り出し対象領域から容易に排除することができる。   Moreover, in the present embodiment, the second image P2 is displayed on the monitor 4 and is displayed on the monitor 4 according to the user's operation so that the user can specify the area. Therefore, the user can easily exclude unnecessary background subjects A and B from the cutout target area while viewing the image displayed on the monitor 4.

以上のようにして、主要被写体Cの差分画像RPを切り出したならば、この差分画像RPを前記第1及び第2の画像と関連付けて、あるいは関連付けることなく外部メモリ25に記録する(ステップS215)。   When the difference image RP of the main subject C is cut out as described above, the difference image RP is recorded in the external memory 25 in association with or without association with the first and second images (step S215). .

なお、本実施の形態においては、デジタルカメラに本発明を適用した場合を示したが、デジタルカメラに限らず、携帯電話機等の撮影機能を有する各種機器に適用しても良く、更には撮影機能を有さずとも撮影された第1の画像と、第1の画像内に切り出すべき被写体が存在する第2の画像とを外部から取り込み可能な機器であれば、他の電子機器に適用することが可能である。   In the present embodiment, the present invention is applied to a digital camera. However, the present invention is not limited to a digital camera, and may be applied to various devices having a shooting function such as a mobile phone. If it is a device capable of capturing from the outside the first image taken without the image and the second image in which the subject to be cut out exists in the first image, it should be applied to other electronic devices. Is possible.

1 デジタルカメラ
4 モニタ
11 レンズブロック
12 ズームモーター
13 CPU
18 CCD
19 水平ドライバ
20 ユニット回路
21 DSP
22 SDRAM
23 タッチパネル
25 外部メモリ
26 フラッシュメモリ
27 キー入力部
111 ズームレンズ
A 背景被写体
C 主要被写体
RP 差分画像
T タッチポイント
1 Digital Camera 4 Monitor 11 Lens Block 12 Zoom Motor 13 CPU
18 CCD
19 Horizontal driver 20 Unit circuit 21 DSP
22 SDRAM
23 Touch Panel 25 External Memory 26 Flash Memory 27 Key Input Unit 111 Zoom Lens A Background Subject C Main Subject RP Difference Image T Touch Point

Claims (4)

第1の画像と、この第1の画像内に切り出すべき被写体が存在する第2の画像と、を一組の組画像として取得する取得手段と、
この取得手段により組画像として取得された前記第1の画像と前記第2の画像のうち、第2の画像を表示する表示手段と、
この表示手段に表示された第2の画像の前記被写体が存在する領域を切り出す対象領域として指定する領域指定手段と、
この領域指定手段により指定された対象領域に対応する領域を前記第1の画像に設定し、前記対象領域とこの設定された領域との差分画像を切り出す切出手段と、
を備え、更に前記領域指定手段は、
前記第2の画像を、撮影時の画角よりも小さい画角で拡大表示するよう表示制御手段と、
この表示制御手段により拡大表示された第2の画像の前記撮影時の画角よりも小さい画角内を前記領域として指定する指定手段とを備え、
前記切出手段は、前記指定手段により指定された領域内において、前記差分画像を切り出すことを特徴とする差分画像生成装置。
Acquisition means for acquiring a first image and a second image in which a subject to be cut out exists in the first image as a set of set images;
Display means for displaying a second image of the first image and the second image acquired as a combined image by the acquisition means;
A region designating unit for designating a region where the subject exists in the second image displayed on the display unit as a target region to be cut out;
Cutting out means for setting a region corresponding to the target region specified by the region specifying unit in the first image, and cutting out a difference image between the target region and the set region;
The area specifying means further includes:
Display control means for enlarging and displaying the second image at an angle of view smaller than the angle of view at the time of shooting;
Designating means for designating, as the area, an angle of view smaller than the angle of view of the second image enlarged and displayed by the display control means;
The difference image generation apparatus characterized in that the cutout means cuts out the difference image within an area designated by the designation means .
操作に応じて、前記拡大表示を指示する指示手段を更に備え、In accordance with the operation, further comprising instruction means for instructing the enlarged display,
前記表示制御手段は、この指示手段の指示に応答して、前記表示手段に表示された第2の画像を拡大表示させることを特徴とする請求項1記載の差分画像生成装置。2. The difference image generating apparatus according to claim 1, wherein the display control unit enlarges and displays the second image displayed on the display unit in response to an instruction from the instruction unit.
第1の画像と、この第1の画像内に切り出すべき被写体が存在する第2の画像と、を一組の組画像として取得する取得手段、Acquisition means for acquiring a first image and a second image in which a subject to be cut out exists in the first image as a set of sets;
この取得手段により組画像として取得された前記第1の画像と前記第2の画像のうち、第2の画像を表示する表示手段、Display means for displaying a second image of the first image and the second image acquired as a combined image by the acquisition means,
この表示手段に表示された第2の画像の前記被写体が存在する領域を切り出す対象領域として指定する領域指定手段、A region designating unit for designating a region where the subject exists in the second image displayed on the display unit as a target region to be cut out;
この領域指定手段により指定された対象領域に対応する領域を前記第1の画像に設定し、前記対象領域とこの設定された領域との差分画像を切り出す切出手段、A cutting means for setting a region corresponding to the target region specified by the region specifying unit in the first image, and cutting out a difference image between the target region and the set region;
として機能させ、更に、Function as
前記領域指定手段は、The area specifying means includes:
前記第2の画像を、撮影時の画角よりも小さい画角で拡大表示するよう表示制御手段、Display control means for enlarging and displaying the second image at an angle of view smaller than the angle of view at the time of shooting;
この表示制御手段により拡大表示された第2の画像の前記撮影時の画角よりも小さい画角内を前記領域として指定する指定手段として機能させ、Functioning as a designating unit for designating, as the region, an angle of view smaller than the angle of view of the second image enlarged and displayed by the display control unit;
前記切出手段は、前記指定手段により指定された領域内において、前記差分画像を切り出すよう機能させることを特徴とするプログラム。The cutout unit causes the function to cut out the difference image in an area designated by the designation unit.
第1の画像と、この第1の画像内に切り出すべき被写体が存在する第2の画像と、を一組の組画像として取得する取得ステップと、An acquisition step of acquiring a first image and a second image in which a subject to be cut out exists in the first image as a set of sets;
この取得ステップにて組画像として取得された前記第1の画像と前記第2の画像のうち、第2の画像を表示部に表示させる表示ステップと、A display step of causing the display unit to display a second image of the first image and the second image acquired as a combined image in the acquisition step;
この表示ステップにて表示された第2の画像の前記被写体が存在する領域を切り出す対象領域として指定する領域指定ステップと、An area designating step of designating an area in which the subject of the second image displayed in the display step is present as a target area to be cut out;
この領域指定ステップにて指定された対象領域に対応する領域を前記第1の画像に設定し、前記対象領域とこの設定された領域との差分画像を切り出す切出ステップと、を含み更に、前記領域指定ステップは、A step of setting an area corresponding to the target area specified in the area specifying step in the first image, and cutting out a difference image between the target area and the set area. The area specification step
前記第2の画像を、撮影時の画角よりも小さい画角で拡大表示するよう表示制御ステップと、A display control step for enlarging and displaying the second image at an angle of view smaller than the angle of view at the time of shooting;
この表示制御ステップにて拡大表示された第2の画像の前記撮影時の画角よりも小さい画角内を前記領域として指定する指定ステップとを含み、A designating step of designating, as the region, an angle of view smaller than the angle of view of the second image enlarged and displayed in the display control step.
前記切出ステップは、前記指定ステップにて指定された領域内において、前記差分画像を切り出すことを特徴とする差分画像生成方法。The difference image generation method characterized in that, in the extraction step, the difference image is extracted in the region specified in the specification step.
JP2010079944A 2010-03-31 2010-03-31 DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD Expired - Fee Related JP5585168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010079944A JP5585168B2 (en) 2010-03-31 2010-03-31 DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010079944A JP5585168B2 (en) 2010-03-31 2010-03-31 DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD

Publications (2)

Publication Number Publication Date
JP2011210204A JP2011210204A (en) 2011-10-20
JP5585168B2 true JP5585168B2 (en) 2014-09-10

Family

ID=44941149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010079944A Expired - Fee Related JP5585168B2 (en) 2010-03-31 2010-03-31 DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD

Country Status (1)

Country Link
JP (1) JP5585168B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014006727A1 (en) 2012-07-05 2014-01-09 富士通株式会社 Image display device, image enlargement method, and image enlargement program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023317A (en) * 1996-07-04 1998-01-23 Canon Inc Image pickup picture processor and method therefor
JP2008092515A (en) * 2006-10-05 2008-04-17 Nikon Corp Electronic camera, image processing apparatus and program
EP2131589B1 (en) * 2007-03-28 2018-10-24 Fujitsu Limited Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2011210204A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
JP4645685B2 (en) Camera, camera control program, and photographing method
KR101346426B1 (en) Image processing device capable of generating wide-range image
KR101433121B1 (en) Image processing device for generating composite image having predetermined aspect ratio
JP2012120151A (en) Image capturing apparatus, image capturing control method, and program
KR20120119794A (en) Method and apparatus for photographing using special effect
JP2004336536A (en) Photographing device, method, and program
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP4631760B2 (en) Digital camera, image processing method and program
JP2005341416A (en) Electronic apparatus with imaging function, and its image display method
JP2011040896A (en) Image capturing apparatus and method of controlling the same
JP5141392B2 (en) Imaging apparatus, peripheral sound range display method, and program
JP2011024123A (en) Three-dimensional imaging apparatus, and three-dimensional image display method
JP2010141609A (en) Imaging apparatus
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP5585168B2 (en) DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD
JP5035614B2 (en) Imaging apparatus and program
JP6223173B2 (en) Image processing apparatus, control method thereof, and program
JP4696614B2 (en) Image display control device and program
JP2006261912A (en) Imaging device
JP2012073512A (en) Photographing device and program
JP5289354B2 (en) Imaging device
JP2005318009A (en) Electronic camera and image processing program
CN101299802B (en) Device with display and information processing method
JP2005278003A (en) Image processing apparatus
KR101392382B1 (en) Apparatus and method for emboding panorama function of camera in portable terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140707

R150 Certificate of patent or registration of utility model

Ref document number: 5585168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees