[go: up one dir, main page]

JP2011250340A - Imaging apparatus and control method of same - Google Patents

Imaging apparatus and control method of same Download PDF

Info

Publication number
JP2011250340A
JP2011250340A JP2010123917A JP2010123917A JP2011250340A JP 2011250340 A JP2011250340 A JP 2011250340A JP 2010123917 A JP2010123917 A JP 2010123917A JP 2010123917 A JP2010123917 A JP 2010123917A JP 2011250340 A JP2011250340 A JP 2011250340A
Authority
JP
Japan
Prior art keywords
video
imaging
recording
unit
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010123917A
Other languages
Japanese (ja)
Inventor
Yuji Kawahara
裕司 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010123917A priority Critical patent/JP2011250340A/en
Publication of JP2011250340A publication Critical patent/JP2011250340A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus in which convenience with respect to the start of composition of images captured by a plurality of imaging means.SOLUTION: In response to the input of a speech from a photographer side to a sub microphone 211, an imaging apparatus 100 starts, at the time point, composing an image captured with a sub camera with an image captured with a main camera, displaying and recording the composed image.

Description

本発明は、撮像装置に関し、特に、複数の撮像手段を備えた撮像装置およびその制御方法に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus including a plurality of imaging units and a control method thereof.

従来から複数の撮像手段を備えた装置が開示されていた。たとえば、特許文献1(特開2005−80117号公報)には、一対の撮像手段の中の、一方の撮像手段で撮影者自身を撮像し、他方の撮像手段で被写体を撮像し、そして、双方で撮像された画像を合成する技術が開示されている。なお、ここでいう合成は、一方の撮像手段で撮像された画像から背景画像を除去して撮影者を抽出し、抽出した画像を上記他方の撮像手段で撮像された画像に嵌めこむことにより、行なわれる。このようにされることで、娯楽性の高い写真撮像を行なうことができる。   Conventionally, an apparatus including a plurality of imaging units has been disclosed. For example, in Patent Document 1 (Japanese Patent Application Laid-Open No. 2005-80117), a photographer himself is imaged with one imaging means of a pair of imaging means, a subject is imaged with the other imaging means, and both A technique for synthesizing an image captured in (1) is disclosed. Note that the composition here refers to extracting the photographer by removing the background image from the image captured by one imaging means, and fitting the extracted image into the image captured by the other imaging means, Done. By doing so, it is possible to perform photography with high entertainment.

特開2005−80117号公報JP 2005-80117 A

しかしながら、上記したような画像の合成を行なうには、撮像装置において「2ショット撮影モード」などの設定を行なわなければならず、たとえば、撮影者が、一方の撮像手段での撮像中に上記したような画像の合成をしたいと思い立った場合などには、撮影動作を中止して設定のための操作を必要とされ、煩雑であった。   However, in order to synthesize the images as described above, it is necessary to make a setting such as “two-shot shooting mode” in the imaging apparatus. For example, the photographer described above during imaging with one imaging means When it is desired to synthesize such images, the shooting operation is stopped and an operation for setting is required, which is complicated.

本発明は、係る実情に鑑み考え出されたものであり、その目的は、撮像装置において、複数の撮像手段によって撮像された画像の合成の開始についての利便性を向上させることである。   The present invention has been conceived in view of such circumstances, and an object of the present invention is to improve convenience in the start of synthesis of images captured by a plurality of imaging units in an imaging apparatus.

本発明のある局面に従った撮像装置は、第1被写体を撮像する第1撮像手段と、第2被写体を撮像する第2撮像手段と、第1被写体側から発せられる音声を集音する集音手段と、集音手段に音声が集音されたことに起因して、第1撮像手段によって撮像された映像と第2撮像手段によって撮像された映像とを合成する態様で記録媒体に記録する記録手段とを備える。   An imaging apparatus according to an aspect of the present invention includes a first imaging unit that captures an image of a first subject, a second imaging unit that captures an image of a second subject, and a sound collection device that collects sound emitted from the first subject side. Recording on the recording medium in a manner in which the video imaged by the first imaging means and the video imaged by the second imaging means are synthesized due to the sound being collected by the means and the sound collecting means Means.

また、本発明の撮像装置では、集音手段は、第1被写体に対向する向きで保持可能なマイクロフォンを含み、記録手段は、マイクロフォンによって第1被写体からの音声が集音されたことに起因して第1撮像手段によって撮像された映像を第2撮像手段によって撮像された映像に合成する態様で、記録媒体に記録することが好ましい。   In the imaging apparatus of the present invention, the sound collecting means includes a microphone that can be held in a direction facing the first subject, and the recording means is caused by the sound collected from the first subject by the microphone. It is preferable to record on the recording medium in such a manner that the video imaged by the first imaging unit is combined with the video imaged by the second imaging unit.

また、本発明の撮像装置は、第1撮像手段によって撮像された映像と第2撮像手段によって撮像された映像とが合成された映像を表示する表示手段をさらに備えることが好ましい。   Moreover, it is preferable that the imaging device of the present invention further includes a display unit that displays a video obtained by combining the video captured by the first imaging unit and the video captured by the second imaging unit.

また、本発明の撮像装置では、記録手段は、集音手段が第1被写体から発せられる音声を集音した時点から、第1撮像手段によって撮像された映像を第2撮像手段によって撮像された映像に合成する態様での記録を開始することが好ましい。   In the imaging apparatus of the present invention, the recording means captures an image captured by the first imaging means from the time when the sound collecting means collects the sound emitted from the first subject. It is preferable to start recording in the mode of synthesis.

また、本発明の撮像装置では、記録手段は、集音手段が第1被写体から発せられる音声を集音した時点より一定時間前から、第1撮像手段によって撮像された映像を第2撮像手段によって撮像された映像に合成する態様での記録を開始することが好ましい。   In the imaging apparatus of the present invention, the recording means uses the second imaging means to capture the video imaged by the first imaging means from a certain time before the time when the sound collecting means collects the sound emitted from the first subject. It is preferable to start recording in such a manner that it is combined with the captured image.

また、本発明の撮像装置では、記録手段は、集音手段が第1被写体から発せられる音声を集音した時点から所定時間が経過したときに、第1撮像手段によって撮像された映像を第2撮像手段によって撮像された映像に合成する態様での記録を停止することが好ましい。   In the image pickup apparatus of the present invention, the recording means outputs the second image captured by the first image pickup means when a predetermined time has elapsed since the sound collection means picked up the sound emitted from the first subject. It is preferable to stop the recording in a mode of combining with the video imaged by the imaging means.

本発明の他の局面に従った撮像装置は、第1被写体を撮像する第1撮像手段と、第1撮像手段によって撮像された第1映像を記録媒体に記録する第1記録手段と、第2被写体を撮像する第2撮像手段と、第2撮像手段によって撮像された第2映像を記録媒体に記録する第2記録手段と、第1被写体側から発せられる音声を集音する集音手段と、集音手段によって音声が集音されたことに起因して、第1映像と第2映像を合成する態様で再生するための情報を記録する第3記録手段と、情報に基づいて第1映像と第2映像を合成する態様で再生する再生手段とを備える。   An imaging apparatus according to another aspect of the present invention includes a first imaging unit that images a first subject, a first recording unit that records a first video imaged by the first imaging unit, and a second recording unit. Second imaging means for imaging the subject, second recording means for recording the second video imaged by the second imaging means on a recording medium, sound collection means for collecting sound emitted from the first subject side, Due to the fact that the sound is collected by the sound collecting means, third recording means for recording information for reproduction in a mode of combining the first video and the second video, and the first video based on the information, And a reproducing means for reproducing the second video in a mode of synthesizing the second video.

本発明のさらに他の局面に従った撮像装置の制御方法は、第1被写体を撮像する第1撮像手段と、第2被写体を撮像する第2撮像手段と、第1被写体側から発せられる音声を集音する集音手段とを備えた撮像装置の制御方法であって、集音手段が音声を集音したか否かを判断するステップと、集音手段が音声を集音したと判断した場合に、第1撮像手段によって撮像された映像と第2撮像手段によって撮像された映像とを合成する態様で記録媒体に記録するステップとを備える。   According to still another aspect of the present invention, there is provided a method for controlling an imaging apparatus, comprising: a first imaging unit that images a first subject; a second imaging unit that images a second subject; and a sound emitted from the first subject side. A method of controlling an image pickup apparatus including a sound collecting means for collecting sound, wherein the sound collecting means determines whether or not the sound collecting means has collected sound, and the sound collecting means determines that sound has been collected. And a step of recording on the recording medium in a manner to synthesize the video imaged by the first imaging unit and the video imaged by the second imaging unit.

本発明の別の局面に従った撮像装置の制御方法は、第1被写体を撮像する第1撮像手段と、第2被写体を撮像する第2撮像手段と、第1被写体側から発せられる音声を集音する集音手段とを備えた撮像装置の制御方法であって、第1撮像手段によって撮像された第1映像を記録媒体に記録するステップと、第2撮像手段によって撮像された第2映像を記録媒体に記録するステップと、集音手段によって音声が集音されたことに起因して、第1映像と第2映像を合成する態様で再生するための情報を記録するステップと、情報に基づいて第1映像と第2映像を合成する態様で再生するステップとを備える。   According to another aspect of the present invention, there is provided a method for controlling an imaging apparatus, comprising: a first imaging unit that images a first subject; a second imaging unit that images a second subject; and a sound emitted from the first subject side. An image pickup apparatus control method comprising: a sound collecting means for sounding, the method comprising: recording a first video imaged by the first imaging means on a recording medium; and a second video imaged by the second imaging means. Recording on the recording medium, recording information for reproduction in a manner of combining the first video and the second video due to the sound collected by the sound collecting means, and based on the information And a step of reproducing the first video and the second video in a combined mode.

本発明によれば、撮像装置において、複数の撮像手段によって撮像された映像が合成されたものを、当該複数の撮像手段の中の1つの撮像手段の被写体側から発せられる音声を集音する集音手段が音声を集音したことに起因して開始することができる。   According to the present invention, in the imaging apparatus, a combination of videos captured by a plurality of imaging units is collected to collect sound emitted from the subject side of one imaging unit among the plurality of imaging units. It can be started due to the sound means collecting the sound.

これにより、撮影者は、撮影動作を中止して特別な操作をすることなく、上記した複数の撮像手段によって撮像された映像を記録させることができ、撮像装置の利便性を向上することができる。   Thereby, the photographer can record the video imaged by the plurality of imaging means without stopping the photographing operation and performing a special operation, and the convenience of the imaging device can be improved. .

本発明の第1の実施の形態である撮像装置の外観図である。1 is an external view of an imaging apparatus that is a first embodiment of the present invention. 本発明の第1の実施の形態である撮像装置の外観図である。1 is an external view of an imaging apparatus that is a first embodiment of the present invention. 図1の撮像装置の構成の概略を示すブロック図である。It is a block diagram which shows the outline of a structure of the imaging device of FIG. 図1の撮像装置における信号の流れを示す図である。It is a figure which shows the flow of the signal in the imaging device of FIG. 図1の撮像装置におけるメインカメラの映像とサブカメラの映像の合成を説明するための図である。It is a figure for demonstrating the synthesis | combination of the image | video of the main camera and the image | video of a subcamera in the imaging device of FIG. 図1の撮像装置において実行される合成映像記録処理のフローチャートである。It is a flowchart of the synthetic | combination video recording process performed in the imaging device of FIG. 図1の撮像装置における合成映像の生成態様を説明するための図である。It is a figure for demonstrating the production | generation aspect of the synthetic | combination image | video in the imaging device of FIG. 本発明の第2の実施の形態である撮像装置における合成映像の生成態様を説明するための図である。It is a figure for demonstrating the production | generation aspect of the synthesized image in the imaging device which is the 2nd Embodiment of this invention. 本発明の第3の実施の形態である撮像装置の構成の概略を示すブロック図である。It is a block diagram which shows the outline of a structure of the imaging device which is the 3rd Embodiment of this invention. 図9の撮像装置において実行される再生情報登録処理のフローチャートである。10 is a flowchart of reproduction information registration processing executed in the imaging apparatus of FIG. 図9の撮像装置における、サブカメラの映像に関して登録される情報の内容を説明するための図である。It is a figure for demonstrating the content of the information registered regarding the image | video of a subcamera in the imaging device of FIG. 図9の撮像装置において実行される再生処理のフローチャートである。10 is a flowchart of a reproduction process that is executed in the imaging apparatus of FIG. 9. 図9の撮像装置において表示される案内画面の一例を示す図である。It is a figure which shows an example of the guidance screen displayed in the imaging device of FIG. 本発明の第1の実施の形態の撮像装置の変形例の外観図である。It is an external view of the modification of the imaging device of the 1st Embodiment of this invention.

以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.

[第1の実施の形態]
(1.撮像装置の全体構成)
図1および図2は、この発明の第1の実施の形態である撮像装置100の外観図である。図1は、撮像装置100をレンズ側から見た外観図である。図2は、撮像装置100を操作パネル側から見た外観図である。
[First Embodiment]
(1. Overall configuration of imaging apparatus)
1 and 2 are external views of an image pickup apparatus 100 according to the first embodiment of the present invention. FIG. 1 is an external view of the imaging apparatus 100 as viewed from the lens side. FIG. 2 is an external view of the imaging apparatus 100 as viewed from the operation panel side.

撮像装置100は、デジタルムービーカメラであってもよいし、またはビデオカメラ機能を有する携帯通信端末であってもよい。   The imaging apparatus 100 may be a digital movie camera or a mobile communication terminal having a video camera function.

撮像装置100は、主に、レンズなどの光学系151を備える本体部と、表示部140を備えるモニタユニット部とから構成される。モニタユニット部を本体部に折り畳んだときにモニタユニット部が接する本体部の側面には、電源のオンまたはオフを切替えるための電源ボタン132が設けられる。本体部の上面の操作パネル側には、ズームレンジを広角または望遠に切替えるためのズームレンジボタン131が設けられる。   The imaging apparatus 100 mainly includes a main body unit including an optical system 151 such as a lens and a monitor unit unit including a display unit 140. A power button 132 for switching power on or off is provided on the side surface of the main body that the monitor unit contacts when the monitor unit is folded into the main body. A zoom range button 131 for switching the zoom range to a wide angle or telephoto is provided on the operation panel side on the upper surface of the main body.

操作パネルには、広角側または望遠側に徐々にズームするためのズームスイッチ133、静止画を撮像するためのフォトボタン134、動画の録画を開始または停止するためのムービーボタン135、撮影モードまたは再生モードに切替えるためのREC/PLAYボタン136、各種設定モードに切替えるためのメニューボタン137、および、各種設定において上下左右に動かすことで選択操作をするとともに押下することで決定操作をするためのセットボタン138が設けられる。   The operation panel includes a zoom switch 133 for gradually zooming toward the wide-angle side or the telephoto side, a photo button 134 for capturing a still image, a movie button 135 for starting or stopping recording of a moving image, a shooting mode or playback. REC / PLAY button 136 for switching to a mode, menu button 137 for switching to various setting modes, and a set button for performing a selection operation by moving up, down, left and right in various settings and a determination operation by pressing 138 is provided.

光学系151と後述する撮像素子161は、被写体(第2被写体)を撮像するためのカメラ装置を構成し、第2撮像手段を構成する。   The optical system 151 and an imaging element 161 described later constitute a camera device for imaging a subject (second subject) and constitute a second imaging unit.

モニタユニット部の、当該モニタユニット部が開かれた状態にあるときに被写体に向けられる面には、メインマイク181が設けられている。メインマイク181は、被写体側の音声を主に集音するように、被写体側に良好な感度を有する。   A main microphone 181 is provided on the surface of the monitor unit that faces the subject when the monitor unit is in an open state. The main microphone 181 has good sensitivity on the subject side so as to mainly collect sound on the subject side.

モニタユニット部の、当該モニタユニット部が開かれた状態にあるときに撮影者に対向する面には、表示部140と、光学系221と、サブマイク211が設けられている。光学系221と後述する撮像素子231は、主に撮影者(第1被写体)を撮像するためのカメラ装置を構成し、第1撮像手段を構成する。モニタユニット部は、開かれた状態では、サブマイク211を撮影者に対向する向きで保持する。サブマイク211は、撮影者側の音声を主に集音するように、撮影者側に良好な感度を有する。本実施の形態では、サブマイク211により、集音手段が構成される。   A display unit 140, an optical system 221, and a sub microphone 211 are provided on a surface of the monitor unit unit that faces the photographer when the monitor unit unit is open. The optical system 221 and an image sensor 231 to be described later mainly constitute a camera device for imaging a photographer (first subject), and constitute a first imaging means. In the opened state, the monitor unit unit holds the sub microphone 211 in a direction facing the photographer. The sub microphone 211 has good sensitivity on the photographer side so as to mainly collect the sound on the photographer side. In the present embodiment, the sub microphone 211 constitutes sound collecting means.

本明細書では、以下、第1撮像手段を構成する光学系221と撮像素子231を合わせて「サブカメラ」と呼ぶ場合がある。また、第2撮像手段を構成する光学系151と撮像素子161を合わせて「メインカメラ」と呼ぶ場合がある。   In the present specification, hereinafter, the optical system 221 and the image sensor 231 constituting the first imaging unit may be collectively referred to as a “sub camera”. Further, the optical system 151 and the image sensor 161 constituting the second image pickup unit may be collectively referred to as “main camera”.

モニタユニット部では、図2から主に理解されるように、ムービーボタン135等の操作ボタンが上方に位置するような、一般的に撮像が行なわれる状態において、表示部140は、撮像装置100本体の左側に位置し、そして、光学系221およびサブマイク211は、表示部140の左側に位置するように設けられている。これにより、撮影者が右手で撮像装置100の本体を持って撮像する際、より確実に、光学系221によって撮影者の顔等の映像を撮像でき、かつ、サブマイク211によって撮影者が発する声を集音することができる。   In the monitor unit section, as is mainly understood from FIG. 2, the display section 140 is the main body of the imaging apparatus 100 in a state in which imaging is generally performed such that an operation button such as a movie button 135 is positioned above. The optical system 221 and the sub microphone 211 are provided on the left side of the display unit 140. Thus, when the photographer captures the image of the imaging apparatus 100 with the right hand, the optical system 221 can more reliably capture an image of the photographer's face and the like, and the sub-microphone 211 emits a voice from the photographer. Sound can be collected.

撮像装置100では、表示部140、光学系221およびサブマイク211は、撮像装置100本体に対して折畳可能なモニタユニット部に設けられているが、これらは、必ずしも本体に対して折畳み可能な部材に設けられていなくとも良い。つまり、撮像装置100のいて、モニタユニット部が折畳可能であることは、必須の構成要件ではない。   In the imaging device 100, the display unit 140, the optical system 221 and the sub microphone 211 are provided in a monitor unit unit that can be folded with respect to the main body of the imaging device 100. However, these are not necessarily members that can be folded with respect to the main body. It does not have to be provided. That is, it is not an indispensable constituent requirement that the monitor unit can be folded in the imaging apparatus 100.

(2.撮像装置のブロック構成)
図3は、この実施の形態における撮像装置100の構成の概略を示すブロック図である。図4は、この実施の形態における撮像装置100の信号の流れを示す図である。なお、図4において、流れを示す矢印のうち実線のものは、画像に関する信号を示し、破線のものは、制御に関する信号を示す。
(2. Block configuration of imaging device)
FIG. 3 is a block diagram showing an outline of the configuration of the imaging apparatus 100 according to this embodiment. FIG. 4 is a diagram showing a signal flow of the imaging apparatus 100 in this embodiment. In FIG. 4, a solid line among arrows indicating flow indicates a signal related to an image, and a broken line indicates a signal related to control.

図3および図4を参照して、撮像装置100は、制御部110と、記憶部120と、操作部130と、表示部140と、光学系制御部150と、光学系151,221と、撮像素子制御部160,230と、撮像素子161,231と、映像処理部170,240と、AD(Analog Digital)変換部171,241と、音声処理部180,210と、メインマイク181と、サブマイク211と、スピーカ182と、圧縮伸張処理部190,250と、合成処理部260とを備える。   3 and 4, the imaging apparatus 100 includes a control unit 110, a storage unit 120, an operation unit 130, a display unit 140, an optical system control unit 150, optical systems 151 and 221, and imaging. Element control units 160 and 230, image sensors 161 and 231, video processing units 170 and 240, AD (Analog Digital) conversion units 171 and 241, audio processing units 180 and 210, a main microphone 181, and a sub microphone 211. And a speaker 182, compression / decompression processing units 190 and 250, and a synthesis processing unit 260.

操作部130は、図1で説明した電源ボタン132、ズームレンジボタン131、および、操作パネルの各種ボタンからの操作信号を制御部110に送信する。   The operation unit 130 transmits operation signals from the power button 132, the zoom range button 131, and various buttons on the operation panel described with reference to FIG.

記憶部120は、ROM(Read Only Memory)(たとえば、フラッシュメモリ)などの不揮発性メモリおよびRAM(Random Access Memory)(たとえば、SDRAM(synchronous Dynamic Random Access Memory))などの揮発性メモリ、ならびに、メモリカード121(たとえば、SDメモリカードおよびUSBメモリ)のデータを読書きするためのメモリカードスロットを含む。   The storage unit 120 includes a non-volatile memory such as a ROM (Read Only Memory) (for example, a flash memory), a volatile memory such as a RAM (Random Access Memory) (for example, a SDRAM (synchronous Dynamic Random Access Memory)), and a memory. A memory card slot for reading / writing data of the card 121 (for example, an SD memory card and a USB memory) is included.

なお、記憶部120は、不揮発性メモリおよび揮発性メモリなどの半導体メモリに加えてまたは替えて、他の内部記憶装置、たとえば、ハードディスクドライブを含むようにしてもよい。また、記憶部120は、メモリカードスロットに加えてまたは替えて、他の外部記憶装置、たとえば、光ディスク(たとえば、DVD(Digital Versatile Disc)およびBD(Blu-ray Disc))などの記録媒体のデータを読書きする装置を含むようにしていもよい。   Note that the storage unit 120 may include other internal storage devices such as a hard disk drive in addition to or instead of the semiconductor memory such as the nonvolatile memory and the volatile memory. In addition to or instead of the memory card slot, the storage unit 120 also stores data in other external storage devices, for example, recording media such as optical discs (eg, DVD (Digital Versatile Disc) and BD (Blu-ray Disc)). A device for reading and writing may be included.

記憶部120は、撮像装置100を制御するためのプログラムのデータ、撮像装置100を制御するためのデータ、撮像装置100の各種機能を設定するための設定データ、および、撮像装置100によって撮像された静止画または動画のデータなどを記録する。   The storage unit 120 stores data of a program for controlling the imaging apparatus 100, data for controlling the imaging apparatus 100, setting data for setting various functions of the imaging apparatus 100, and images captured by the imaging apparatus 100. Record still image or video data.

また、記憶部120は、プログラムが実行されるときのワークメモリ、および、撮像処理が行なわれるときのバッファメモリなどとして用いられる。   The storage unit 120 is used as a work memory when a program is executed and a buffer memory when an imaging process is performed.

制御部110は、CPU(Central Processing Unit)を含み、記憶部120に記録された撮像装置100を制御するためのプログラムに従って、操作部130からの操作信号に応じて、記憶部120、表示部140、光学系制御部150、撮像素子制御部160,230、映像処理部170,240、音声処理部180,210、圧縮伸張処理部190,250、および合成処理部260を制御する。   The control unit 110 includes a CPU (Central Processing Unit), and in accordance with an operation signal from the operation unit 130 according to a program for controlling the imaging device 100 recorded in the storage unit 120, the storage unit 120 and the display unit 140. The optical system control unit 150, the image sensor control units 160 and 230, the video processing units 170 and 240, the audio processing units 180 and 210, the compression / decompression processing units 190 and 250, and the synthesis processing unit 260 are controlled.

光学系151は、複数のレンズ、絞り、および、レンズの位置および絞りの開度を変更するためのアクチュエータを含む。光学系151は、外部の被写体やその背景などから入射された光を撮像素子161の受光面に導く。   The optical system 151 includes a plurality of lenses, a diaphragm, and an actuator for changing the position of the lens and the opening of the diaphragm. The optical system 151 guides light incident from an external subject or its background to the light receiving surface of the image sensor 161.

光学系151のアクチュエータは、光学系制御部150からの制御信号に従って、レンズの位置、ならびに、絞りの開度を調整することによって、所定の範囲で、撮像素子161の受光面で結像する画像のズーム倍率を変更したり、受光面でのフォーカスを調整したり、受光面に入射される光量を制限したりする。   The actuator of the optical system 151 adjusts the position of the lens and the aperture of the diaphragm according to a control signal from the optical system control unit 150, thereby forming an image formed on the light receiving surface of the image sensor 161 within a predetermined range. The zoom magnification is changed, the focus on the light receiving surface is adjusted, and the amount of light incident on the light receiving surface is limited.

光学系制御部150は、制御部110からの制御信号に従って、光学系151のアクチュエータを制御して、撮像素子161で結像される画像のズーム倍率およびフォーカス、ならびに、撮像素子161への入射光量を変化させる。   The optical system control unit 150 controls the actuator of the optical system 151 in accordance with a control signal from the control unit 110, and the zoom magnification and focus of the image formed on the image sensor 161 and the amount of light incident on the image sensor 161. To change.

たとえば、操作部130は、ズームスイッチ133が望遠側または広角側に操作されると、それぞれ、その旨の操作信号を制御部110に送信する。制御部110のCPUによってプログラムが実行されることによって制御部110に構成されるズーム制御部111は、望遠側または広角側にズームする旨の操作信号を受けると、それぞれ、光学ズームのズーム倍率を徐々に上げるまたは下げるための制御信号を、光学系制御部150に送信する。   For example, when the zoom switch 133 is operated to the telephoto side or the wide angle side, the operation unit 130 transmits an operation signal to that effect to the control unit 110, respectively. When the zoom control unit 111 configured in the control unit 110 by executing a program by the CPU of the control unit 110 receives an operation signal for zooming to the telephoto side or the wide angle side, the zoom magnification of the optical zoom is set. A control signal for gradually increasing or decreasing is transmitted to the optical system control unit 150.

光学系制御部150は、制御部110から光学ズームのズーム倍率を徐々に上げるための制御信号が送信されてきた場合は、光学系151の画角を徐々に望遠側に移行させるための制御信号を、光学系151のアクチュエータに送信し、ズーム倍率を徐々に下げるための制御信号が送信されてきた場合は、光学系151の画角を徐々に広角側に移行させるための制御信号を、光学系151のアクチュエータに送信する。光学系151のアクチュエータは、光学系制御部150からの制御信号に応じて、光学系151の画角を徐々に望遠側または広角側に移行させるようにレンズの位置を動かす。   When the control signal for gradually increasing the zoom magnification of the optical zoom is transmitted from the control unit 110, the optical system control unit 150 is a control signal for gradually shifting the angle of view of the optical system 151 to the telephoto side. Is transmitted to the actuator of the optical system 151, and a control signal for gradually decreasing the zoom magnification is transmitted, a control signal for gradually shifting the angle of view of the optical system 151 to the wide angle side is transmitted to the optical system 151. It transmits to the actuator of the system 151. The actuator of the optical system 151 moves the position of the lens so that the angle of view of the optical system 151 is gradually shifted to the telephoto side or the wide angle side in accordance with a control signal from the optical system control unit 150.

光学系221は、複数のレンズを含み、当該レンズを介して、外部から入射された光を撮像素子231の受光面に導く。   The optical system 221 includes a plurality of lenses, and guides light incident from the outside to the light receiving surface of the image sensor 231 via the lenses.

撮像素子161,231は、光を検出して電荷を発生させるフォトダイオードをそれぞれ1つ含む受光部を2次元に複数配列した受光面を有するエリアイメージセンサであり、本実施の形態においては、CCD(Charge Coupled Device)イメージセンサである。なお、撮像素子161,231は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサであってもよい。   The image pickup devices 161 and 231 are area image sensors each having a light receiving surface in which a plurality of light receiving portions each including one photodiode that detects light and generates charges are arranged in two dimensions. (Charge Coupled Device) An image sensor. The imaging elements 161 and 231 may be CMOS (Complementary Metal Oxide Semiconductor) image sensors.

撮像素子161,231は、撮像素子制御部160,230によって制御されて、光学系151,221のそれぞれから入射された光が受光面で結像した画像を、各受光部ごとの画像の光の明暗に応じて光電変換により電荷として蓄積し、撮像素子制御部160からの駆動パルスに従って、順次、受光部ごとの電荷の量を電圧に変換して、それらの電圧の変化を電気信号として出力する。   The image pickup devices 161 and 231 are controlled by the image pickup device control units 160 and 230, and images formed by the light incident from the optical systems 151 and 221 are formed on the light receiving surfaces. It accumulates as electric charge by photoelectric conversion according to light and dark, sequentially converts the amount of electric charge for each light receiving unit into voltage according to the drive pulse from the image sensor control unit 160, and outputs the change in the voltage as an electric signal. .

AD変換部171,241は、撮像素子制御部160,230によってそれぞれ制御されて、撮像素子161,231からのアナログの電気信号を、量子化してデジタルの画像信号に変換する。   The AD conversion units 171 and 241 are controlled by the image sensor control units 160 and 230, respectively, and quantize analog electrical signals from the image sensors 161 and 231 to convert them into digital image signals.

撮像素子制御部160,230は、制御部110からの制御信号に従って、撮像素子161,231およびAD変換部171,241にクロック信号を供給したり、撮像素子161,231の駆動モードを切替えたりする。   The imaging element control units 160 and 230 supply clock signals to the imaging elements 161 and 231 and the AD conversion units 171 and 241 and switch the driving modes of the imaging elements 161 and 231 in accordance with a control signal from the control unit 110. .

たとえば、操作部130は、ズームレンジボタン131が操作されると、その旨の操作信号を制御部110に送信する。制御部110のCPUによってプログラムが実行されることによって制御部110に構成される駆動モード制御部112は、ズームレンジボタン131が操作された旨の操作信号を受信すると、撮像素子161の駆動モードを切替えるための制御信号を、撮像素子制御部160に送信する。撮像素子制御部160は、撮像素子161の駆動モードを切替えるための制御信号を受信すると、撮像素子161の駆動モードを切替える。撮像素子161は、切替えられた駆動モードに従って電気信号を出力する。   For example, when the zoom range button 131 is operated, the operation unit 130 transmits an operation signal to that effect to the control unit 110. When the drive mode control unit 112 configured in the control unit 110 by executing a program by the CPU of the control unit 110 receives an operation signal indicating that the zoom range button 131 has been operated, the drive mode control unit 112 sets the drive mode of the image sensor 161. A control signal for switching is transmitted to the image sensor control unit 160. When the image sensor control unit 160 receives a control signal for switching the drive mode of the image sensor 161, the image sensor control unit 160 switches the drive mode of the image sensor 161. The image sensor 161 outputs an electrical signal according to the switched drive mode.

映像処理部170,240は、制御部110からの制御信号に従って、AD変換部171,241からのデジタル化されたベイヤーパターンの画像信号をRGB信号に変換したり、ガンマ補正などの階調補正処理をしたり、RGB信号からYCbCr信号へ変換したり、YCbCr信号を記憶部120の映像バッファ122,124のそれぞれに一時的に記録させたりする。また、映像処理部170,240は、画像を補正するための他の処理を行なうようにしてもよい。   The video processing units 170 and 240 convert the digitized Bayer pattern image signals from the AD conversion units 171 and 241 into RGB signals in accordance with control signals from the control unit 110, and tone correction processing such as gamma correction. Or converting RGB signals into YCbCr signals, or temporarily recording YCbCr signals in the video buffers 122 and 124 of the storage unit 120, respectively. In addition, the video processing units 170 and 240 may perform other processing for correcting the image.

メインマイク181,サブマイク211は、外部からの音声を電圧の変化で示される電気信号に変換して音声処理部180,210にそれぞれ送信する。   The main microphone 181 and the sub microphone 211 convert an external sound into an electric signal indicated by a change in voltage and transmit it to the sound processing units 180 and 210, respectively.

音声処理部180,210は、制御部110からの制御信号に従って、メインマイク181,サブマイク211からのアナログの電気信号を、量子化してデジタルの音声信号に変換して、記憶部120のバッファに記録させる。また、音声処理部180,210は、制御部110からの制御信号に従って、圧縮伸張処理部190,250で伸張された音声信号をアナログの電気信号に変換してスピーカ182に出力する。   The audio processing units 180 and 210 quantize the analog electrical signals from the main microphone 181 and the sub microphone 211 in accordance with the control signal from the control unit 110, convert them into digital audio signals, and record them in the buffer of the storage unit 120. Let Also, the audio processing units 180 and 210 convert the audio signal expanded by the compression / decompression processing units 190 and 250 into an analog electric signal according to the control signal from the control unit 110 and output the analog electric signal to the speaker 182.

スピーカ182は、音声処理部180,210から出力された電気信号を音声に変換して外部に出力する。なお、スピーカ182には、音声処理部180と音声処理部210から出力された電気信号を適宜合成するミキサを含む。   The speaker 182 converts the electrical signal output from the sound processing units 180 and 210 into sound and outputs the sound to the outside. Note that the speaker 182 includes a mixer that appropriately synthesizes the electrical signals output from the audio processing unit 180 and the audio processing unit 210.

圧縮伸張処理部190,250は、制御部110からの制御信号に従って、記憶部120の映像バッファ122,124に記録されたYCbCr信号を読出し、合成処理部260に適宜合成させ、記憶部120のバッファの音声信号も読出し、読出したYCbCr信号および音声信号を圧縮して、MPEG−4(Moving Picture Experts Group phase 4)フォーマット形式の映像データに変換して、その映像データを記憶部120の書込みバッファ123に記録させる。   The compression / decompression processing units 190 and 250 read the YCbCr signals recorded in the video buffers 122 and 124 of the storage unit 120 in accordance with the control signal from the control unit 110, and appropriately combine them in the synthesis processing unit 260, thereby buffering the storage unit 120. Are read out, the read YCbCr signal and the audio signal are compressed, converted into video data in the MPEG-4 (Moving Picture Experts Group phase 4) format, and the video data is written into the write buffer 123 of the storage unit 120. To record.

制御部110は、記憶部120の書込みバッファ123に記録された映像データをメモリカード121に記録させる。本実施の形態では、合成映像をメモリカード121に記録する記憶部120により、記録手段が構成されている。   The control unit 110 causes the memory card 121 to record the video data recorded in the write buffer 123 of the storage unit 120. In the present embodiment, the storage unit 120 that records the composite video on the memory card 121 constitutes a recording unit.

たとえば、操作部130は、ムービーボタン135が操作されると、その旨の操作信号を制御部110に送信する。制御部110のCPUによってプログラムが実行されることによって制御部110に構成される撮像開始停止制御部113は、ムービーボタン135が操作された旨の操作信号を受けると、動画を撮像中であれば、撮像を停止させるための制御を行ない、動画を撮像中でなければ、撮像を開始させるための制御を行なう。   For example, when the movie button 135 is operated, the operation unit 130 transmits an operation signal to that effect to the control unit 110. When the imaging start / stop control unit 113 configured in the control unit 110 by executing a program by the CPU of the control unit 110 receives an operation signal indicating that the movie button 135 has been operated, if the video is being captured, Then, control for stopping the imaging is performed, and if the moving image is not being captured, the control for starting the imaging is performed.

具体的には、撮像を開始させるための制御として、撮像素子が撮像の設定に応じた電気信号を出力するように撮像素子制御部160,230に制御信号を送信し、撮像のための処理を開始するように映像処理部170,240、圧縮伸張処理部190,250、合成処理部260および記憶部120の各バッファを制御する。   Specifically, as a control for starting imaging, a control signal is transmitted to the imaging element control units 160 and 230 so that the imaging element outputs an electrical signal corresponding to the imaging setting, and processing for imaging is performed. The video processing units 170 and 240, the compression / decompression processing units 190 and 250, the composition processing unit 260, and the buffers of the storage unit 120 are controlled to start.

表示部140は、表示装置(たとえば、LCD(Liquid Crystal Display))を含み、制御部からの制御信号に従って、映像処理部170で処理された映像もしくは記憶部120のメモリカード121などに記録された映像、それらの映像に重ねて撮像装置100の状態を示す表示(たとえば、残り撮像時間、電池の残量など)、および、各種メニュー画面(たとえば、各種設定値を設定するための画面、再生する映像を選択する画面など)等を表示する。   The display unit 140 includes a display device (for example, an LCD (Liquid Crystal Display)), and is recorded on the video processed by the video processing unit 170 or the memory card 121 of the storage unit 120 in accordance with a control signal from the control unit. Video, display indicating the state of the imaging apparatus 100 overlaid on the video (for example, remaining imaging time, remaining battery level, etc.), and various menu screens (for example, screens for setting various setting values) Display a screen for selecting an image).

(3.映像の合成)
本実施の形態の撮像装置100は、メインカメラで撮像された映像を記録しているときに、サブマイク211が音声を集音したことに起因して、サブカメラで撮像された映像をメインカメラで撮像された映像と合成して記録する。このことを、以下、図5を参照して具体的に説明する。
(3. Video composition)
The imaging apparatus 100 according to the present embodiment records video captured by the sub camera with the main camera due to the fact that the sub microphone 211 collects sound while recording video captured by the main camera. Record and synthesize the captured video. This will be specifically described below with reference to FIG.

図5(A)は、撮影者PN1が、撮像装置100で被写体PN2,PN3を含むメインカメラの視野AR1の映像を撮像している状態が示されている。この状態で、表示部140に表示され、記憶部120に記録される映像を、図5(B)に示す。図5(B)には、被写体PN2,PN3が映る画面900が示されている。   FIG. 5A shows a state where the photographer PN1 is capturing an image of the visual field AR1 of the main camera including the subjects PN2 and PN3 with the imaging device 100. In this state, an image displayed on the display unit 140 and recorded in the storage unit 120 is shown in FIG. FIG. 5B shows a screen 900 on which the subjects PN2 and PN3 are shown.

ここで、撮影者PN1が声を出すと、当該声は、サブマイク211によって集音される。サブマイク211による集音が検出されると、サブカメラによって撮像される映像が、メインカメラによって撮像される映像に合成されて、表示部140に表示され、記憶部120に記録される。この状態で、表示部140に表示され、記憶部120に記録される映像を、図5(C)に示す。図5(C)には、画面900として示したものと映像と、撮影者PN1を含むサブカメラの視野AR2の映像とが組み合わされた画面910が示されている。画面910において、サブカメラによって撮像された映像(視野AR2の映像)は、枠911内の画像として、その他の部分とは区別可能な状態で合成されている。   Here, when the photographer PN1 speaks, the voice is collected by the sub microphone 211. When sound collection by the sub microphone 211 is detected, a video image captured by the sub camera is combined with a video image captured by the main camera, displayed on the display unit 140, and recorded in the storage unit 120. In this state, an image displayed on the display unit 140 and recorded in the storage unit 120 is shown in FIG. FIG. 5C shows a screen 910 in which what is shown as the screen 900, the video, and the video of the field of view AR2 of the sub camera including the photographer PN1 are combined. On the screen 910, the video imaged by the sub camera (video image of the visual field AR2) is synthesized as an image in the frame 911 in a state that can be distinguished from other parts.

(4.合成映像記録処理)
図6は、撮像装置100において、上記したようなメインカメラの映像とサブカメラの映像を合成する際に、制御部110が実行する処理(合成映像記録処理)のフローチャートである。合成映像記録処理は、撮像装置100において動画の録画が実行されているときに、実行される。
(4. Composite video recording process)
FIG. 6 is a flowchart of a process (synthesized video recording process) executed by the control unit 110 when the imaging apparatus 100 combines the video of the main camera and the video of the sub camera as described above. The composite video recording process is executed when moving image recording is being executed in the imaging apparatus 100.

図6を参照して、合成映像記録処理では、制御部110は、まずステップS10において、サブマイク211が音声の集音を開始したか否かを判断し、開始したと判断するとステップS20へ処理を進める。   Referring to FIG. 6, in the composite video recording process, control unit 110 first determines in step S10 whether sub-microphone 211 has started sound collection, and if it determines that it has started, the process proceeds to step S20. Proceed.

なお、制御部110は、ステップS10では、たとえば、サブマイク211が集音した音量の方がメインマイク181が集音した音量よりも大きい場合、または、サブマイク211が集音した音量の方がメインマイク181が集音した音量よりも小さい場合であって後者の音量から前者の音量を差し引いたものが予め定められた量以下である場合に、サブマイク211が集音したと判断し、それ以外の場合には、サブマイク211は集音していないと判断する。   Note that, in step S10, the control unit 110, for example, when the volume collected by the sub microphone 211 is larger than the volume collected by the main microphone 181 or when the volume collected by the sub microphone 211 is larger than the main microphone. It is determined that the sub microphone 211 has collected sound when 181 is smaller than the collected sound volume, and the latter sound volume minus the former sound volume is equal to or less than a predetermined amount. Therefore, it is determined that the sub microphone 211 is not collecting sound.

ステップS20では、制御部110は、図5(C)を参照して説明したように、メインカメラによって撮像される映像とサブカメラによって撮像される映像とを合成した映像(以下、適宜「合成映像」という)を生成して、ステップS30へ処理を進める。なお、2つの映像をどのように合成するか(たとえば、サブカメラによって撮像された映像の、メインカメラによって撮像された映像に対する嵌め込み位置や嵌めこむ画面の大きさ)については、記憶部120に予め設定内容が記録されていてもよいし、操作部130を介して入力され記憶部120に登録された情報に従うものとされてもよい。   In step S20, as described with reference to FIG. 5C, the control unit 110 combines the video captured by the main camera and the video captured by the sub camera (hereinafter referred to as “composited video” as appropriate). ”) And the process proceeds to step S30. Note that the storage unit 120 stores in advance how to synthesize two images (for example, the fitting position of the image captured by the sub camera with respect to the image captured by the main camera and the size of the screen to be inserted). The setting content may be recorded, or may be based on information input via the operation unit 130 and registered in the storage unit 120.

ステップS30では、制御部110は、ステップS20で生成した合成映像を記憶部120に記録して、ステップS40へ処理を進める。   In step S30, the control unit 110 records the composite video generated in step S20 in the storage unit 120, and advances the process to step S40.

ステップS40では、制御部110は、サブマイク211が集音しなくなったか否かを判断し、しなくなったと判断するとステップS50へ処理を進め、集音を継続していると判断するとステップS20へ処理を戻す。   In step S40, the control unit 110 determines whether or not the sub microphone 211 stops collecting sound. When it is determined that the sub microphone 211 stops collecting, the process proceeds to step S50, and when it is determined that sound collection is continued, the process proceeds to step S20. return.

ステップS50では、合成映像の生成を終了して、ステップS10へ処理を戻す。これにより、表示部140に表示され、記憶部120に記録される映像は、図5(B)を参照して説明したような、メインカメラによって撮像された映像のみとなる。   In step S50, the composite video generation is terminated, and the process returns to step S10. As a result, the video displayed on the display unit 140 and recorded in the storage unit 120 is only the video captured by the main camera as described with reference to FIG.

以上説明した合成映像記憶処理では、サブマイク211が撮影者から発せられる音声を集音したことに応じて、その時点から、サブカメラで撮像された映像がメインカメラで撮像された映像と合成されて、表示され記録される。これにより、撮影者が、メインカメラで撮像された映像について解説する内容を声に出して話した場合、そのような解説をする撮影者の姿が、メインカメラの映像とともに、表示され、記録されることとなる。   In the composite video storage processing described above, in response to the sub microphone 211 collecting the sound emitted from the photographer, the video captured by the sub camera from that time is synthesized with the video captured by the main camera. Displayed and recorded. As a result, when the photographer speaks out the contents explaining the image captured by the main camera, the photographer who explains such an image is displayed and recorded together with the image of the main camera. The Rukoto.

また、本件において、メインカメラとサブカメラの映像が合成される場合には、メインマイク181とサブマイク211が集音した音声も合成して、出力され、記録される。   In this case, when the images of the main camera and the sub camera are combined, the sound collected by the main microphone 181 and the sub microphone 211 is also combined, output, and recorded.

ここで、本発明では、合成指示のトリガーが、ボタン操作などでなく集音手段による集音とされる。このため、撮影者は、煩雑な操作を必要とされず、また、メインカメラでの撮像を継続しながら合成の指示が入力された場合であっても、ボタン操作によるノイズがメインカメラの映像やメインマイク181の音声に載ることを回避できる。   Here, in the present invention, the synthesis instruction trigger is not the button operation but the sound collection by the sound collection means. For this reason, the photographer is not required to perform complicated operations, and even when a compositing instruction is input while imaging with the main camera is continued, noise due to button operation is It is possible to avoid being placed in the sound of the main microphone 181.

撮像装置100において、サブカメラによる撮像は、図7(A)に示されるように、動画の録画が行なわれている期間、つまり、メインカメラによる撮像が行なわれている期間すべてとされてもよいし、図7(B)に示されるように、合成映像が生成されるときのみとされてもよい。   In the imaging apparatus 100, as shown in FIG. 7A, the imaging by the sub camera may be performed during a period during which a moving image is recorded, that is, during a period during which the main camera is imaging. However, as shown in FIG. 7B, it may be set only when a composite video is generated.

図7(A)および図7(B)では、メインカメラおよびサブカメラによって撮像された映像データが、枠体によって模式的に示されている。なお、斜線のハッチングを付された部分は、合成映像のデータに対応している。また、図7(A)および図7(B)において、サブマイク211による集音が開始された時点が「音声入力ON」で示され、サブマイク211による集音が終了した時点が「音声入力OFF」で示されている。   In FIGS. 7A and 7B, video data captured by the main camera and the sub camera is schematically shown by a frame. The hatched portion corresponds to the composite video data. 7A and 7B, the time when the sound collection by the sub microphone 211 is started is indicated by “voice input ON”, and the time when the sound collection by the sub microphone 211 is ended is “voice input OFF”. It is shown in

図7(A)に示される例では、たとえば、サブカメラがメインカメラの撮像開始と同時に撮像を開始するなど、サブマイク211が集音を開始する前から、メインカメラと同様に、サブカメラでの撮像が行なわれている。そして、サブマイク211が集音を開始すると、集音が終了するまで、メインカメラの映像はサブカメラの映像と合成される。録画動作が実行されている場合、録画映像としては、基本的には、メインカメラの映像(図5(B)参照)が記憶部120に記録される。そして、上記した合成映像が生成されている期間については、メインカメラの映像が合成映像に置換えられて、録画映像として、記憶部120に記録される。なお、合成映像が生成されない期間についてのサブカメラの映像は、映像バッファ124に一時的に記録された後、適宜破棄される。   In the example shown in FIG. 7A, for example, before the sub microphone 211 starts collecting sound, such as when the sub camera starts imaging simultaneously with the start of imaging of the main camera, Imaging is being performed. When the sub microphone 211 starts collecting sound, the video of the main camera is combined with the video of the sub camera until the sound collection ends. When the recording operation is being performed, the main camera video (see FIG. 5B) is basically recorded in the storage unit 120 as the recorded video. Then, during the period in which the composite video is generated, the video from the main camera is replaced with the composite video and recorded in the storage unit 120 as a recorded video. Note that the sub-camera video for a period during which no composite video is generated is temporarily recorded in the video buffer 124 and then discarded as appropriate.

図7(B)に示された例では、サブマイク211による集音が検出されたことに応じてサブカメラでの撮像が開始され、当該集音が終了すると、サブカメラによる撮像が終了される。そして、撮像されたサブカメラの映像は、メインカメラの映像と合成されて、録画映像として、記憶部120に記録される。   In the example shown in FIG. 7B, imaging by the sub camera is started in response to detection of sound collection by the sub microphone 211, and when the sound collection ends, imaging by the sub camera is terminated. Then, the captured video of the sub camera is synthesized with the video of the main camera and recorded in the storage unit 120 as a recorded video.

本実施の形態において、図7(B)に示されたように、サブカメラの撮像を合成映像の生成期間のみとされることにより、合成映像の生成に利用されない映像の撮像を極力抑えることができ、これにより、消費電力を抑えるなどの利点がある。   In the present embodiment, as shown in FIG. 7B, the imaging of the video that is not used for the generation of the synthesized video can be suppressed as much as possible by setting the imaging of the sub camera only during the synthesized video generation period. This has the advantage of reducing power consumption.

一方、図7(A)に示された例によれば、サブマイク211による集音が開始されたときに、その時点から一定時間遡った時点から、合成映像を生成することができる。   On the other hand, according to the example shown in FIG. 7A, when sound collection by the sub microphone 211 is started, a composite video can be generated from a time point that is a predetermined time after that point.

また、本実施の形態では、サブマイク211による集音が終了した時点で合成映像の生成を終了しているが、当該集音の終了が検出されてから特定の時間が経過したとき(たとえば3秒間)に合成映像の生成を終了するようにしてもよい。   Further, in the present embodiment, the generation of the composite video is finished when the sound collection by the sub microphone 211 is finished, but when a specific time has passed since the end of the sound collection was detected (for example, for 3 seconds). ) May end the generation of the composite video.

また、サブマイク211による集音の開始から、その終了の有無に拘らず、当該集音の開始から所定時間(たとえば、3秒間)を経過したことを条件として、合成映像の生成が終了されてもよい。   In addition, even if the generation of the composite video is ended on the condition that a predetermined time (for example, 3 seconds) has elapsed since the start of the sound collection, regardless of whether the sound collection by the sub microphone 211 is started or not. Good.

また、一度サブマイク211による集音が検出されると、録画を停止する操作がなされるまで継続して(音声入力の終了の有無に拘らず)、合成映像の生成が継続されてもよい。   Once the sound collection by the sub microphone 211 is detected, the generation of the composite video may be continued until an operation for stopping the recording is performed (regardless of whether or not the voice input is finished).

つまり、本実施の形態の撮像装置100では、合成映像の生成開始のタイミングが、サブマイク211による集音の開始と対応していれば、集音の開始が生成開始のタイミングが一致してなくてもよく、また、生成終了のタイミングが集音終了のタイミングと一致していなくともよい。   That is, in the imaging apparatus 100 according to the present embodiment, if the generation start timing of the composite video corresponds to the start of the sound collection by the sub microphone 211, the start of the sound collection does not coincide with the generation start timing. In addition, the generation end timing may not coincide with the sound collection end timing.

[第2の実施の形態]
本実施の形態の撮像装置は、第1の実施の形態の撮像装置100に対して、合成映像が生成される際の映像データの記録態様のみが相違する。
[Second Embodiment]
The imaging apparatus according to the present embodiment is different from the imaging apparatus 100 according to the first embodiment only in the recording mode of video data when a composite video is generated.

具体的には、図8(A)および図8(B)に示されるように、本実施の形態では、合成映像が生成される際に、合成映像の映像データが、メインカメラによって撮像された映像データおよびサブカメラによって撮像された映像データとは別に、記憶部120に記録される。つまり、本実施の形態では、メインカメラによって撮像された映像がメモリカード121に記録され、さらに、当該メインカメラによる映像と同じ録画時間分の合成映像の映像データが、メモリカード121に記録される。また、メモリカード121には、サブカメラによって撮像された映像データがさらに記録されても良い。なお、図8(A)は、図7(A)と同様に、合成映像の生成期間以外でもサブカメラによる撮像が行なわれている場合を示し、図8(B)は、図7(B)と同様に、合成映像の生成される期間中のみ、サブカメラによる撮像が行なわれる場合を示している。   Specifically, as shown in FIGS. 8A and 8B, in this embodiment, when the synthesized video is generated, video data of the synthesized video is captured by the main camera. Separately from the video data and the video data picked up by the sub camera, it is recorded in the storage unit 120. That is, in this embodiment, the video imaged by the main camera is recorded on the memory card 121, and the video data of the synthesized video for the same recording time as the video image by the main camera is further recorded on the memory card 121. . The memory card 121 may further record video data captured by the sub camera. Note that FIG. 8A shows a case where imaging is performed by the sub camera during a period other than the generation period of the composite video, as in FIG. 7A, and FIG. 8B is a diagram in FIG. In the same manner as in FIG. 5, the case where imaging by the sub camera is performed only during the period in which the composite video is generated is shown.

上記した合成映像の映像データには、開始時刻情報と終了時刻情報とが付されている。開始時刻情報は、サブマイク211による集音が開始されたときの再生位置を表わす情報であり、終了時刻情報は、サブマイク211による集音がなくなった時点の再生位置を表わす情報である。   Start time information and end time information are attached to the video data of the composite video described above. The start time information is information representing a reproduction position when sound collection by the sub microphone 211 is started, and the end time information is information representing a reproduction position when sound collection by the sub microphone 211 is lost.

合成映像では、サブマイク211による集音が開始された時点(音声入力ON)から当該集音が終了する時点(音声入力OFF)までの映像はメインカメラの映像とサブカメラの映像が合成された映像であり、それ以外の映像はメインカメラの映像(つまり、メインカメラの映像がコピーされた映像)である。   In the composite video, the video from the time when the sound collection by the sub microphone 211 is started (audio input ON) to the time when the sound collection ends (audio input OFF) is an image obtained by combining the video of the main camera and the video of the sub camera. The other video is a video of the main camera (that is, a video obtained by copying the video of the main camera).

このような態様で合成映像が記録されることにより、合成映像に対応する映像データが再生されると、開始時刻情報から終了時刻情報までの期間に対応する再生位置では合成された映像が再生され、それ以外の期間に対応する再生位置ではメインカメラによって撮像された映像のみが再生される。一方、「メインカメラ」に対応する映像データが再生されれば、開始時刻情報から終了時刻情報までの期間でも、メインカメラによって撮像された映像のみが再生される。   By recording the composite video in such a manner, when the video data corresponding to the composite video is played back, the composite video is played back at the playback position corresponding to the period from the start time information to the end time information. Only the video imaged by the main camera is reproduced at the reproduction position corresponding to the other period. On the other hand, if the video data corresponding to the “main camera” is reproduced, only the video imaged by the main camera is reproduced even during the period from the start time information to the end time information.

本実施の形態では、合成映像をメモリカード121に記録する記憶部120によって、記録手段が構成されている。なお、本実施の形態の記録手段は、メインカメラの映像の記録も行なう。   In the present embodiment, the storage unit 120 that records the composite video on the memory card 121 constitutes a recording unit. Note that the recording means of the present embodiment also records the video of the main camera.

なお、本実施の形態では、合成映像として、開始時刻情報から終了時刻情報までの期間に対応する映像データのみが記録されても良い。この場合、メインカメラの映像データが再生されている場合、再生位置が開始時刻情報から終了時刻情報で特定される期間だけ、合成画像の映像データが再生されることにより、図8(A)または図8(B)に示したような態様で記録された合成映像が再生されたときと同様の映像が再生される。   In the present embodiment, only the video data corresponding to the period from the start time information to the end time information may be recorded as the composite video. In this case, when the video data of the main camera is being played back, the video data of the composite image is played back only during the period in which the playback position is specified by the end time information from the start time information, so that FIG. The same video as that when the composite video recorded in the manner shown in FIG. 8B is played back is played back.

また、本実施の形態では、サブカメラの映像は、記憶部120に記録されても良いし、記録されなくても良い。また、サブカメラの映像として、メインカメラと合成された期間以外の期間の映像のみが記録されても良いし、当該期間の映像のみが記録されても良い。   In the present embodiment, the video from the sub camera may be recorded in the storage unit 120 or may not be recorded. Further, as the video of the sub camera, only the video of the period other than the period combined with the main camera may be recorded, or only the video of the period may be recorded.

[第3の実施の形態]
(1.全体構成)
図9に、本発明の撮像装置の第3の実施の形態である撮像装置100Aのブロック図を示す。
[Third Embodiment]
(1. Overall configuration)
FIG. 9 shows a block diagram of an image pickup apparatus 100A that is the third embodiment of the image pickup apparatus of the present invention.

撮像装置100Aは、第1または第2の実施の形態において撮像装置100が合成映像を生成していた期間において、合成映像を生成する代わりに、サブカメラの映像に、メインカメラの映像と合成されて再生されるための情報を付与する。このため、図9に示されるように、撮像装置100Aでは、撮像装置100が備えていた合成処理部260が省略されている。なお、撮像装置100Aの構成は、合成処理部260を備えていない点以外は、撮像装置100と同様のものとすることができる。   The imaging device 100A is synthesized with the video of the main camera on the video of the sub camera instead of generating the synthesized video during the period when the imaging device 100 was generating the synthesized video in the first or second embodiment. Information for playback. For this reason, as illustrated in FIG. 9, in the imaging device 100 </ b> A, the synthesis processing unit 260 included in the imaging device 100 is omitted. Note that the configuration of the imaging apparatus 100A can be the same as that of the imaging apparatus 100 except that the composition processing unit 260 is not provided.

(2.再生情報登録処理)
図10は、上記したような、サブカメラの映像に、メインカメラの映像と合成されて再生されるための情報を付与するために実行される処理(再生情報登録処理)のフローチャートである。
(2. Playback information registration process)
FIG. 10 is a flowchart of the process (reproduction information registration process) executed to add information to be synthesized and reproduced with the video of the main camera to the video of the sub camera as described above.

図10を参照して、再生情報登録処理では、制御部110は、再生情報登録処理において、まずステップSA10で、サブマイク211が音声を集音したか否かを判断し、集音したと判断するとステップSA20へ処理を進める。   Referring to FIG. 10, in the reproduction information registration process, control unit 110 first determines in step SA10 whether or not sub microphone 211 has collected sound and determines that sound has been collected. The process proceeds to step SA20.

ステップSA20では、制御部110は、その時点のサブカメラの映像に対して、メインカメラの映像と合成されて再生される開始位置であることを示す情報を登録する処理を行なって、ステップSA30へ処理を進める。   In step SA20, control unit 110 performs processing for registering information indicating the start position to be reproduced by being combined with the video of the main camera with respect to the video of the sub camera at that time, and goes to step SA30. Proceed with the process.

本実施の形態では、サブカメラの映像について、メインカメラの映像と合成されて再生されるための情報として、たとえば、次の表1に示されるような合成情報テーブルを挙げることができる。   In the present embodiment, for example, a combined information table shown in the following Table 1 can be given as information for combining and reproducing the video of the sub camera with the video of the main camera.

Figure 2011250340
Figure 2011250340

合成情報テーブルは、1つの録画データの再生において、複数回の合成映像の生成箇所を特定することができる。そして、合成情報テーブルでは、合成映像の再生位置毎に、IDとして、整理番号が付されている。各IDは、開始位置と終了位置が関連付けられている。本実施の形態では、少なくとも、各IDに関連付けられて登録されている開始位置から終了位置までは、サブカメラの映像が記憶部120に記録される。そして、当該録画データが再生される際には、各IDの開始位置から終了位置までは、図5(C)を参照して説明したような合成映像が再生され、それ以外の期間については、メインカメラの映像のみが生成される。   The composite information table can specify the generation location of the composite video a plurality of times in the reproduction of one recorded data. In the composite information table, a serial number is assigned as an ID for each playback position of the composite video. Each ID has an associated start position and end position. In the present embodiment, the video of the sub camera is recorded in the storage unit 120 at least from the start position to the end position registered in association with each ID. When the recorded data is reproduced, the composite video as described with reference to FIG. 5C is reproduced from the start position to the end position of each ID, and for other periods, Only the main camera video is generated.

そして、ステップSA20では、合成情報テーブルにおいて新しいIDが定義され、当該新しいIDについて、その時点での録画位置が開始位置として登録される。   In step SA20, a new ID is defined in the composite information table, and the recording position at that time is registered as the start position for the new ID.

ステップSA30では、制御部110は、サブマイク211による集音がなくなったか否かを判断し、なくなったと判断するとステップSA40へ処理を進める。   In step SA30, control unit 110 determines whether or not there is no sound collection by sub microphone 211. If it is determined that there is no sound collection, control unit 110 proceeds to step SA40.

ステップSA40では、制御部110は、合成情報テーブルにおいて、ステップS20で開始位置を登録したIDについて、その時点での録画時間を終了位置として登録して、ステップSA10へ処理を戻す。   In step SA40, control unit 110 registers the recording time at that time as the end position for the ID whose start position is registered in step S20 in the composite information table, and returns the process to step SA10.

以上説明した再生情報登録処理によれば、図11に示されるように、サブカメラの映像について、サブマイク211による集音が開始した位置に対応して、合成情報テーブルにおいて開始位置が登録され、サブマイク211による集音が終了した時点に対応して、終了位置が登録される。   According to the reproduction information registration process described above, as shown in FIG. 11, the start position is registered in the composite information table for the video of the sub camera corresponding to the position where the sound collection by the sub microphone 211 is started. The end position is registered corresponding to the time when the sound collection by 211 ends.

(3.再生処理)
本実施の形態の撮像装置100Aにおいて記憶部120に記録された録画映像が再生される際に、そのバックグラウンドで実行される合成映像再生処理について、当該処理のフローチャートである図12を参照して説明する。
(3. Playback processing)
When a recorded video recorded in the storage unit 120 is played back in the imaging apparatus 100A according to the present embodiment, a composite video playback process executed in the background is described with reference to FIG. 12 which is a flowchart of the process. explain.

図12を参照して、合成映像再生処理では、まずステップSB10において、制御部110は、録画映像の再生位置が、合成情報テーブルに登録されている開始位置に一致したか否かを判断し、一致したと判断するとステップSB20へ処理を進める。   Referring to FIG. 12, in the composite video playback process, first in step SB10, control unit 110 determines whether or not the playback position of the recorded video matches the start position registered in the composite information table. If it is determined that they match, the process proceeds to step SB20.

ステップSB20では、制御部110は、録画映像として、メインカメラの映像とサブカメラの映像を、記憶部120に予め登録された合成態様で合成することにより合成映像を生成し、当該合成映像を表示部140等の表示装置に出力することにより、合成映像を再生して、ステップSB30へ処理を進める。   In step SB20, the control unit 110 generates a synthesized video by synthesizing the video of the main camera and the video of the sub camera as a recorded video in a synthesis mode registered in advance in the storage unit 120, and displays the synthesized video. By outputting to the display device such as the unit 140, the synthesized video is reproduced, and the process proceeds to step SB30.

ステップSB30では、制御部110は、録画映像の再生位置が合成情報テーブルの終了位置として登録されている位置に一致したか否かを判断し、まだ一致していないと判断するとステップSB20へ処理を戻し、合成映像の再生を継続させる。一方、再生位置が終了位置と一致したと判断すると、処理をステップSB20に戻すことなく、ステップSB10に戻す。これにより、合成映像の再生が終了され、つまり、再生される映像としては、合成映像ではなく、メインカメラの映像が再生される。   In step SB30, the control unit 110 determines whether or not the playback position of the recorded video matches the position registered as the end position of the composite information table. If the control section 110 determines that they do not match yet, the process proceeds to step SB20. Go back and continue playing the composite video. On the other hand, if it is determined that the playback position matches the end position, the process returns to step SB10 without returning to step SB20. As a result, the playback of the composite video is terminated, that is, the video to be played back is not the composite video but the video of the main camera.

以上説明した合成映像再生処理により、図11においてハッチングを付した部分のサブカメラの映像、つまり、合成情報テーブルにおいて開始位置が登録された位置から終了位置が登録された位置までの映像が、合成映像として、メインカメラの映像と合成されて、再生されることとなる。   As a result of the composite video playback process described above, the video of the hatched part of the sub camera, that is, the video from the position where the start position is registered to the position where the end position is registered in the composite information table is synthesized. The video is combined with the video from the main camera and played.

(4.再生案内表示の例)
図13に、本実施の形態において説明された再生情報登録処理に従って記録された録画映像の再生に際して表示される案内画面の一例を、図13に示す。
(4. Example of playback guidance display)
FIG. 13 shows an example of a guidance screen that is displayed when the recorded video recorded according to the reproduction information registration process described in the present embodiment is reproduced.

図13を参照して、案内画面990には、再生情報登録処理に従って合成情報テーブルと共に記録された或る録画映像についての、合成映像の再生が開始される位置を示す画像991,992を含む。画像991は、たとえば、各位置のメインカメラの静止画像のサムネイル画像とすることができる。また、案内画面990では、画像991,992のそれぞれについて、対応する再生位置を示す情報(図13中の「XX:XX:XX」や「YY:YY:YY」と共に表示させることができる。   Referring to FIG. 13, guidance screen 990 includes images 991 and 992 indicating positions where reproduction of the composite video is started for a certain recorded video recorded together with the composite information table in accordance with the reproduction information registration process. The image 991 can be, for example, a thumbnail image of a still image of the main camera at each position. In the guidance screen 990, each of the images 991 and 992 can be displayed together with information indicating the corresponding reproduction position (“XX: XX: XX” and “YY: YY: YY” in FIG. 13).

制御部110は、操作部130に対して、記憶部120の中から或る録画映像を選択する操作がなされ、さらに、案内画面を表示させることを指示する操作がなされると、合成テーブルに登録された各IDの開始位置を取得し、それらの位置のメインカメラの映像についてのサムネイル画像を生成し、そして、生成したサムネイル画像を、開始位置と共に、予め生成されている画面の枠内に嵌め込むことにより、案内画面990を表示させるための情報を生成する。   When an operation for selecting a recorded video from the storage unit 120 is performed on the operation unit 130 and an operation for instructing to display a guidance screen is performed on the operation unit 130, the control unit 110 is registered in the synthesis table. The start position of each ID obtained is obtained, thumbnail images for the video of the main camera at those positions are generated, and the generated thumbnail image is fitted together with the start position in the frame of the screen that has been generated in advance. Information for displaying the guidance screen 990 is generated.

[変形例等]
以上説明した第1〜第3の実施の形態では、被写体側に設けられたマイクロフォン(メインマイク181)と、撮影者側に設けられたマイクロフォン(サブマイク211)とが、つまり、複数のマイクロフォンが設けられていた。そして、後者のマイクロフォンによる集音があったタイミングに対応して、合成映像が生成されたり、サブカメラの映像が合成映像として表示されるための情報が登録されたりした。
[Modifications, etc.]
In the first to third embodiments described above, the microphone (main microphone 181) provided on the subject side and the microphone (sub microphone 211) provided on the photographer side, that is, a plurality of microphones are provided. It was done. Then, in response to the timing when sound is collected by the latter microphone, a composite video is generated, or information for displaying the video of the sub camera as a composite video is registered.

なお、複数箇所にマイクロフォンを設ける代わりに、図14に示すように、被写体側と撮影者側の双方の音声を集音するマイクロフォン211Aが設けられ、当該マイクロフォン211Aに入力される音声の中で、撮影者から発せられた音声を集音したと判断されたタイミングに対応して、上記合成映像の生成や情報の登録がなされてもよい。このようなマイクロフォン211Aは、たとえば、被写体側に指向性を有するマイクロフォンと撮影者側に指向性を有するマイクロフォンとが組み合わされて構成されることにより実現される。   Instead of providing microphones at a plurality of locations, as shown in FIG. 14, a microphone 211A that collects sounds on both the subject side and the photographer side is provided, and among the sounds input to the microphone 211A, The composite video may be generated and information may be registered in response to the timing when it is determined that the sound emitted from the photographer has been collected. Such a microphone 211A is realized, for example, by combining a microphone having directivity on the subject side and a microphone having directivity on the photographer side.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。また、各実施の形態で説明された技術的思想は、単独で実施されても良いし、可能な限り組み合わされて実施されることも意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims. In addition, the technical ideas described in the embodiments may be implemented singly or in combination as much as possible.

100,100A 撮像装置、110 制御部、120 記憶部、121 メモリカード、122,124 映像バッファ、123 書込バッファ、130 操作部、132 電源ボタン、140 表示部、160,230 撮像素子制御部、161,231 撮像素子、170,240 映像処理部、171,241 AD変換部、180,210 音声処理部、181 メインマイク、182 スピーカ、190,250 圧縮伸長処理部、211 サブマイク。   100, 100A imaging device, 110 control unit, 120 storage unit, 121 memory card, 122, 124 video buffer, 123 write buffer, 130 operation unit, 132 power button, 140 display unit, 160, 230 image sensor control unit, 161 , 231 Image sensor, 170, 240 Video processing unit, 171, 241 AD conversion unit, 180, 210 Audio processing unit, 181 Main microphone, 182 Speaker, 190, 250 Compression / decompression processing unit, 211 Sub microphone.

Claims (9)

第1被写体を撮像する第1撮像手段と、
第2被写体を撮像する第2撮像手段と、
前記第1被写体側から発せられる音声を集音する集音手段と、
前記集音手段に音声が集音されたことに起因して、前記第1撮像手段によって撮像された映像と前記第2撮像手段によって撮像された映像とを合成する態様で記録媒体に記録する記録手段とを備える、撮像装置。
First imaging means for imaging a first subject;
Second imaging means for imaging a second subject;
Sound collecting means for collecting sound emitted from the first subject side;
Recording that is recorded on a recording medium in a manner in which the video imaged by the first imaging unit and the video imaged by the second imaging unit are synthesized due to the sound collected by the sound collecting unit And an imaging device.
前記集音手段は、前記第1被写体に対向する向きで保持可能なマイクロフォンを含み、
前記記録手段は、前記マイクロフォンによって前記第1被写体からの音声が集音されたことに起因して前記第1撮像手段によって撮像された映像を前記第2撮像手段によって撮像された映像に合成する態様で、前記記録媒体に記録する、請求項1に記載の撮像装置。
The sound collecting means includes a microphone that can be held in a direction facing the first subject,
The recording unit synthesizes the video imaged by the first imaging unit due to the sound collected from the first subject by the microphone with the video imaged by the second imaging unit. The imaging apparatus according to claim 1, wherein recording is performed on the recording medium.
前記第1撮像手段によって撮像された映像と前記第2撮像手段によって撮像された映像とが合成された映像を表示する表示手段をさらに備える、請求項1または請求項2に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a display unit configured to display a video obtained by synthesizing the video captured by the first imaging unit and the video captured by the second imaging unit. 前記記録手段は、前記集音手段が前記第1被写体から発せられる音声を集音した時点から、前記第1撮像手段によって撮像された映像を前記第2撮像手段によって撮像された映像に合成する態様での記録を開始する、請求項1〜請求項3のいずれかに記載の撮像装置。   The recording unit synthesizes the video imaged by the first imaging unit with the video imaged by the second imaging unit from the time when the sound collecting unit collects the sound emitted from the first subject. The imaging device according to any one of claims 1 to 3, wherein recording is started. 前記記録手段は、前記集音手段が前記第1被写体から発せられる音声を集音した時点より一定時間前から、前記第1撮像手段によって撮像された映像を前記第2撮像手段によって撮像された映像に合成する態様での記録を開始する、請求項1〜請求項3のいずれかに記載の撮像装置。   The recording means captures an image captured by the first imaging means from a predetermined time before the time when the sound collecting means collects the sound emitted from the first subject. The imaging device according to any one of claims 1 to 3, wherein recording is started in a mode of combining with the imaging device. 前記記録手段は、前記集音手段が前記第1被写体から発せられる音声を集音した時点から所定時間が経過したときに、前記第1撮像手段によって撮像された映像を前記第2撮像手段によって撮像された映像に合成する態様での記録を停止する、請求項1〜請求項5のいずれかに記載の撮像装置。   The recording means picks up an image picked up by the first image pick-up means by the second image pick-up means when a predetermined time has elapsed from the time when the sound pick-up means picks up the sound emitted from the first subject. The imaging device according to claim 1, wherein recording in a mode of being combined with the recorded video is stopped. 第1被写体を撮像する第1撮像手段と、
前記第1撮像手段によって撮像された第1映像を記録媒体に記録する第1記録手段と、
第2被写体を撮像する第2撮像手段と、
前記第2撮像手段によって撮像された第2映像を記録媒体に記録する第2記録手段と、
前記第1被写体側から発せられる音声を集音する集音手段と、
前記集音手段によって音声が集音されたことに起因して、前記第1映像と前記第2映像を合成する態様で再生するための情報を記録する第3記録手段と、
前記情報に基づいて前記第1映像と前記第2映像を合成する態様で再生する再生手段とを備える、撮像装置。
First imaging means for imaging a first subject;
First recording means for recording a first video imaged by the first imaging means on a recording medium;
Second imaging means for imaging a second subject;
Second recording means for recording a second video imaged by the second imaging means on a recording medium;
Sound collecting means for collecting sound emitted from the first subject side;
Third recording means for recording information for reproduction in a mode of combining the first video and the second video due to the sound being collected by the sound collecting means;
An imaging apparatus comprising: a reproducing unit that reproduces the first video and the second video based on the information.
第1被写体を撮像する第1撮像手段と、第2被写体を撮像する第2撮像手段と、前記第1被写体側から発せられる音声を集音する集音手段とを備えた撮像装置の制御方法であって、
前記集音手段が音声を集音したか否かを判断するステップと、
前記集音手段が音声を集音したと判断した場合に、前記第1撮像手段によって撮像された映像と前記第2撮像手段によって撮像された映像とを合成する態様で記録媒体に記録するステップとを備える、撮像装置の制御方法。
A control method of an imaging apparatus comprising: a first imaging unit that images a first subject; a second imaging unit that images a second subject; and a sound collecting unit that collects sound emitted from the first subject side. There,
Determining whether the sound collecting means has collected sound;
A step of recording on a recording medium in a manner to synthesize the video imaged by the first imaging unit and the video imaged by the second imaging unit when it is determined that the sound collecting unit has collected audio; An imaging apparatus control method comprising:
第1被写体を撮像する第1撮像手段と、第2被写体を撮像する第2撮像手段と、前記第1被写体側から発せられる音声を集音する集音手段とを備えた撮像装置の制御方法であって、
前記第1撮像手段によって撮像された第1映像を記録媒体に記録するステップと、
前記第2撮像手段によって撮像された第2映像を記録媒体に記録するステップと、
前記集音手段によって音声が集音されたことに起因して、前記第1映像と前記第2映像を合成する態様で再生するための情報を記録するステップと、
前記情報に基づいて前記第1映像と前記第2映像を合成する態様で再生するステップとを備える、撮像装置の制御方法。
A control method of an imaging apparatus comprising: a first imaging unit that images a first subject; a second imaging unit that images a second subject; and a sound collecting unit that collects sound emitted from the first subject side. There,
Recording a first video imaged by the first imaging means on a recording medium;
Recording a second video imaged by the second imaging means on a recording medium;
Recording information for reproduction in a mode of combining the first video and the second video due to the sound collected by the sound collecting means;
A control method for an imaging apparatus, comprising: reproducing the first video and the second video based on the information.
JP2010123917A 2010-05-31 2010-05-31 Imaging apparatus and control method of same Pending JP2011250340A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010123917A JP2011250340A (en) 2010-05-31 2010-05-31 Imaging apparatus and control method of same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010123917A JP2011250340A (en) 2010-05-31 2010-05-31 Imaging apparatus and control method of same

Publications (1)

Publication Number Publication Date
JP2011250340A true JP2011250340A (en) 2011-12-08

Family

ID=45414992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010123917A Pending JP2011250340A (en) 2010-05-31 2010-05-31 Imaging apparatus and control method of same

Country Status (1)

Country Link
JP (1) JP2011250340A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130138123A (en) * 2012-06-08 2013-12-18 삼성전자주식회사 Continuous video capture during switch between video capture devices
KR20140081020A (en) * 2012-12-21 2014-07-01 삼성전자주식회사 Method for recoding a video in the terminal having a dual camera and device thereof
KR20140089149A (en) * 2013-01-04 2014-07-14 삼성전자주식회사 Method for obtaining video data and an electronic device thereof
WO2014132816A1 (en) 2013-02-27 2014-09-04 ソニー株式会社 Image processing device, method, and program
JP2015126518A (en) * 2013-12-27 2015-07-06 キヤノン株式会社 Imaging apparatus, image processing apparatus, image processing method, program
US9148588B2 (en) 2013-02-21 2015-09-29 Samsung Electronics Co., Ltd. Method for dual recording shooting and electronic device thereof
WO2016038976A1 (en) * 2014-09-11 2016-03-17 富士フイルム株式会社 Multi-imaging apparatus, multi-imaging method, program, and recording medium
US9325903B2 (en) 2013-02-21 2016-04-26 Samsung Electronics Co., Ltd Method and apparatus for processing image
US10141027B2 (en) 2016-02-19 2018-11-27 Samsung Electronics Co., Ltd. Method, storage medium, and electronic device for providing plurality of images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282463A (en) * 2003-03-17 2004-10-07 Canon Inc Image pickup device
JP2006033611A (en) * 2004-07-20 2006-02-02 Canon Inc Processor and processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282463A (en) * 2003-03-17 2004-10-07 Canon Inc Image pickup device
JP2006033611A (en) * 2004-07-20 2006-02-02 Canon Inc Processor and processing method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130138123A (en) * 2012-06-08 2013-12-18 삼성전자주식회사 Continuous video capture during switch between video capture devices
US10284760B2 (en) 2012-06-08 2019-05-07 Samsung Electronics Co., Ltd. Continuous video capture during switch between video capture devices
KR101871364B1 (en) * 2012-06-08 2018-06-26 삼성전자주식회사 Continuous video capture during switch between video capture devices
US9491427B2 (en) 2012-12-21 2016-11-08 Samsung Electronics Co., Ltd. Method and apparatus for recording video image in a portable terminal having dual camera
KR102036054B1 (en) * 2012-12-21 2019-11-26 삼성전자 주식회사 Method for recoding a video in the terminal having a dual camera and device thereof
KR20140081020A (en) * 2012-12-21 2014-07-01 삼성전자주식회사 Method for recoding a video in the terminal having a dual camera and device thereof
EP2753061A3 (en) * 2013-01-04 2017-11-01 Samsung Electronics Co., Ltd Method for obtaining image data and electronic device for processing method thereof
KR102076773B1 (en) * 2013-01-04 2020-02-12 삼성전자주식회사 Method for obtaining video data and an electronic device thereof
KR20140089149A (en) * 2013-01-04 2014-07-14 삼성전자주식회사 Method for obtaining video data and an electronic device thereof
US9148588B2 (en) 2013-02-21 2015-09-29 Samsung Electronics Co., Ltd. Method for dual recording shooting and electronic device thereof
US9325903B2 (en) 2013-02-21 2016-04-26 Samsung Electronics Co., Ltd Method and apparatus for processing image
US9727993B2 (en) 2013-02-27 2017-08-08 Sony Corporation Image processing apparatus, image processing method, and program
WO2014132816A1 (en) 2013-02-27 2014-09-04 ソニー株式会社 Image processing device, method, and program
JP2015126518A (en) * 2013-12-27 2015-07-06 キヤノン株式会社 Imaging apparatus, image processing apparatus, image processing method, program
JPWO2016038976A1 (en) * 2014-09-11 2017-06-22 富士フイルム株式会社 Multi-imaging device, multi-imaging method, program, and recording medium
US10298828B2 (en) 2014-09-11 2019-05-21 Fujifilm Corporation Multi-imaging apparatus including internal imaging device and external imaging device, multi-imaging method, program, and recording medium
WO2016038976A1 (en) * 2014-09-11 2016-03-17 富士フイルム株式会社 Multi-imaging apparatus, multi-imaging method, program, and recording medium
US10141027B2 (en) 2016-02-19 2018-11-27 Samsung Electronics Co., Ltd. Method, storage medium, and electronic device for providing plurality of images

Similar Documents

Publication Publication Date Title
JP4724577B2 (en) Imaging apparatus and control method thereof
KR101797041B1 (en) Digital imaging processing apparatus and controlling method thereof
JP2011250340A (en) Imaging apparatus and control method of same
JP4777180B2 (en) Imaging apparatus and control method thereof
JP2015122734A (en) Imaging apparatus and imaging method
US10334336B2 (en) Method of controlling digital photographing apparatus and digital photographing apparatus using the same
CN102164242A (en) Image capturing apparatus and image capturing control method
JP2012100216A (en) Camera and moving image capturing program
JP6603897B2 (en) Imaging device
JP5164610B2 (en) Imaging apparatus and control method thereof
JP2005228400A (en) Sound recording device and method
JP5528856B2 (en) Photography equipment
JP2009077265A (en) Imaging device
JP2007281966A (en) Reproducing apparatus, method for selecting reproduced image, program, and storage medium
JP2005202037A (en) Stereo camera
JP4360395B2 (en) Information processing device
KR101464532B1 (en) Digital image processing apparatus and method for controlling the same
JP2015122731A (en) Movie playback apparatus and movie playback method
JP5556246B2 (en) Imaging device
JP6270712B2 (en) Imaging device
JP4656395B2 (en) Recording apparatus, recording method, and recording program
JP2009157337A (en) Sound collection environment deciding device, electronic equipment having the same, and sound collection environment deciding method
JP2004088717A (en) Digital camera
JP2024008227A (en) Imaging device
JP2006081083A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130325

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140729