[go: up one dir, main page]

JP2024098065A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2024098065A
JP2024098065A JP2024081586A JP2024081586A JP2024098065A JP 2024098065 A JP2024098065 A JP 2024098065A JP 2024081586 A JP2024081586 A JP 2024081586A JP 2024081586 A JP2024081586 A JP 2024081586A JP 2024098065 A JP2024098065 A JP 2024098065A
Authority
JP
Japan
Prior art keywords
image
images
processing unit
cpu
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024081586A
Other languages
Japanese (ja)
Inventor
大 大塚
Masaru Otsuka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2024081586A priority Critical patent/JP2024098065A/en
Publication of JP2024098065A publication Critical patent/JP2024098065A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

To provide a technique capable of generating a panoramic image with high accuracy without recapturing an image from the beginning again.SOLUTION: An imaging apparatus includes an imaging unit that captures images of a subject scene in chronological order to generate a plurality of images, a display unit that displays the plurality of images, and an image processing unit that connects the plurality of images as a target image in chronological order to generate a composite image, and the image processing unit detects the amount of displacement of the target image relative to the composite image on the basis of image features of the target image and the composite image, connects the target image into the composite image according to the amount of displacement, and displays a warning indicating failure on the display unit along with the plurality of images when detection of the amount of displacement fails.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関する。 The present invention relates to an imaging device.

従来、デジタルカメラなどをパンさせながら複数の画像を撮像し、それらの画像を順次つなぎ合わせることにより、パノラマ画像を生成する。例えば、特許文献1には、動画のフレーム画像を用いて、パノラマ合成処理する技術が開示されている。 Conventionally, a panoramic image is generated by capturing multiple images while panning a digital camera or the like, and stitching the images together in sequence. For example, Patent Document 1 discloses a technology for panoramic synthesis processing using frame images from a video.

特開2000-244814号公報JP 2000-244814 A

しかしながら、従来技術では、パンによる移動量が大きすぎて画像と画像とをつなぎ合わせることができない場合、再度最初から画像を撮像し直さなければならない。 However, with conventional technology, if the amount of panning movement is too large to stitch the images together, the images must be re-captured from the beginning.

本発明の目的は、再度、最初から画像を撮像し直すことなく、確度高くパノラマ画像を生成することができる技術を提供することにある。 The object of the present invention is to provide a technology that can generate a panoramic image with high accuracy without having to recapture the image from the beginning.

上記課題を解決するために、本発明の撮像装置は、時系列に連続して被写界を撮像し複数の画像を生成する撮像部と、複数の画像を表示する表示部と、複数の画像それぞれを対象画像として時系列順につなぎ合わせて合成画像を生成する画像処理部と、を備え、画像処理部は、対象画像および合成画像の画像特徴量に基づいて、対象画像の合成画像に対する変位量を検出し、変位量に応じて対象画像を合成画像につなぎ合わせ、変位量の検出に失敗した場合、表示部に複数の画像とともに失敗を示す警告を表示する。 In order to solve the above problems, the imaging device of the present invention includes an imaging unit that captures images of a subject scene in chronological order to generate multiple images, a display unit that displays the multiple images, and an image processing unit that connects each of the multiple images as a target image in chronological order to generate a composite image, the image processing unit detects the amount of displacement of the target image relative to the composite image based on image features of the target image and the composite image, connects the target image to the composite image according to the amount of displacement, and if detection of the amount of displacement fails, displays a warning indicating failure along with the multiple images on the display unit.

本発明によれば、再度、最初から画像を撮像し直すことなく、確度高くパノラマ画像を生成することができる。 According to the present invention, it is possible to generate a panoramic image with high accuracy without recapturing the image from the beginning.

一の実施形態のデジタルカメラの構成を示すブロック図FIG. 1 is a block diagram showing a configuration of a digital camera according to an embodiment of the present invention; 一の実施形態のデジタルカメラの画像処理の動作を示すフローチャートA flowchart showing the image processing operation of a digital camera according to an embodiment. パノラマモードにおけるモニタの表示の一例を示す図(その1)FIG. 1 shows an example of a monitor display in panoramic mode. パノラマモードにおけるモニタの表示の一例を示す図(その2)FIG. 2 shows an example of a monitor display in panoramic mode. パノラマモードにおけるモニタの表示の別例を示す図FIG. 11 is a diagram showing another example of the display on the monitor in the panoramic mode. パノラマモードにおけるモニタの表示の他の例を示す図FIG. 11 is a diagram showing another example of the display on the monitor in the panoramic mode.

図1は、本発明の一の実施形態のデジタルカメラの構成を示すブロック図である。 Figure 1 is a block diagram showing the configuration of a digital camera according to one embodiment of the present invention.

本実施形態のデジタルカメラは、撮像光学系11、撮像素子12、AFE13、CPU14、メモリ15、モニタ16、記録インタフェース(I/F)17、操作部材19、レリーズ釦20、タッチパネル21、バスから構成される。CPU14、メモリ15、モニタ16、記録I/F17は、バスを介して情報伝達可能にそれぞれ接続される。また、操作部材19、レリーズ釦20、タッチパネル21は、それぞれCPU14に接続される。なお、本実施形態のデジタルカメラは、撮影モードの1機能として、被写界を分割撮像した複数の画像から1枚のパノラマ画像を生成するパノラマモードを有するものとする。 The digital camera of this embodiment is composed of an imaging optical system 11, an imaging element 12, an AFE 13, a CPU 14, a memory 15, a monitor 16, a recording interface (I/F) 17, an operation member 19, a release button 20, a touch panel 21, and a bus. The CPU 14, the memory 15, the monitor 16, and the recording I/F 17 are each connected via the bus so that information can be transmitted. The operation member 19, the release button 20, and the touch panel 21 are each connected to the CPU 14. Note that the digital camera of this embodiment has, as one function of the shooting mode, a panorama mode that generates a single panoramic image from multiple images obtained by dividing and capturing the subject scene.

撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成される。撮像光学系11のレンズ位置は、レンズ駆動部(不図示)によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。 The imaging optical system 11 is composed of multiple lens groups including a zoom lens and a focusing lens. The lens positions of the imaging optical system 11 are adjusted in the optical axis direction by a lens drive unit (not shown). For simplicity, the imaging optical system 11 is illustrated in FIG. 1 as a single lens.

撮像素子12は、撮像光学系11を通過した光束によって結像される被写界を撮像するデバイスである。この撮像素子12の出力はAFE13に入力される。なお、本実施形態の撮像素子12は、順次走査方式の固体撮像素子(CCD等)であっても、XYアドレス方式の固体撮像素子(CMOS等)であってもよい。 The image sensor 12 is a device that captures an image of a scene formed by a light beam that has passed through the imaging optical system 11. The output of the image sensor 12 is input to the AFE 13. Note that the image sensor 12 in this embodiment may be a sequential scanning solid-state image sensor (CCD, etc.) or an XY address solid-state image sensor (CMOS, etc.).

また、撮像素子12の受光面には、複数の受光素子がマトリックス状に配列されている。撮像素子12の各受光素子には、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列にしたがって配置されている。そのため、撮像素子12の各受光素子は、カラーフィルタでの色分解によってそれぞれの色に対応する画像信号を出力する。これにより、撮像素子12は、カラーの画像を取得できる。 In addition, multiple light receiving elements are arranged in a matrix on the light receiving surface of the image sensor 12. Red (R), green (G), and blue (B) color filters are arranged in the well-known Bayer array on each light receiving element of the image sensor 12. Therefore, each light receiving element of the image sensor 12 outputs an image signal corresponding to each color through color separation by the color filter. This allows the image sensor 12 to capture a color image.

ここで、デジタルカメラの撮影モードにおいて、撮像素子12はレリーズ釦20の全押し操作に応答して記録画像(本画像)を撮像する。また、撮影モードでの撮像素子12は、撮影待機時にも所定の時間間隔で構図確認用の低解像度画像(スルー画像)を撮像する。このスルー画像のデータは、撮像素子12から間引き読み出しで出力される。スルー画像のデータは、モニタ16での画像表示や、CPU14による各種の演算処理などに使用される。また、撮像素子12は、撮影モードが動画モードやパノラマモードの場合、本画像として、所定のフレームレート(30fpsや60fpsなど)で動画を撮像するものとする。 Here, in the shooting mode of the digital camera, the image sensor 12 captures a recording image (main image) in response to the full press of the release button 20. In the shooting mode, the image sensor 12 also captures low-resolution images (through images) for composition confirmation at predetermined time intervals while waiting to shoot. This through image data is output by thinning readout from the image sensor 12. The through image data is used for image display on the monitor 16 and various calculation processes by the CPU 14. In addition, when the shooting mode is video mode or panorama mode, the image sensor 12 captures video at a predetermined frame rate (such as 30 fps or 60 fps) as the main image.

AFE13は、撮像素子12の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE13は、相関二重サンプリング、画像信号のゲインの調整、画像信号のA/D変換を行う。AFE13の出力は、CPU14に接続される。なお、本実施形態では、撮像素子12とAFE13とで撮像部を構成する。 The AFE 13 is an analog front-end circuit that performs analog signal processing on the output of the image sensor 12. This AFE 13 performs correlated double sampling, adjustment of the gain of the image signal, and A/D conversion of the image signal. The output of the AFE 13 is connected to the CPU 14. In this embodiment, the image sensor 12 and the AFE 13 constitute the imaging unit.

CPU14は、デジタルカメラの動作を統括的に制御するプロセッサである。CPU14は、制御プログラムを実行することにより、スルー画像のデータに基づいて、位相差検出方式やコントラスト検出方式による公知のオートフォーカス(AF)制御、自動露出(AE)演算、オートホワイトバランス演算などを行う。また、CPU14は、設定画面、撮像された本画像やスルー画像の表示処理なども行う。さらに、CPU14は、メモリ15に記憶された画像処理プログラムの実行により、AFE13から出力されるデジタル画像信号に対する画像処理を行う画像処理部22として動作する。 The CPU 14 is a processor that controls the overall operation of the digital camera. By executing a control program, the CPU 14 performs known autofocus (AF) control using a phase difference detection method or a contrast detection method, auto exposure (AE) calculation, auto white balance calculation, and the like, based on the data of the through image. The CPU 14 also performs display processing of the setting screen, the captured main image, and the through image. Furthermore, the CPU 14 operates as an image processing unit 22 that performs image processing on the digital image signal output from the AFE 13 by executing an image processing program stored in the memory 15.

画像処理部22は、AFE13から出力されるデジタル画像信号に対して、各種画像処理(例えば、色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、本実施形態の画像処理部22は、後述するように、撮影モードが上記パノラマモードに設定された場合、公知のパノラマ合成処理に基づいて、動画撮像されるフレーム(対象画像)を、時系列順につなぎ合わせてパノラマ合成して、パノラマ画像(合成画像)を生成する。 The image processing unit 22 performs various image processing (e.g., color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the digital image signal output from the AFE 13. Furthermore, as described below, when the shooting mode is set to the panorama mode, the image processing unit 22 of this embodiment connects frames (target images) captured as a video in chronological order based on a known panorama synthesis process to synthesize the frames into a panorama, thereby generating a panorama image (synthetic image).

メモリ15は、デジタルカメラによって撮像された画像データや、CPU14によって実行される制御プログラムや画像処理プログラムなどを記憶する。メモリ15には、不揮発性の半導体メモリ等を用いることができる。 The memory 15 stores image data captured by the digital camera, control programs and image processing programs executed by the CPU 14, etc. A non-volatile semiconductor memory or the like can be used for the memory 15.

モニタ16は、液晶モニタなどのモニタであり、CPU14の指示に応じて各種設定画面や画像を表示する。 The monitor 16 is a monitor such as an LCD monitor, and displays various setting screens and images according to instructions from the CPU 14.

記録I/F17には、記憶媒体18を接続するためのコネクタが形成されている。そして、記録I/F17は、コネクタに接続された記憶媒体18に対してデータの書き込み/読み込みを実行する。上記の記憶媒体18は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体18の一例としてメモリカードを示す。 The recording I/F 17 is formed with a connector for connecting a storage medium 18. The recording I/F 17 then writes and reads data to the storage medium 18 connected to the connector. The storage medium 18 is composed of a hard disk, a memory card with built-in semiconductor memory, and the like. Note that FIG. 1 shows a memory card as an example of the storage medium 18.

操作部材19は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦等で構成される。そして、操作部材19はデジタルカメラの各種入力をユーザから受け付ける。例えば、操作部材19は、デジタルカメラの動作モードの切替操作や、設定画面での入力操作などに用いられる。 The operation members 19 are composed of, for example, a command dial, a cross-shaped cursor key, a confirmation button, etc. The operation members 19 receive various inputs from the user to the digital camera. For example, the operation members 19 are used to switch the operation mode of the digital camera, input operations on a setting screen, etc.

レリーズ釦20は、半押し操作による撮像前のAF動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザから受け付ける。 The release button 20 accepts input from the user of a command to start AF operation before capturing an image by pressing it halfway, and a command to start image capturing operation by pressing it all the way.

タッチパネル21は、パネル表面に接触したスタイラス(または指先等)の位置を検出し、検出した位置情報をCPU14に出力することでユーザからの指示入力を受け付ける。なお、タッチパネル21の構成は、静電容量式または感圧式のいずれでもよい。本実施形態のタッチパネル21は、モニタ16と同形状の透明のパネルで構成され、モニタ16の表面全体に積層配置される。ユーザは、モニタ16に表示されたGUI形式の釦を視認しつつ、タッチパネル21を介してCPU14に指示入力する。 The touch panel 21 detects the position of a stylus (or a fingertip, etc.) that touches the panel surface, and outputs the detected position information to the CPU 14 to accept instruction input from the user. The touch panel 21 may be configured as either a capacitive type or a pressure-sensitive type. The touch panel 21 in this embodiment is configured as a transparent panel of the same shape as the monitor 16, and is layered over the entire surface of the monitor 16. The user inputs instructions to the CPU 14 via the touch panel 21 while visually checking the GUI-style buttons displayed on the monitor 16.

次に、図2のフローチャートを参照しつつ、本実施形態のデジタルカメラによる画像処理の動作について説明する。なお、以下において、操作部材19を介して、ユーザにより撮影モードがパノラマモードに予め設定されているものとする。 Next, the image processing operation of the digital camera of this embodiment will be described with reference to the flowchart in FIG. 2. In the following, it is assumed that the shooting mode has been set in advance to the panorama mode by the user via the operation member 19.

ユーザにより操作部材19のうちの電源釦が押されると、CPU14は、デジタルカメラに電源を投入し各部を初期化する。CPU14は、撮影モードで撮像待機時の場合、撮像素子12にスルー画像の撮像を開始させ、例えば、そのスルー画像をモニタ16の表示範囲30全体に表示する(図3a)。CPU14は、ユーザによるレリーズ釦20の全押し操作の撮像指示に応答して、撮像素子12にパノラマモードによる被写界の動画撮像を開始させる。同時に、ユーザは、デジタルカメラのパン動作を開始する。なお、本実施形態では、ユーザは、水平方向にデジタルカメラをパンするものとして説明するが、垂直方向などの場合も同様であり説明を省略する。 When the user presses the power button of the operation member 19, the CPU 14 turns on the power to the digital camera and initializes each section. When the CPU 14 is in shooting mode and waiting to capture an image, it causes the image sensor 12 to start capturing a through image, and for example, displays the through image in the entire display range 30 of the monitor 16 (Figure 3a). In response to an image capture instruction by the user fully pressing the release button 20, the CPU 14 causes the image sensor 12 to start capturing a video of the subject scene in panorama mode. At the same time, the user starts a panning operation of the digital camera. Note that in this embodiment, the user will be described as panning the digital camera horizontally, but the same applies to the vertical direction and other cases, so description will be omitted.

また、CPU14は、パノラマモードの動画撮像を開始すると、モニタ16の表示を、図3aに示す表示から図3bに示す表示に切り替える。つまり、図3bに示すように、CPU14は、スルー画像に代えて、動画撮像された動画のフレームを、モニタ16の表示範囲30の右側に配置される表示領域40に縮小してリアルタイム表示する。一方、CPU14は、後述するパノラマ合成処理により順次生成されるパノラマ画像の一部を、表示範囲30の左側に配置された表示領域50にリアルタイム表示する。ただし、図3bに示すように、動画撮像開始時点では、パノラマ合成処理されたパノラマ画像がないことから、表示領域50には何も表示されない。 When the CPU 14 starts video capture in panorama mode, it switches the display on the monitor 16 from the display shown in FIG. 3a to the display shown in FIG. 3b. That is, as shown in FIG. 3b, instead of a through image, the CPU 14 reduces and displays in real time the frames of the captured video in a display area 40 located to the right of the display range 30 of the monitor 16. Meanwhile, the CPU 14 displays in real time a portion of the panorama images that are sequentially generated by the panorama synthesis process described below in a display area 50 located to the left of the display range 30. However, as shown in FIG. 3b, at the start of video capture, there are no panorama images that have been subjected to the panorama synthesis process, so nothing is displayed in the display area 50.

ステップS101:CPU14は、AEF13を介して、撮像素子12から出力される1番目のフレームを読み込み、パノラマ合成処理の基準となる合成画像として設定する。そして、CPU14は、2番目のフレームを読み込み、上記合成画像につなぎ合わせられる対象画像として設定する。 Step S101: The CPU 14 reads the first frame output from the image sensor 12 via the AEF 13 and sets it as a composite image that will be the basis for the panoramic synthesis process. The CPU 14 then reads the second frame and sets it as a target image to be stitched into the composite image.

ステップS102:画像処理部22は、公知の画像処理により、対象画像および合成画像のエッジ量や色情報などの画像特徴量を抽出する。画像処理部22は、抽出した画像特徴量に基づいて、対象画像と合成画像との相関処理などにより、ユーザのデジタルカメラのパン動作により、合成画像に対する対象画像の移動量およびパン方向が検出できたか否かを判定する。画像処理部22は、移動量およびパン方向が検出できた場合、ステップS103(YES側)へ移行し、移動量およびパン方向が検出できなかった場合、ステップS106(NO側)へ移行する。 Step S102: The image processing unit 22 extracts image features such as edge amount and color information of the target image and the composite image by known image processing. Based on the extracted image features, the image processing unit 22 determines whether or not the amount of movement and pan direction of the target image relative to the composite image have been detected by the panning operation of the user's digital camera, for example, by correlation processing between the target image and the composite image. If the amount of movement and pan direction have been detected, the image processing unit 22 proceeds to step S103 (YES side), and if the amount of movement and pan direction have not been detected, the image processing unit 22 proceeds to step S106 (NO side).

ステップS103:画像処理部22は、ステップS102において検出された移動量およびパン方向に基づいて、対象画像によって新たに撮像された画像領域を合成画像につなぎ合わせるパノラマ合成処理を施す。 Step S103: The image processing unit 22 performs a panoramic synthesis process to stitch together the image area newly captured by the target image into a composite image based on the amount of movement and pan direction detected in step S102.

ステップS104:画像処理部22は、求めたパン方向をモニタ16に矢印60で表示すると同時に、ステップS103においてパノラマ合成された合成画像を、表示領域50にパン方向とは逆の方向にスライドさせながらリアルタイム表示する(図4a)。ここで、図4aは、一例として、パノラマ合成処理開始直後のモニタ16の表示状態を示す。 Step S104: The image processing unit 22 displays the determined pan direction on the monitor 16 with an arrow 60, and at the same time displays the composite image panorama-composite-created in step S103 in real time while sliding it in the direction opposite to the pan direction in the display area 50 (Figure 4a). Here, Figure 4a shows, as an example, the display state of the monitor 16 immediately after the start of the panoramic composition process.

なお、対象画像が合成画像に対して上下にずれて、または斜めに撮像された画像の場合、CPU14は、その対象画像がパノラマ合成された合成画像を表示するにあたり、表示領域50からはみ出した画像領域をトリミングして表示することが好ましい。あるいは、CPU14は、はみ出した画像領域も表示するように、合成画像を縮小表示してもよい。 When the target images are images that are shifted up or down or captured at an angle relative to the composite image, the CPU 14 preferably trims and displays the composite image in which the target images are panoramic-combined. Alternatively, the CPU 14 may display a reduced version of the composite image so that the protruding image areas are also displayed.

ステップS105:CPU14は、ユーザによる再度レリーズ釦20の全押し操作の撮像終了指示を受け付けたか否かを判定する。CPU14は、撮像終了指示を受け付けた場合、パノラマモードの動画撮像を終了する。画像処理部22は、合成画像をパノラマ画像ファイルとして生成し、メモリ15または記憶媒体18に記録する。CPU14は一連の処理を終了する。なお、本実施形態では、CPU14は、例えば、1番目のフレームの画像の縦幅で合成画像の縦サイズをトリミングして、パノラマ画像ファイルを生成するのが好ましい。また、ユーザがデジタルカメラを垂直方向にパンする場合、CPU14は、例えば、1番目のフレームの画像の横幅で合成画像の横サイズをトリミングするのが好ましい。 Step S105: The CPU 14 determines whether or not an instruction to end image capture by the user pressing the release button 20 all the way again has been received. If the instruction to end image capture has been received, the CPU 14 ends video capture in panorama mode. The image processing unit 22 generates a composite image as a panorama image file and records it in the memory 15 or the storage medium 18. The CPU 14 ends the series of processes. Note that in this embodiment, it is preferable for the CPU 14 to generate a panorama image file by trimming the vertical size of the composite image to the vertical width of the image of the first frame, for example. Also, when the user pans the digital camera vertically, it is preferable for the CPU 14 to trim the horizontal size of the composite image to the horizontal width of the image of the first frame, for example.

一方、CPU14は、撮像終了指示を受け付けていない場合、ステップS101(NO側)へ移行し、次に撮像されたフレームを対象画像として読み込む。CPU14は、その対象画像に対して、ステップS101~ステップS104の処理を行う。 On the other hand, if the CPU 14 has not received an instruction to end image capture, it proceeds to step S101 (NO side) and reads the next captured frame as the target image. The CPU 14 performs the processes of steps S101 to S104 on the target image.

ステップS106:画像処理部22は、ユーザのよるデジタルカメラのパン動作の速度が速すぎて移動量が大きすぎたり、デジタルカメラの姿勢が大きく変化しすぎたりなど、対象画像の合成画像に対する移動量およびパン方向を検出できなかった場合、その検出失敗をユーザに伝える。すなわち、画像処理部22は、図4bに示すような警告表示をモニタ16に表示してユーザに伝える。例えば、画像処理部22は、移動量が検出可能で合成画像につなぎ合わされる対象画像を撮像させるために、ユーザに対してデジタルカメラのパンすべき方向を、矢印60に代えて矢印70で表示し指示する。また、画像処理部22は、記号71や文章72のような警告を、矢印70とともにモニタ16に表示してもよい。あるいは、画像処理部22は、警告表示の別例として、合成画像において対象画像がつなぎ合わされるべき領域を、シェーディングした領域73のように示してもよい。 Step S106: When the image processing unit 22 is unable to detect the amount of movement and the pan direction of the target image relative to the composite image, for example, because the speed of the panning operation of the digital camera by the user is too fast and the amount of movement is too large, or the attitude of the digital camera changes too much, the image processing unit 22 notifies the user of the failure to detect. That is, the image processing unit 22 notifies the user by displaying a warning display as shown in FIG. 4b on the monitor 16. For example, the image processing unit 22 instructs the user to display the direction in which the digital camera should be panned by using an arrow 70 instead of the arrow 60 in order to capture a target image whose amount of movement is detectable and which will be stitched into the composite image. The image processing unit 22 may also display a warning such as a symbol 71 or a sentence 72 on the monitor 16 together with the arrow 70. Alternatively, as another example of a warning display, the image processing unit 22 may display the area in which the target image should be stitched in the composite image as a shaded area 73.

なお、CPU14は、ユーザがデジタルカメラを、例えば、パンさせず一定時間停止させてしまったり、矢印60とは異なる方向にパンさせてしまったりなどの場合にも、ユーザに上記警告表示することが好ましい。 It is also preferable that the CPU 14 display the above warning to the user if, for example, the user stops the digital camera for a certain period of time without panning it, or pans it in a direction different from that of the arrow 60.

ステップS107:画像処理部22は、ステップS102において抽出した合成画像の画像特徴量を、例えば、CPU14の不図示の内部メモリなどに一時的に記憶する。なお、記憶される合成画像の画像特徴量は、合成画像のうち、対象画像がつなぎ合わされるべき側の端から、対象画像と同じ、または70~80%程度の大きさの画像領域の画像特徴量だけでもよい。これにより、メモリ容量を小さくすることができ、回路規模の小型化を図ることができる。 Step S107: The image processing unit 22 temporarily stores the image features of the composite image extracted in step S102, for example, in an internal memory (not shown) of the CPU 14. Note that the stored image features of the composite image may be only the image features of an image area of the composite image that is the same size as the target image or about 70-80% of the size of the target image from the end of the composite image on the side where the target image is to be spliced. This makes it possible to reduce the memory capacity and miniaturize the circuit scale.

ステップS108:画像処理部22は、ユーザに表示領域40のフレームを参照させつつ、警告表示に基づいて、例えば、矢印70方向へパン動作させ、撮像素子12により撮像された次のフレーム(例えば、3番目のフレーム)を新たな対象画像として読み込む。 Step S108: The image processing unit 22, while having the user refer to the frame in the display area 40, pans, for example, in the direction of the arrow 70 based on the warning display, and reads in the next frame (for example, the third frame) captured by the image sensor 12 as a new target image.

ステップS109:画像処理部22は、ステップS108において読み込んだ対象画像の画像特徴量を抽出する。画像処理部22は、抽出した対象画像の画像特徴量と内部メモリ(不図示)に記憶された合成画像の画像特徴量とに基づいて、合成処理に対する対象画像の移動量およびパン方向が検出できたか否かを判定する。画像処理部22は、移動量およびパン方向が検出できた場合、ステップS110(YES側)へ移行する。一方、画像処理部22は、移動量およびパン方向が検出できなかった場合、ステップS108(NO側)へ移行する。画像処理部22は、合成処理に対する対象画像の移動量およびパン方向が検出されるまで、ステップS108~ステップS109の処理を行う。 Step S109: The image processing unit 22 extracts image features of the target image read in step S108. The image processing unit 22 determines whether or not the amount of movement and pan direction of the target image for the compositing process have been detected based on the image features of the extracted target image and the image features of the composite image stored in an internal memory (not shown). If the amount of movement and pan direction have been detected, the image processing unit 22 proceeds to step S110 (YES side). On the other hand, if the amount of movement and pan direction have not been detected, the image processing unit 22 proceeds to step S108 (NO side). The image processing unit 22 performs the processes of steps S108 to S109 until the amount of movement and pan direction of the target image for the compositing process are detected.

ステップS110:画像処理部22は、図4bに示す警告表示を解除し、図4cに示す表示に切り替える。画像処理部22は、ステップS103へ移行して、ステップS108で新たに読み込んだ対象画像を合成画像につなぎ合わせるパノラマ合成処理を再開する。 Step S110: The image processing unit 22 cancels the warning display shown in FIG. 4b and switches to the display shown in FIG. 4c. The image processing unit 22 proceeds to step S103 and resumes the panoramic synthesis process of stitching together the target images newly loaded in step S108 into a composite image.

このように、本実施形態では、たとえ合成画像に対して大きくデジタルカメラがパンされたとしても、動画とそれまでにパノラマ合成された合成画像とをリアルタイム表示することにより、どこまでパノラマ合成が行われ、どこでパノラマ合成に失敗したかを容易に判別することができ、パノラマ合成に失敗したところまでデジタルカメラの撮像方向を容易に戻すことができる。これにより、最初から再度パノラマモードによる撮像を行うことなく、確度高くパノラマ画像を生成することができる。
《実施形態の補足事項》
(1)上記実施形態では、画像処理部22の処理を、CPU14においてソフトウエア的に実現する例を説明したが、ASICを用いてその処理をハードウエア的に実現してもよい。
In this manner, in this embodiment, even if the digital camera is panned significantly with respect to the composite image, by displaying the moving image and the composite image that has been panoramic-composed up to that point in real time, it is possible to easily determine how far the panoramic composition has been performed and where the panoramic composition has failed, and it is possible to easily return the imaging direction of the digital camera to the point where the panoramic composition has failed. This makes it possible to generate a panoramic image with high accuracy without having to perform imaging in the panoramic mode again from the beginning.
Supplementary Notes on the Embodiments
(1) In the above embodiment, an example was described in which the processing of the image processing unit 22 was realized in software by the CPU 14. However, the processing may also be realized in hardware by using an ASIC.

(2)上記実施形態では、画像処理部22が、対象画像と合成画像との画像領域全体の画像特徴量に基づいて、対象画像の移動量およびパン方向を検出したが、本発明はこれに限定されない。例えば、所定の幅の糊しろ部分を対象画像および合成画像の周囲にそれぞれ設定し、画像処理部22は、その糊しろ部分以外の画像領域内の画像特徴量に基づいて、対象画像の合成処理に対する移動量およびパン方向を検出してもよい。 (2) In the above embodiment, the image processing unit 22 detects the amount of movement and pan direction of the target image based on the image feature values of the entire image area of the target image and the composite image, but the present invention is not limited to this. For example, a margin of a predetermined width may be set around the target image and the composite image, and the image processing unit 22 may detect the amount of movement and pan direction for the composite process of the target image based on the image feature values in the image area other than the margin.

また、デジタルカメラが加速度センサや電子ジャイロなどを備え、画像処理部22が検出した移動量およびパン方向と加速度センサなどが検出した移動量およびパン方向とに基づいて、画像処理部22は、合成画像に対象画像をつなぎ合わせてもよい。これにより、より正確なパノラマ合成が可能となる。 The digital camera may also be equipped with an acceleration sensor, electronic gyro, etc., and the image processing unit 22 may stitch together target images into a composite image based on the amount of movement and pan direction detected by the image processing unit 22 and the amount of movement and pan direction detected by the acceleration sensor, etc. This allows for more accurate panoramic composition.

(3)上記実施形態では、ユーザがデジタルカメラのパンを開始することにより、CPU14は、モニタ16の表示範囲30のうち、右側の表示領域40に動画のフレームをリアルタイム表示し、左側の表示領域50にパノラマ合成処理された合成画像をスライド表示するとしたが、本発明はこれに限定されない。例えば、図5aに示すように、CPU14は、モニタ16の中央より上側の表示領域40’に動画のフレームをリアルタイム表示し、下側の表示領域50’に合成画像をパノラマ合成処理の進み具合に応じてリアルタイム表示してもよい。図5bは、合成画像に対する対象画像の移動量およびパン方向の検出に失敗した場合の警告表示例を示す。 (3) In the above embodiment, when the user starts panning the digital camera, the CPU 14 displays video frames in real time in the right display area 40 of the display range 30 of the monitor 16, and slides a composite image created by the panoramic synthesis process in the left display area 50, but the present invention is not limited to this. For example, as shown in FIG. 5a, the CPU 14 may display video frames in real time in the display area 40' above the center of the monitor 16, and display a composite image in real time in the lower display area 50' according to the progress of the panoramic synthesis process. FIG. 5b shows an example of a warning display when the CPU 14 fails to detect the amount of movement and pan direction of the target image relative to the composite image.

なお、パノラマモードによる撮像開始前に、CPU14は、操作部材19などを介して、ユーザから180度や360度などのパノラマ撮像する撮像範囲の指定を受け付け、その撮像範囲に応じた表示領域50’の大きさを設定してもよい。これにより、ユーザにとってどの範囲まで撮像が完了したかを容易に認識することができる。また、CPU14は、設定された撮像範囲まで撮像が完了した場合、レリーズ釦20が再度全押し操作されなくても、自動的にパノラマモードの撮像を終了してもよい。 Before starting imaging in panorama mode, the CPU 14 may accept a designation of the imaging range for panoramic imaging, such as 180 degrees or 360 degrees, from the user via the operation member 19 or the like, and set the size of the display area 50' according to that imaging range. This allows the user to easily recognize up to what range imaging has been completed. Furthermore, when imaging has been completed up to the set imaging range, the CPU 14 may automatically end imaging in panorama mode even if the release button 20 is not pressed all the way down again.

さらに、CPU14は、パノラマ合成処理が順調に行われている間は、図3aに示す表示範囲30に動画のフレームの全画面表示を行い、合成処理に対する対象画像の移動量およびパン方向の検出に失敗した場合、図4bや図5bに示す警告表示に切り替えてもよい。 Furthermore, while the panoramic synthesis process is proceeding smoothly, the CPU 14 may display the video frames full screen in the display range 30 shown in FIG. 3a, and if detection of the amount of movement and pan direction of the target image for the synthesis process fails, switch to a warning display as shown in FIG. 4b or FIG. 5b.

また、図6は、ユーザがデジタルカメラを垂直方向にパンさせて、タワーや高層ビルなどを撮像する場合のモニタ16の表示の一例を示す。 Figure 6 also shows an example of the display on the monitor 16 when the user pans the digital camera vertically to capture an image of a tower, high-rise building, etc.

(4)上記実施形態では、ステップS105において、CPU14は、ユーザによりレリーズ釦20の再度全押し操作された場合、パノラマモードによる撮像を終了するとしたが、本発明はこれに限定されず、例えば、パノラマモードによる撮像の間いつでも、ユーザは、レリーズ釦20の全押し操作することができ、CPU14は、その撮像終了の割り込みを受け付けられることが好ましい。 (4) In the above embodiment, in step S105, the CPU 14 ends image capture in the panoramic mode when the user presses the release button 20 all the way again. However, the present invention is not limited to this. For example, it is preferable that the user can press the release button 20 all the way at any time during image capture in the panoramic mode, and the CPU 14 can receive an interrupt for the end of image capture.

(5)上記実施形態では、動画撮像してパノラマ合成するとしたが、本発明はこれに限定されず、連写や1枚ずつ静止画を撮像してパノラマ合成する場合にも適用することができる。 (5) In the above embodiment, video is captured and then synthesized into a panorama, but the present invention is not limited to this and can also be applied to cases where continuous shooting or still images are captured one by one and then synthesized into a panorama.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。 The features and advantages of the embodiments will become clear from the above detailed description. It is intended that the claims extend to the features and advantages of the above-described embodiments without departing from the spirit and scope of the claims. Furthermore, any improvements and modifications would be easily conceivable to a person of ordinary skill in the art, and there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate improvements and equivalents within the scope of the disclosed embodiments are also possible.

11…撮像光学系、12…撮像素子、13…AFE、14…CPU、15…メモリ、16…モニタ、17…記録I/F、18…記憶媒体、19…操作部材、20…レリーズ釦、21…タッチパネル、22…画像処理部
REFERENCE SIGNS LIST 11: imaging optical system, 12: imaging element, 13: AFE, 14: CPU, 15: memory, 16: monitor, 17: recording I/F, 18: storage medium, 19: operation member, 20: release button, 21: touch panel, 22: image processing unit

Claims (1)

時系列に連続して被写界を撮像し複数の画像を生成する撮像部と、
前記複数の画像を表示する表示部と、
前記複数の画像それぞれを対象画像として時系列順につなぎ合わせて合成画像を生成する画像処理部と、を備え、
前記画像処理部は、前記対象画像および前記合成画像の画像特徴量に基づいて、前記対象画像の前記合成画像に対する変位量を検出し、前記変位量に応じて前記対象画像を前記合成画像につなぎ合わせ、前記変位量の検出に失敗した場合、前記表示部に前記複数の画像とともに前記失敗を示す警告を表示する
ことを特徴とする撮像装置。
an imaging unit that captures an object scene continuously in time series to generate a plurality of images;
A display unit that displays the plurality of images;
an image processing unit that generates a composite image by connecting the plurality of images in chronological order as a target image,
the image processing unit detects an amount of displacement of the target image relative to the composite image based on image features of the target image and the composite image, joins the target image to the composite image according to the amount of displacement, and, if detection of the amount of displacement fails, displays a warning indicating the failure on the display unit together with the multiple images.
JP2024081586A 2019-12-23 2024-05-20 Imaging apparatus Pending JP2024098065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024081586A JP2024098065A (en) 2019-12-23 2024-05-20 Imaging apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019231500A JP7001087B2 (en) 2019-12-23 2019-12-23 Imaging device
JP2021211127A JP7696820B2 (en) 2019-12-23 2021-12-24 Imaging device
JP2024081586A JP2024098065A (en) 2019-12-23 2024-05-20 Imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021211127A Division JP7696820B2 (en) 2019-12-23 2021-12-24 Imaging device

Publications (1)

Publication Number Publication Date
JP2024098065A true JP2024098065A (en) 2024-07-19

Family

ID=70219142

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019231500A Active JP7001087B2 (en) 2019-12-23 2019-12-23 Imaging device
JP2021211127A Active JP7696820B2 (en) 2019-12-23 2021-12-24 Imaging device
JP2024081586A Pending JP2024098065A (en) 2019-12-23 2024-05-20 Imaging apparatus

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019231500A Active JP7001087B2 (en) 2019-12-23 2019-12-23 Imaging device
JP2021211127A Active JP7696820B2 (en) 2019-12-23 2021-12-24 Imaging device

Country Status (1)

Country Link
JP (3) JP7001087B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230136530A1 (en) 2020-03-31 2023-05-04 Sumitomo Osaka Cement Co., Ltd. Surface-treated metal oxide particles, dispersion liquid, cosmetic and method for producing surface-treated metal oxide particles

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1118003A (en) * 1997-06-19 1999-01-22 Sony Corp Panorama image-pickup device
JP2000305207A (en) 1999-04-21 2000-11-02 Canon Inc Electronic still camera
JP2002094871A (en) * 2000-09-12 2002-03-29 Canon Inc Imaging equipment, control method of imaging equipment, and storage medium capable of computer reading
JP4579980B2 (en) 2004-07-02 2010-11-10 ソニー エリクソン モバイル コミュニケーションズ, エービー Taking a series of images
JP2007288731A (en) * 2006-04-20 2007-11-01 Hitachi High-Tech Science Systems Corp Real-time panoramic image synthesis method and apparatus
JP4818987B2 (en) 2007-05-21 2011-11-16 オリンパスイメージング株式会社 Imaging apparatus, display method, and program
JP5153599B2 (en) 2008-12-08 2013-02-27 オリンパス株式会社 Microscope system and operation method thereof
JP5434126B2 (en) 2009-02-19 2014-03-05 カシオ計算機株式会社 Imaging apparatus, imaging method, and imaging program
JP4985808B2 (en) 2010-03-19 2012-07-25 カシオ計算機株式会社 Imaging apparatus and program

Also Published As

Publication number Publication date
JP7001087B2 (en) 2022-01-19
JP2020061760A (en) 2020-04-16
JP2022036153A (en) 2022-03-04
JP7696820B2 (en) 2025-06-23

Similar Documents

Publication Publication Date Title
US7456864B2 (en) Digital camera for capturing a panoramic image
US8212895B2 (en) Digital camera system with portrait effect
US7880792B2 (en) Image capturing apparatus with through image display function
US6919927B1 (en) Camera with touchscreen
US8823864B2 (en) Image capturing apparatus and associated methodology for auto-focus and facial detection
TW200808044A (en) Imaging apparatus and computer readable recording medium
CN101263707A (en) Imaging device, data extraction method, and data extraction program
US9319582B2 (en) Imaging device and image processor configured to process an object region
JP2024098065A (en) Imaging apparatus
JP5282530B2 (en) Digital camera
JP3962871B2 (en) Electronic camera and electronic zoom method
US9118829B2 (en) Imaging device
JP5785038B2 (en) Photography equipment
JP2015036845A (en) Electronic device and program
JP6399120B2 (en) Imaging device
JP4586707B2 (en) Image processing apparatus, electronic camera, and image processing program
CN118784960A (en) Imaging element, camera device, image data processing method and program product
JP4788172B2 (en) Imaging apparatus and program
JP2013207634A (en) Imaging apparatus
JP6642661B2 (en) Imaging device
JP6094701B2 (en) Imaging device
JP5417920B2 (en) Image processing apparatus, image processing method, electronic camera, and image processing program
JP4687619B2 (en) Image processing apparatus, image processing method, and program
JP2015216686A (en) Photographing device
JP2004013461A (en) Image processing system and digital imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240520