[go: up one dir, main page]

JP5952766B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP5952766B2
JP5952766B2 JP2013068678A JP2013068678A JP5952766B2 JP 5952766 B2 JP5952766 B2 JP 5952766B2 JP 2013068678 A JP2013068678 A JP 2013068678A JP 2013068678 A JP2013068678 A JP 2013068678A JP 5952766 B2 JP5952766 B2 JP 5952766B2
Authority
JP
Japan
Prior art keywords
imaging
frame
image data
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013068678A
Other languages
Japanese (ja)
Other versions
JP2014192829A (en
Inventor
隆弘 河田
隆弘 河田
和徳 那須
和徳 那須
哲 溝口
哲 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013068678A priority Critical patent/JP5952766B2/en
Publication of JP2014192829A publication Critical patent/JP2014192829A/en
Application granted granted Critical
Publication of JP5952766B2 publication Critical patent/JP5952766B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

パノラマ画像を生成するためには、ユーザが撮像領域を少しずつ移動させて撮像を行い、これにより得られた複数の画像データを繋ぎ合わせる。この際、複数の画像データ同士の重複する領域が所定量確保されていないと、適切なパノラマ画像を生成することができない。そこで、複数の画像データ同士が重複する領域を所定量確保するため、撮像の際にユーザがカメラを移動させるべき方向及び位置を視覚的にわかりやすくガイド表示する技術が開示されている(例えば、特許文献1)。   In order to generate a panoramic image, a user moves an imaging region little by little to perform imaging, and a plurality of image data obtained thereby are connected. At this time, an appropriate panoramic image cannot be generated unless a predetermined amount of overlapping area between a plurality of image data is secured. Therefore, in order to secure a predetermined amount of an area where a plurality of image data overlap, a technique is disclosed that guides and displays the direction and position where the user should move the camera during imaging (for example, Patent Document 1).

特開2009−60278号公報JP 2009-60278 A

しかしながら、特許文献1に記載の技術は、ガイド表示の移動量は固定量となっている。このため、例えば、複数の画像データ同士の繋ぎ目となる部分の画像に明確な特徴点が少なく、繋ぎ合わせが困難な場合、ガイド表示の移動量を予め大きく設定し過ぎると繋ぎ合わせに必要となる特徴点数が不足するおそれがある。また、逆に、複数の画像データ同士の繋ぎ目となる部分の画像に特徴点が多く、繋ぎ合わせが容易な場合、ガイド表示の移動量を予め小さく設定し過ぎるとユーザに無駄な撮像操作を強いるおそれがある。   However, in the technique described in Patent Document 1, the movement amount of the guide display is a fixed amount. For this reason, for example, when there are few clear feature points in the portion of the image that is a joint between a plurality of image data and it is difficult to join, it is necessary for joining if the amount of movement of the guide display is set too large in advance. The number of feature points may be insufficient. On the other hand, if there are many feature points in the image of the portion that is a joint between a plurality of image data and it is easy to connect, if the amount of movement of the guide display is set too small in advance, a wasteful imaging operation is performed for the user. There is a risk of being forced.

本発明は上記実情に鑑みてなされたものであり、複数の画像データの繋ぎ合わせに必要となる画像の特徴点の数を確保した上で、無駄のない撮像操作を可能とする撮像装置及び撮像方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an imaging apparatus and an imaging system that enable a wasteful imaging operation while securing the number of image feature points necessary for joining a plurality of image data It aims to provide a method.

本発明に係る撮像装置は、複数の画像データを合成してパノラマ画像データを生成するため、複数の画像データを取得する撮像装置であって、複数の画像データを、撮像領域を示す撮像フレームにより切り出される画像を撮像することにより取得する撮像手段と、撮像フレームが移動する方向を示す移動方向情報を取得する移動情報取得手段と、移動情報取得手段により取得した移動方向情報が示す方向に撮像フレームが移動する移動量に応じた、撮像フレームと撮像手段によって取得された第1の画像データとが重なり合う領域における画像の特徴点を、第1の画像データから検出する画像特徴点検出手段と、画像特徴点検出手段により検出した画像の特徴点の数に応じて、第1の画像データと隣り合う第2の画像データを取得するために撮像フレームが移動すべき距離を決定する移動距離決定手段と、移動距離決定手段により決定した撮像フレームが移動すべき距離に応じた出力を行うガイド手段と、を備える。   An imaging apparatus according to the present invention is an imaging apparatus that acquires a plurality of image data in order to generate panoramic image data by combining a plurality of image data, and the plurality of image data is captured by an imaging frame indicating an imaging region. An imaging unit that is acquired by capturing a clipped image, a movement information acquisition unit that acquires movement direction information indicating a direction in which the imaging frame moves, and an imaging frame in a direction indicated by the movement direction information acquired by the movement information acquisition unit Image feature point detecting means for detecting, from the first image data, image feature points in a region where the imaging frame and the first image data acquired by the imaging means overlap according to the amount of movement of the image, To obtain second image data adjacent to the first image data in accordance with the number of feature points of the image detected by the feature point detection means Comprising a moving distance determining means for image frames to determine the distance to be moved, and a guide means for performing an output corresponding to the distance the imaging frame should move as determined by the moving distance determining means.

本発明に係る撮像方法は、複数の画像データを合成してパノラマ画像データを生成するため、複数の画像データを取得する撮像方法であって、複数の画像データを、撮像領域を示す撮像フレームにより切り出される画像を撮像することにより取得する撮像ステップと、撮像フレームが移動する方向を示す移動方向情報を取得する移動情報取得ステップと、移動情報取得ステップにおいて取得した移動方向情報が示す方向に撮像フレームが移動する移動量に応じた、撮像フレームと撮像ステップにおいて取得された第1の画像データとが重なり合う領域における画像の特徴点を、第1の画像データから検出する画像特徴点検出ステップと、画像特徴点検出ステップにおいて検出した画像の特徴点の数に応じて、第1の画像データと隣り合う第2の画像データを取得するために撮像フレームが移動すべき距離を決定する移動距離決定ステップと、移動距離決定ステップにおいて決定した撮像フレームが移動すべき距離に応じた出力を行うガイドステップと、を含む。   An imaging method according to the present invention is an imaging method for acquiring a plurality of image data in order to generate panoramic image data by synthesizing a plurality of image data. The plurality of image data is acquired by an imaging frame indicating an imaging region. An imaging step that is acquired by capturing an image to be cut out, a movement information acquisition step that acquires movement direction information that indicates the direction in which the imaging frame moves, and an imaging frame that is in the direction indicated by the movement direction information acquired in the movement information acquisition step An image feature point detecting step for detecting, from the first image data, a feature point of the image in a region where the imaging frame and the first image data acquired in the imaging step overlap according to the amount of movement of the image; The second adjacent to the first image data according to the number of feature points of the image detected in the feature point detection step. Comprising a moving distance determining step of imaging frames to determine the distance to be moved in order to acquire the image data, and a guide step of performing an output corresponding to the distance the imaging frame should move determined in travel distance decision step.

これらの発明によれば、複数の画像データを撮像する際、撮像領域を示す撮像フレームが移動する方向を示す移動方向情報が取得される。取得された移動方向情報が示す方向に撮像フレームが移動する移動量に応じた、撮像フレームと撮像手段によって取得された第1の画像データとが重なり合う領域における画像の特徴点が、第1の画像データから検出される。検出された画像の特徴点の数に応じて、第1の画像データと隣り合う第2の画像データを取得するために撮像フレームが移動すべき距離が決定される。そして、撮像フレームが移動すべき距離に応じた出力が行われる。これにより、当該出力により把握される撮像フレームが移動すべき距離に基づいて撮像操作を行うことができ、複数の画像データ同士の繋ぎ目となる部分の画像の特徴点の数を、パノラマ画像データの生成(複数の画像データ同士の繋ぎ合わせ)に必要な分だけ確保することが可能となる。よって、複数の画像データの繋ぎ合わせに必要となる画像の特徴点の数を確保した上で、無駄のない撮像操作を可能とする撮像装置及び撮像方法を提供することができる。   According to these inventions, when capturing a plurality of image data, movement direction information indicating the direction in which the imaging frame indicating the imaging region moves is acquired. The feature point of the image in the region where the imaging frame and the first image data acquired by the imaging means overlap according to the amount of movement of the imaging frame in the direction indicated by the acquired movement direction information is the first image. Detected from data. In accordance with the number of feature points of the detected image, a distance that the imaging frame should move to determine the second image data adjacent to the first image data is determined. And the output according to the distance which an imaging frame should move is performed. Thus, the imaging operation can be performed based on the distance to which the imaging frame grasped by the output should move, and the number of feature points of the portion of the image serving as a joint between the plurality of image data can be calculated as the panorama image data. It is possible to secure as much as necessary for the generation of the image data (connection of a plurality of image data). Therefore, it is possible to provide an imaging apparatus and an imaging method that enable an imaging operation without waste while ensuring the number of image feature points necessary for joining a plurality of image data.

また、本発明に係る撮像装置は、移動情報取得手段が、撮像フレームが移動した方向を検知し、移動した方向を用いて移動方向情報を取得してもよい。この場合、撮像フレームが移動した方向を検知すると同時に撮像フレームの移動方向情報を適切に取得することができる。   In the imaging apparatus according to the present invention, the movement information acquisition unit may detect the direction in which the imaging frame has moved, and acquire the movement direction information using the moved direction. In this case, it is possible to appropriately acquire the moving direction information of the imaging frame while detecting the direction in which the imaging frame has moved.

また、本発明に係る撮像装置は、ガイド手段が、移動情報取得手段により取得した移動方向情報に応じた出力を行ってもよい。この場合、当該出力により把握される移動方向情報に基づいて、より適切な撮像操作を行うことができる。   In the imaging apparatus according to the present invention, the guide unit may perform output according to the movement direction information acquired by the movement information acquisition unit. In this case, a more appropriate imaging operation can be performed based on the movement direction information grasped by the output.

また、本発明に係る撮像装置は、移動情報取得手段が、撮像フレームが移動した距離を検知し、ガイド手段が、移動情報取得手段により検知された撮像フレームが移動した距離に応じた出力を行ってもよい。この場合、当該出力により把握される撮像フレームが移動した距離に基づいて、より適切な撮像操作を行うことができる。   In the imaging apparatus according to the present invention, the movement information acquisition unit detects the distance moved by the imaging frame, and the guide unit performs output according to the distance moved by the imaging frame detected by the movement information acquisition unit. May be. In this case, a more appropriate imaging operation can be performed based on the distance moved by the imaging frame grasped by the output.

また、本発明に係る撮像装置は、移動距離決定手段により決定された撮像フレームが移動すべき距離と移動情報取得手段により検知された撮像フレームが移動した距離との差分が所定の閾値に到達したか否かを判定するフレーム到達判定手段を更に備え、ガイド手段が、フレーム到達判定手段により差分が所定の閾値に到達したと判定された場合に、撮像フレームの移動を静止すべき旨の出力を行ってもよい。この場合、当該出力により把握される撮像フレームの移動を静止すべきタイミングに基づいて、より適切な撮像操作を行うことができる。また、ブレのない撮像操作を行うことができる。   In the imaging apparatus according to the present invention, the difference between the distance to which the imaging frame determined by the movement distance determination unit should move and the distance to which the imaging frame detected by the movement information acquisition unit has moved has reached a predetermined threshold value. A frame arrival determination means for determining whether or not the guide means outputs an output indicating that the movement of the imaging frame should be stopped when the frame arrival determination means determines that the difference has reached a predetermined threshold value. You may go. In this case, a more appropriate imaging operation can be performed based on the timing at which the movement of the imaging frame grasped by the output should be stopped. In addition, it is possible to perform an imaging operation without blurring.

また、本発明に係る撮像装置は、ガイド手段が、出力を画面表示により行ってもよい。この場合、上記の出力が画面表示により行われることにより、ユーザは撮像フレームをいかに移動すべきかの情報を視覚的に得ることができる。よって、ユーザはより適切な撮像操作を行うことができる。   In the imaging apparatus according to the present invention, the guide unit may perform output by screen display. In this case, by performing the above-described output by screen display, the user can visually obtain information on how to move the imaging frame. Therefore, the user can perform a more appropriate imaging operation.

また、本発明に係る撮像装置は、ガイド手段が、前記画面表示として枠又は矢印を表示してもよい。この場合、ユーザは当該枠又は矢印といった視覚的にわかりやすい表示に従って、より適切な撮像操作を行うことができる。   In the imaging apparatus according to the present invention, the guide unit may display a frame or an arrow as the screen display. In this case, the user can perform a more appropriate imaging operation according to a visually comprehensible display such as the frame or the arrow.

本発明によれば、複数の画像データの繋ぎ合わせに必要となる画像の特徴点の数を確保した上で、無駄のない撮像操作を可能とする撮像装置及び撮像方法を提供することができる。   According to the present invention, it is possible to provide an image pickup apparatus and an image pickup method that enable an image pickup operation without waste while ensuring the number of image feature points necessary for connecting a plurality of pieces of image data.

本発明の一実施形態に係る撮像装置の外観構成を示す外観図である。1 is an external view illustrating an external configuration of an imaging apparatus according to an embodiment of the present invention. 図1に示す撮像装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the imaging device shown in FIG. 図1に示す撮像装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the imaging device shown in FIG. 図3の画像特徴点検出部及び移動距離決定部による判断ロジックを説明する図である。It is a figure explaining the judgment logic by the image feature point detection part and movement distance determination part of FIG. 図3のガイド部による撮像ガイドの表示の態様を示す図である。It is a figure which shows the aspect of a display of the imaging guide by the guide part of FIG. 図5における撮像ガイドの表示が撮像フレームの移動すべき距離に応じていることを説明する図である。It is a figure explaining that the display of the imaging guide in FIG. 5 is according to the distance which the imaging frame should move. 図3のガイド部による撮像ガイドを制御する動作を示したフローチャートである。4 is a flowchart illustrating an operation of controlling an imaging guide by a guide unit in FIG. 3. 図7における画像特徴点検出及び移動距離決定の動作を詳細に示したフローチャートである。FIG. 8 is a flowchart showing in detail the operations of image feature point detection and movement distance determination in FIG. 7. FIG. 図5の撮像ガイドの表示の別態様を示す図である。It is a figure which shows another aspect of a display of the imaging guide of FIG.

以下、添付図面を参照して、本発明の好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

図1は、本発明の一実施形態に係る撮像装置の外観構成を示す外観図である。図1に示すように、撮像装置1は、例えば筐体2で構成される携帯端末であって、筐体2の一方の表面に配置されたタッチパネルディスプレイ4及びカメラ6を有している。撮像装置1は、タッチパネルディスプレイ4がユーザによりタッチ操作(指やタッチペンなどによる操作)されると、カメラ6の操作や、各種アプリケーションにおける動作などを実行する。   FIG. 1 is an external view showing an external configuration of an imaging apparatus according to an embodiment of the present invention. As illustrated in FIG. 1, the imaging device 1 is a mobile terminal configured by a housing 2, for example, and includes a touch panel display 4 and a camera 6 disposed on one surface of the housing 2. When the touch panel display 4 is touched (operated by a finger, a touch pen, or the like) by the user, the imaging apparatus 1 executes an operation of the camera 6 or operations in various applications.

カメラ6は、筐体2のタッチパネルディスプレイ4が配置されている面である前面2aに配置される前面側カメラ6aと、前面2aと対向する面である背面2bに配置される背面側カメラ6bとを含む。カメラ6は、通常の携帯端末に設けられているカメラの撮像機能を有し、カメラ6が向けられた所定領域の画像を撮像できるようになっている。タッチパネルディスプレイ4内にはシャッタボタン12が表示されており、撮像装置1は、ユーザのタッチ操作によりこのシャッタボタン12が押圧されたことを検出すると、撮像した画像をデータとして取得する。なお、撮像装置1は、シャッタボタン12の押圧を検出するタイミングに限らず、後述する撮像フレームの移動に応じたタイミングでも、撮像した画像をデータとして取得する。   The camera 6 includes a front-side camera 6a disposed on the front surface 2a that is a surface on which the touch panel display 4 of the housing 2 is disposed, and a back-side camera 6b disposed on the back surface 2b that is a surface facing the front surface 2a. including. The camera 6 has an imaging function of a camera provided in a normal mobile terminal, and can capture an image of a predetermined area to which the camera 6 is directed. A shutter button 12 is displayed in the touch panel display 4. When the imaging device 1 detects that the shutter button 12 is pressed by a user's touch operation, the captured image is acquired as data. Note that the imaging device 1 acquires the captured image as data not only at the timing of detecting the pressing of the shutter button 12 but also at the timing according to the movement of the imaging frame described later.

撮像装置1は、複数の画像データを合成してパノラマ画像を生成するためのパノラマ画像撮像モードを有している。撮像装置1は、撮像装置1によって取得された複数の画像データからパノラマ画像(パノラマ写真)を生成するパノラマ写真生成システムに含まれていてもよい。なお、パノラマ画像の生成には、従来と同じ方法を用いることができる。撮像装置1は、パノラマ画像撮像モードに設定された状態で連続的にカメラ6による撮像を行うことにより、撮像領域を示す撮像フレームにより切り出される画像を画面表示用データとして取得する。取得された画面表示用データは、タッチパネルディスプレイ4に表示される。また、撮像装置1は、ユーザによるシャッタボタン12の押圧を検知すると、撮像領域を示す撮像フレームにより切り出される画像のうちパノラマ画像を生成するために必要な複数の画像データを取得する。以降、パノラマ画像を生成するために必要な複数の画像データのうちの一つを単に「第1の画像データ」といい、複数の画像データのうち第1の画像データと隣り合い、かつ、重なり合う領域を有する画像データを単に「第2の画像データ」という。第2の画像データは、第1の画像データが取得された後に取得される。第1の画像データ及び第2の画像データを繰り返し取得することで、パノラマ画像を生成するために必要な複数の画像データの全てを取得する。すなわち、第2の画像データは、次に取得される画像データに対しては第1の画像データとなる。   The imaging device 1 has a panoramic image imaging mode for generating a panoramic image by combining a plurality of image data. The imaging device 1 may be included in a panoramic photo generation system that generates a panoramic image (panoramic photo) from a plurality of image data acquired by the imaging device 1. Note that the same method as the conventional method can be used to generate the panoramic image. The imaging device 1 continuously captures images with the camera 6 in a state in which the panorama image capturing mode is set, thereby acquiring an image cut out by an imaging frame indicating an imaging region as screen display data. The acquired screen display data is displayed on the touch panel display 4. In addition, when detecting the pressing of the shutter button 12 by the user, the imaging device 1 acquires a plurality of pieces of image data necessary for generating a panoramic image among images cut out by an imaging frame indicating an imaging region. Hereinafter, one of the plurality of image data necessary for generating the panoramic image is simply referred to as “first image data”, and is adjacent to and overlaps the first image data among the plurality of image data. Image data having a region is simply referred to as “second image data”. The second image data is acquired after the first image data is acquired. By repeatedly acquiring the first image data and the second image data, all of the plurality of image data necessary for generating the panoramic image is acquired. In other words, the second image data is the first image data for the next acquired image data.

撮像装置1は、第1の画像データ40を取得すると、タッチパネルディスプレイ4に第1の画像データ40と枠46a及び矢印46bからなる撮像ガイドとを表示する。撮像ガイドの枠46aは、パノラマ画像の生成に必要な複数の画像データを取得するため、撮像フレーム42の位置が第2の画像データを切り出すべき位置に合うようにガイドするものであり、撮像フレーム42の形状に対応した種々の形状を呈している。以下、撮像装置1がパノラマ画像撮像モードに設定された状態における、撮像装置1の構成について、図2〜図6を用いて詳細に説明する。   When the imaging device 1 acquires the first image data 40, the imaging device 1 displays the first image data 40 and an imaging guide including a frame 46a and an arrow 46b on the touch panel display 4. The imaging guide frame 46a guides the position of the imaging frame 42 to the position where the second image data should be cut out in order to acquire a plurality of image data necessary for generating a panoramic image. Various shapes corresponding to the shape of 42 are exhibited. Hereinafter, the configuration of the imaging apparatus 1 in a state where the imaging apparatus 1 is set to the panoramic image imaging mode will be described in detail with reference to FIGS.

図2は、図1に示す撮像装置1のハードウェア構成を示すブロック図である。撮像装置1は、図2に示すように、カメラ6、カメラの制御処理、オペレーティングシステム及びアプリケーションプログラムなどを実行するCPU101、ROM及びRAMで構成される主記憶部102、ハードディスク及びメモリなどで構成される補助記憶部103、タッチパネルディスプレイ4などの入力部104、タッチパネルディスプレイ4などの出力部105で構成される。後述する撮像部、移動情報取得部、画像特徴点検出部、移動距離決定部、フレーム到達判定部及びガイド部における各機能は、CPU101および主記憶部102に所定のソフトウェアを読み込ませ、CPU101の制御の下で、実行される。   FIG. 2 is a block diagram showing a hardware configuration of the imaging apparatus 1 shown in FIG. As shown in FIG. 2, the imaging apparatus 1 includes a camera 6, a CPU 101 that executes camera control processing, an operating system, an application program, and the like, a main storage unit 102 that includes a ROM and a RAM, a hard disk, a memory, and the like. An auxiliary storage unit 103, an input unit 104 such as a touch panel display 4, and an output unit 105 such as a touch panel display 4. Each function in an imaging unit, a movement information acquisition unit, an image feature point detection unit, a movement distance determination unit, a frame arrival determination unit, and a guide unit, which will be described later, causes the CPU 101 and the main storage unit 102 to read predetermined software and control the CPU 101. Will be executed.

図3は、図1に示す撮像装置の機能的構成を示すブロック図である。図3に示すように、撮像装置1は、機能的には、撮像部20、移動情報取得部22、画像特徴点検出部24、移動距離決定部26、フレーム到達判定部28及びガイド部30を備えている。以下、各構成について説明する。   FIG. 3 is a block diagram illustrating a functional configuration of the imaging apparatus illustrated in FIG. 1. As shown in FIG. 3, the imaging device 1 functionally includes an imaging unit 20, a movement information acquisition unit 22, an image feature point detection unit 24, a movement distance determination unit 26, a frame arrival determination unit 28, and a guide unit 30. I have. Each configuration will be described below.

撮像部20は、撮像フレームにより切り出される画像の撮像を行い、パノラマ画像の生成に必要な複数の画像データを取得する撮像手段である。撮像フレームは、被写体領域のうち画像データとして切り出される領域、すなわち撮像領域を示している。撮像フレームは例えば、カメラ6が向けられた方向を中心とする所定の領域を、矩形を呈する枠により示すものである。撮像部20は、撮像フレームにより切り出される画像を画面表示用データとして取得する。撮像部20は、ユーザによりシャッタボタン12が押圧されたことを検出すると、パノラマ画像の生成に必要な複数の画像データのうちの一つである第1の画像データ40を取得する。撮像部20は、第1の画像データ40を取得した後、後述のフレーム到達判定部28により撮像フレームが第2の画像データを切り出すべき位置に到達した旨が出力され、後述の移動情報取得部22により撮像フレームが静止した旨が出力されると、パノラマ画像の生成に必要な複数の画像データのうちの一つである第2の画像データを取得する。なお、フレーム到達判定部28により撮像フレームが第2の画像データを切り出すべき位置に到達した旨の出力がされてから移動情報取得部22により撮像フレームが静止した旨の出力がされるまでの時間は、特に定めなくてよいが、予め設定した時間以内としてもよい。これにより、ユーザは最初の第1の画像データの取得の際のみシャッタボタン12の操作を行い、最初の第1の画像データの取得以降は、撮像フレームの移動に応じて撮像部20により自動的にパノラマ画像の生成に必要な複数の画像データを取得することができる。なお、最初の第1の画像データの取得以降も、ユーザによるシャッタボタン12の操作により上記複数の画像データを取得するとしてもよい。   The imaging unit 20 is an imaging unit that captures an image cut out by an imaging frame and acquires a plurality of image data necessary for generating a panoramic image. The imaging frame indicates an area cut out as image data in the subject area, that is, an imaging area. The imaging frame indicates, for example, a predetermined area centered in the direction in which the camera 6 is directed by a rectangular frame. The imaging unit 20 acquires an image cut out by the imaging frame as screen display data. When the imaging unit 20 detects that the user has pressed the shutter button 12, the imaging unit 20 acquires first image data 40 that is one of a plurality of pieces of image data necessary for generating a panoramic image. After acquiring the first image data 40, the imaging unit 20 outputs that the imaging frame has reached the position where the second image data should be cut out by a frame arrival determination unit 28, which will be described later. When the fact that the imaging frame is stationary is output by 22, second image data that is one of a plurality of image data necessary for generating a panoramic image is acquired. The time from when the frame arrival determination unit 28 outputs that the imaging frame has reached the position where the second image data should be cut out until the movement information acquisition unit 22 outputs that the imaging frame is stationary. Is not particularly defined, but may be within a preset time. Accordingly, the user operates the shutter button 12 only when acquiring the first first image data, and after the acquisition of the first first image data, the image capturing unit 20 automatically performs the operation after the acquisition of the first image data. A plurality of pieces of image data necessary for generating a panoramic image can be acquired. Note that the plurality of pieces of image data may be acquired by operating the shutter button 12 by the user even after the acquisition of the first first image data.

以降、第1の画像データ40を切り出した位置から第2の画像データを切り出すべき位置まで撮像フレームが移動すべき距離を、単に「撮像フレームが移動すべき距離Y」という。なお、撮像フレームが移動すべき距離Yは後述の移動距離決定部26により算出される。撮像部20は、第1の画像データ40及び第2の画像データの取得を複数回繰り返すことにより、パノラマ画像の生成に必要な複数の画像データの全てを取得する。撮像部20が取得した撮像フレームにより切り出される画面表示用データ、第1の画像データ40及び第2の画像データは、後述する移動情報取得部22、画像特徴点検出部24及びガイド部30に出力される。   Hereinafter, the distance that the imaging frame should move from the position where the first image data 40 is cut out to the position where the second image data should be cut out is simply referred to as “distance Y where the imaging frame should move”. Note that the distance Y to which the imaging frame should move is calculated by the movement distance determination unit 26 described later. The imaging unit 20 acquires all of the plurality of image data necessary for generating the panoramic image by repeating the acquisition of the first image data 40 and the second image data a plurality of times. The screen display data, the first image data 40, and the second image data cut out by the imaging frame acquired by the imaging unit 20 are output to the movement information acquisition unit 22, the image feature point detection unit 24, and the guide unit 30, which will be described later. Is done.

移動情報取得部22は、撮像フレームが移動する方向を示す移動方向情報を取得する移動情報取得手段である。移動情報取得部22は、撮像部20により第1の画像データ40の出力が行われると、矩形の撮像フレームにより切り出された第1の画像データ40が示す四辺に対応する四方(上下左右)を、予め記憶された情報から移動方向情報として取得する。また、移動情報取得部22は、ユーザが第2の画像データを取得するために撮像装置1を移動させることにより撮像フレームが移動すると、撮像フレームが移動した方向を検知し、当該検知された方向を移動方向情報として取得する。より詳細には、移動情報取得部22は、撮像部20により出力された画面表示用データから、画像の特徴点の位置座標を検出し、この位置座標の変化に基づいて、撮像フレームが移動した方向を検知する。画像の特徴点とは、画像の境目や角といった特徴となる点であり、例えば、画像の色彩が大きく変化する箇所、濃淡の濃い箇所、輪郭などである。当該画像の特徴点の位置座標は、後述する画像特徴点検出部24により検出して、移動情報取得部22に出力してもよい。なお、移動情報取得部22は、カメラ6の上下左右方向の加速度を検知することにより移動方向情報を取得してもよい。この場合、例えば撮像部20が3軸加速度センサなどによりカメラ6の加速度を検知する機能を有し、検知したカメラ6の加速度を移動情報取得部22に出力するとしてもよい。なお、加速度に加えて又は加速度に代えて、角速度を検知することにより移動方向情報を取得してもよい。移動情報取得部22が取得した移動方向情報は、後述する画像特徴点検出部24及びガイド部30に出力される。   The movement information acquisition unit 22 is movement information acquisition means for acquiring movement direction information indicating the direction in which the imaging frame moves. When the imaging unit 20 outputs the first image data 40, the movement information acquisition unit 22 displays four directions (up, down, left, and right) corresponding to the four sides indicated by the first image data 40 cut out by the rectangular imaging frame. Then, it is obtained as movement direction information from information stored in advance. The movement information acquisition unit 22 detects the moving direction of the imaging frame when the imaging frame is moved by moving the imaging device 1 in order for the user to acquire the second image data, and the detected direction is detected. Is acquired as movement direction information. More specifically, the movement information acquisition unit 22 detects the position coordinates of the feature points of the image from the screen display data output by the imaging unit 20, and the imaging frame has moved based on the change in the position coordinates. Detect direction. An image feature point is a point that becomes a feature such as a border or corner of an image, and is, for example, a location where the color of the image changes greatly, a dark portion, a contour, or the like. The position coordinates of the feature points of the image may be detected by an image feature point detection unit 24 described later and output to the movement information acquisition unit 22. The movement information acquisition unit 22 may acquire the movement direction information by detecting the acceleration in the vertical and horizontal directions of the camera 6. In this case, for example, the imaging unit 20 may have a function of detecting the acceleration of the camera 6 using a triaxial acceleration sensor or the like, and the detected acceleration of the camera 6 may be output to the movement information acquisition unit 22. In addition to the acceleration or instead of the acceleration, the moving direction information may be acquired by detecting the angular velocity. The movement direction information acquired by the movement information acquisition unit 22 is output to an image feature point detection unit 24 and a guide unit 30 described later.

また、移動情報取得部22は、撮像フレームが移動した距離を検知する移動情報取得手段である。移動情報取得部22は、撮像部20により出力された画面表示用データから、画像の特徴点の位置座標を検出し、当該位置座標の変化に基づいて、第1の画像データ40を切り出した位置から撮像フレームが移動した距離(以降、単に「撮像フレームが移動した距離X」という。)を検知する。なお、撮像フレームが移動した距離Xの検知は、撮像フレームが移動した方向に応じて行ってもよい。移動情報取得部22が検知した撮像フレームが移動した距離Xは、後述するフレーム到達判定部28及びガイド部30に出力される。また、移動情報取得部22は、撮像部20により出力された画面表示用データから、画像の特徴点の位置座標を検出し、当該位置座標の変化に基づいて、撮像フレームが静止したことを検知してもよい。なお、移動情報取得部22は、カメラ6の加速度又は角速度の少なくとも一方を検知することにより撮像フレームが静止したことを検知してもよい。移動情報取得部22により撮像フレームが静止したことが検知されると、その旨が撮像部20に出力される。   The movement information acquisition unit 22 is movement information acquisition means for detecting the distance that the imaging frame has moved. The movement information acquisition unit 22 detects the position coordinates of the feature points of the image from the screen display data output by the imaging unit 20, and the position where the first image data 40 is cut out based on the change of the position coordinates. , The distance the imaging frame has moved (hereinafter simply referred to as “distance X the imaging frame has moved”) is detected. In addition, you may perform the detection of the distance X to which the imaging frame moved according to the direction to which the imaging frame moved. The distance X by which the imaging frame detected by the movement information acquisition unit 22 has moved is output to a frame arrival determination unit 28 and a guide unit 30 described later. Further, the movement information acquisition unit 22 detects the position coordinates of the feature points of the image from the screen display data output by the imaging unit 20, and detects that the imaging frame is stationary based on the change of the position coordinates. May be. Note that the movement information acquisition unit 22 may detect that the imaging frame is stationary by detecting at least one of the acceleration and the angular velocity of the camera 6. When the movement information acquisition unit 22 detects that the imaging frame is stationary, the fact is output to the imaging unit 20.

画像特徴点検出部24は、撮像部20から出力された第1の画像データ40と仮想的な撮像フレームとが重なり合う領域における画像の特徴点を、第1の画像データ40から検出する画像特徴点検出手段である。図4は、図3の画像特徴点検出部及び移動距離決定部による判断ロジックを説明する図である。図4に示すように、仮想的な撮像フレーム41は、上述のカメラ6が向けられた方向を中心とする所定の撮像領域を示す現実の撮像フレーム42と同じ形状を呈するが、画像特徴点を検出する領域を示すために仮想的に設定されたものであるという点で、現実の撮像フレーム42とは異なる。仮想的な撮像フレーム41は、移動情報取得部22により出力された移動方向情報に基づいて算出される。以降、仮想的な撮像フレーム41を単に「仮想フレーム」41といい、上述の現実の撮像フレーム42と区別する。   The image feature point detection unit 24 detects an image feature point in the region where the first image data 40 output from the imaging unit 20 and the virtual imaging frame overlap from the first image data 40. It is a means of getting out. FIG. 4 is a diagram for explaining determination logic by the image feature point detection unit and the movement distance determination unit in FIG. As shown in FIG. 4, the virtual imaging frame 41 has the same shape as the actual imaging frame 42 indicating a predetermined imaging area centered on the direction in which the camera 6 is directed, but the image feature points are It differs from the actual imaging frame 42 in that it is virtually set to indicate the area to be detected. The virtual imaging frame 41 is calculated based on the movement direction information output by the movement information acquisition unit 22. Hereinafter, the virtual imaging frame 41 is simply referred to as “virtual frame” 41 and is distinguished from the above-described actual imaging frame 42.

画像特徴点検出部24は、第1の画像データ40と仮想フレーム41とが重なり合う領域44において、第1の画像データ40の画像の特徴点Aを検出する。画像の特徴点Aの検出は、例えば、第1の画像データ40から画素値として輝度成分の値を有する輝度画像データを作成し、この輝度画像データにおいてエッジなどを検出することによって行う。画像特徴点検出部24は、例えば所定の閾値を超える輝度成分の値を有する画素の数を検出することで、第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aの数を検出する。なお、第1の画像データ40全体における画像の特徴点を先に検出しておいて、それを利用して後で第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aを検出するとしてもよい。   The image feature point detector 24 detects the feature point A of the image of the first image data 40 in a region 44 where the first image data 40 and the virtual frame 41 overlap. The feature point A of the image is detected by, for example, generating luminance image data having a luminance component value as a pixel value from the first image data 40 and detecting an edge or the like in the luminance image data. The image feature point detection unit 24 detects, for example, the number of pixels having a luminance component value exceeding a predetermined threshold value, whereby the image feature point A in the region 44 where the first image data 40 and the virtual frame 41 overlap is detected. Detect the number of It should be noted that image feature points in the entire first image data 40 are detected in advance, and the feature points of the image in the region 44 where the first image data 40 and the virtual frame 41 overlap later are used. A may be detected.

第1の画像データ40と仮想フレーム41とが重なり合う領域44は、移動情報取得部22により出力された移動方向情報が示す方向に仮想フレーム41が移動する移動量に応じている。仮想フレーム41が移動する移動量とは、仮想フレーム41が第1の画像データ40に対して平行移動する量をいう。仮想フレーム41が移動する移動量が多いほど、第1の画像データ40と仮想フレーム41とが重なり合う領域44の面積は小さくなる。ここで、第1の画像データ40と仮想フレーム41とが重なり合う領域44の面積は、パノラマ画像の生成のために最低限必要な第1の閾値(例えば、仮想フレーム41の全面積の25%)と予め設定しておくことができる。また、仮想フレーム41が移動する移動量自体を予め設定しておくこともできる。画像特徴点検出部24により検出された第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aの数は、後述する移動距離決定部26に出力される。   The region 44 where the first image data 40 and the virtual frame 41 overlap corresponds to the amount of movement of the virtual frame 41 in the direction indicated by the movement direction information output by the movement information acquisition unit 22. The amount of movement of the virtual frame 41 refers to the amount of translation of the virtual frame 41 with respect to the first image data 40. As the movement amount of the virtual frame 41 increases, the area of the region 44 where the first image data 40 and the virtual frame 41 overlap decreases. Here, the area of the region 44 where the first image data 40 and the virtual frame 41 overlap is the first threshold value (for example, 25% of the total area of the virtual frame 41) that is the minimum necessary for generating a panoramic image. And can be set in advance. Further, the amount of movement itself by which the virtual frame 41 moves can be set in advance. The number of feature points A of the image in the region 44 where the first image data 40 and the virtual frame 41 detected by the image feature point detection unit 24 are output to the movement distance determination unit 26 described later.

移動距離決定部26は、画像特徴点検出部24により出力された第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aの数に応じて、第2の画像データを撮像するために現実の撮像フレーム42が移動すべき距離Yを決定する移動距離決定手段である。具体的には、移動距離決定部26は、画像特徴点検出部24により出力された第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aの数が所定の閾値β(例えば、8個)以上となるように、現実の撮像フレーム42が移動すべき距離Yを決定する。   The moving distance determination unit 26 outputs the second image data according to the number of image feature points A in the region 44 where the first image data 40 output from the image feature point detection unit 24 and the virtual frame 41 overlap. This is a moving distance determining means for determining the distance Y that the actual imaging frame 42 should move to capture an image. Specifically, the moving distance determination unit 26 determines that the number of image feature points A in the region 44 where the first image data 40 output from the image feature point detection unit 24 and the virtual frame 41 overlap is a predetermined threshold value β. The distance Y to which the actual imaging frame 42 should move is determined so as to be (for example, 8) or more.

図4の(a)は撮像フレーム42が移動すべき距離Yを長距離と判断する場合を示し、図4の(b)は撮像フレーム42が移動すべき距離Yを短距離と判断する場合を示している。画像特徴点検出部24により第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aの数が検出される前においては、移動距離決定部26は、撮像フレーム42が移動すべき距離Yをデフォルト値として長距離に設定しておく。ここで、長距離とは、第1の画像データ40を切り出した位置から上述のように設定した仮想フレーム41の位置までの距離をいう。すなわち、撮像フレーム42が移動すべき距離Yが長距離の場合、第1の画像データ40と現実の撮像フレーム42とが重なり合う領域48の面積が、第1の画像データ40と仮想フレーム41とが重なり合う領域44の面積と同じく、パノラマ画像の生成のために最低限必要な第1の閾値(例えば、撮像フレーム42の全面積の25%)となっている。   4A shows a case where the distance Y that the imaging frame 42 should move is determined as a long distance, and FIG. 4B shows a case where the distance Y that the imaging frame 42 should move is determined as a short distance. Show. Before the image feature point detection unit 24 detects the number of image feature points A in the region 44 where the first image data 40 and the virtual frame 41 overlap, the movement distance determination unit 26 moves the imaging frame 42. The distance Y to be set is set to a long distance as a default value. Here, the long distance refers to the distance from the position where the first image data 40 is cut out to the position of the virtual frame 41 set as described above. That is, when the distance Y to which the imaging frame 42 should move is a long distance, the area of the region 48 where the first image data 40 and the actual imaging frame 42 overlap is such that the first image data 40 and the virtual frame 41 are the same. Similar to the area of the overlapping region 44, this is the first minimum threshold necessary for generating a panoramic image (for example, 25% of the total area of the imaging frame 42).

移動距離決定部26は、図4の(a)に示すように、画像特徴点検出部24により出力された第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aの数が所定の閾値β(例えば、8個)以上の場合には、現実の撮像フレーム42が移動すべき距離Yを長距離に設定したままとする。一方、図4の(b)に示すように、画像特徴点検出部24により出力された第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aの数が所定の閾値(例えば、8個)未満の場合には、第1の画像データ40と現実の撮像フレーム42とが重なり合う領域48における画像の特徴点Aの数が所定の閾値β以上となるように、撮像フレーム42が移動すべき距離Yを長距離から短距離へと変化させる。ここで、短距離とは、長距離に対して短い距離であり、第1の画像データ40と現実の撮像フレーム42とが重なり合う領域48の面積が長距離の場合よりも大きくなるように設定される距離をいう。すなわち、撮像フレーム42が移動すべき距離Yが短距離の場合、第1の画像データ40と現実の撮像フレーム42とが重なり合う領域48の面積が、上記第1の閾値よりも大きい第2の閾値(例えば、撮像フレーム42の全面積の75%)となっている。ただし、撮像フレーム42が移動すべき距離Yを短距離にしても、第2の閾値の設定及び第1の画像データにおける特徴点の数によっては、第1の画像データ40と現実の撮像フレーム42とが重なり合う領域48における画像の特徴点Aの数が所定の閾値β以上とならない場合もあり得る。   As shown in FIG. 4A, the moving distance determination unit 26 determines the feature point A of the image in the region 44 where the first image data 40 output from the image feature point detection unit 24 and the virtual frame 41 overlap. When the number is equal to or greater than a predetermined threshold β (for example, 8), the distance Y that the actual imaging frame 42 should move is set to a long distance. On the other hand, as shown in FIG. 4B, the number of image feature points A in a region 44 where the first image data 40 output by the image feature point detection unit 24 and the virtual frame 41 overlap is a predetermined threshold value. When the number is less than (for example, 8), the imaging frame is set such that the number of image feature points A in the region 48 where the first image data 40 and the actual imaging frame 42 overlap is equal to or greater than a predetermined threshold β. The distance Y to be moved is changed from a long distance to a short distance. Here, the short distance is a short distance with respect to the long distance, and is set so that the area of the region 48 where the first image data 40 and the actual imaging frame 42 overlap is larger than that in the case of the long distance. Distance. That is, when the distance Y to which the imaging frame 42 should move is a short distance, the second threshold value in which the area 48 of the region 48 where the first image data 40 and the actual imaging frame 42 overlap is larger than the first threshold value. (For example, 75% of the total area of the imaging frame 42). However, even if the distance Y to which the imaging frame 42 should move is short, depending on the setting of the second threshold and the number of feature points in the first image data, the first image data 40 and the actual imaging frame 42 are used. There may be a case where the number of feature points A of the image in the region 48 where and overlap does not exceed the predetermined threshold value β.

図4の(a)及び(b)の右端に示すように、第1の画像データ40と第2の画像データ50とが重なり合う領域52の面積は、撮像フレーム42が移動すべき距離Yが長距離の場合の方が短距離の場合よりも小さくなっている。上述のように、画像特徴点検出部24により第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aが検出される前においては、移動距離決定部26は撮像フレーム42が移動すべき距離Yをデフォルト値として長距離に設定するため、第1の画像データ40を取得してから第2の画像データ50を取得するまでに撮像フレーム42が移動する距離を極力大きくすることができる。すなわち、パノラマ画像生成のための複数の画像データを取得するための撮像操作を、極力減らすことが可能となる。例えば、ユーザが撮像位置において撮像装置1を静止させる操作等を減らすことができる。また、ユーザがシャッタボタン12を操作することにより画像データを取得する場合には、カメラ6のシャッタボタン12を操作する回数等を減らすことができる。移動距離決定部26により決定された撮像フレーム42が移動すべき距離Yは、後述するフレーム到達判定部28及びガイド部30に出力される。   As shown in the right ends of FIGS. 4A and 4B, the area 52 where the first image data 40 and the second image data 50 overlap is such that the distance Y that the imaging frame 42 should move is long. The distance is smaller than the short distance. As described above, before the image feature point detection unit 24 detects the feature point A of the image in the region 44 where the first image data 40 and the virtual frame 41 overlap, the moving distance determination unit 26 performs the imaging frame 42. Since the distance Y to be moved is set as a default value as a long distance, the distance that the imaging frame 42 moves from the acquisition of the first image data 40 to the acquisition of the second image data 50 is maximized. be able to. That is, it is possible to reduce imaging operations for acquiring a plurality of image data for generating a panoramic image as much as possible. For example, it is possible to reduce an operation for the user to stop the imaging apparatus 1 at the imaging position. Further, when the user acquires image data by operating the shutter button 12, the number of times of operating the shutter button 12 of the camera 6 can be reduced. The distance Y to be moved by the imaging frame 42 determined by the movement distance determination unit 26 is output to a frame arrival determination unit 28 and a guide unit 30 described later.

フレーム到達判定部28は、移動距離決定部26により出力された撮像フレーム42が移動すべき距離Yと移動情報取得部22により出力された撮像フレーム42が移動した距離Xとの差分が、予め記憶された所定の閾値αに到達したか(α以下になったか)否かを判定するフレーム到達判定手段である。所定の閾値αは、例えば撮像フレーム42が移動すべき距離Yと撮像フレーム42が移動した距離Xがほぼ等しいと見なせるほど小さい画素数単位の値とすることができる。すなわち、フレーム到達判定部28は、撮像フレーム42が第2の画像データ50を切り出すべき位置に到達したか否かを判定する。フレーム到達判定部28により撮像フレーム42が第2の画像データ50を切り出すべき位置に到達したと判定された場合には、その旨が撮像部20及び後述するガイド部30に出力される。なお、フレーム到達判定部28は、所定の閾値α以下ではなく所定の閾値α未満になったか否かを判定するとしてもよい。   The frame arrival determination unit 28 stores in advance a difference between the distance Y to which the imaging frame 42 output by the movement distance determination unit 26 should move and the distance X to which the imaging frame 42 output by the movement information acquisition unit 22 has moved. Frame arrival determination means for determining whether or not the predetermined threshold value α has been reached (below α or less). The predetermined threshold value α can be set to a value in units of the number of pixels that is so small that, for example, the distance Y that the imaging frame 42 should move and the distance X that the imaging frame 42 moved can be regarded as substantially equal. That is, the frame arrival determination unit 28 determines whether or not the imaging frame 42 has reached a position where the second image data 50 should be cut out. When it is determined by the frame arrival determination unit 28 that the imaging frame 42 has reached the position where the second image data 50 should be cut out, this is output to the imaging unit 20 and a guide unit 30 described later. Note that the frame arrival determination unit 28 may determine whether or not the predetermined threshold value α is less than the predetermined threshold value α.

ガイド部30は、撮像部20、移動情報取得部22、移動距離決定部26及びフレーム到達判定部28により出力された情報に応じた種々の出力を行うガイド手段である。ガイド部30は、当該出力を、例えばタッチパネルディスプレイ4に枠46aや矢印46bからなる撮像ガイドを示す図形を表示させることにより行う(図1参照)。撮像ガイドとは、第1の画像データ40を切り出した位置から第2の画像データを切り出すべき位置まで、撮像フレーム42をいかに移動すべきかをガイドするものである。図5は、図3のガイド部による撮像ガイドの表示の態様を示す図である。撮像部20により第1の画像データ40が出力されると、ガイド部30は、図5に示すように、第1の画像データ40と、移動情報取得部22により出力された移動方向情報に対応した枠46a及び矢印46bとを表示する。枠46a及び矢印46bは、撮像フレーム42が移動する方向に位置している。枠46aは、撮像フレーム42が示す矩形における撮像フレーム42が移動する方向側の一辺及びその両端の2つの角に沿った形状を呈している。枠46aは、撮像フレーム42が第2の画像データ50を切り出すべき位置をガイドする。枠46aは、第2の画像データ50を取得する際に、撮像フレーム42が移動する方向側の一辺及びその両端の2つの角が、これらに対応した枠46aに一致するような位置にすべきことを示すものである。矢印46bは、撮像フレーム42が移動する方向に向かって延びる形状を呈している。矢印46bは、撮像フレーム42が第2の画像データ50を切り出すために向かうべき方向をガイドする。   The guide unit 30 is a guide unit that performs various outputs according to information output by the imaging unit 20, the movement information acquisition unit 22, the movement distance determination unit 26, and the frame arrival determination unit 28. The guide unit 30 performs the output by displaying, for example, a graphic indicating an imaging guide including a frame 46a and an arrow 46b on the touch panel display 4 (see FIG. 1). The imaging guide guides how to move the imaging frame 42 from the position where the first image data 40 is cut out to the position where the second image data is cut out. FIG. 5 is a diagram showing a display mode of the imaging guide by the guide unit of FIG. When the first image data 40 is output by the imaging unit 20, the guide unit 30 corresponds to the first image data 40 and the movement direction information output by the movement information acquisition unit 22 as illustrated in FIG. 5. The frame 46a and the arrow 46b are displayed. The frame 46a and the arrow 46b are located in the direction in which the imaging frame 42 moves. The frame 46a has a shape along one side of the direction in which the imaging frame 42 moves in the rectangle indicated by the imaging frame 42 and two corners at both ends thereof. The frame 46 a guides the position where the imaging frame 42 should cut out the second image data 50. When acquiring the second image data 50, the frame 46a should be positioned so that one side of the direction in which the imaging frame 42 moves and two corners at both ends thereof coincide with the corresponding frame 46a. It shows that. The arrow 46b has a shape extending in the direction in which the imaging frame 42 moves. The arrow 46 b guides the direction in which the imaging frame 42 should go in order to cut out the second image data 50.

ガイド部30は、移動情報取得部22により、移動方向情報として、予め記憶された情報から取得された第1の画像データ40が示す四辺に対応する四方(上下左右)が出力された場合には、図5の(a)に示すように、当該四方に対応する4つの枠46a及び4つの矢印46bを表示する。これら4つの枠46aの位置は、移動距離決定部26により出力された撮像フレーム42が移動すべき距離Yによって決定される。4つの矢印46bの位置は、このように決定された4つの枠46aそれぞれの位置に対応し、第1の画像データ40と4つの枠46aとの間に位置するように決定される。なお、4つの枠46a及び4つの矢印46bの位置は、予め設定しておいてもよい。また、移動情報取得部22により撮像フレーム42が移動した方向が出力されると、ガイド部30は、図5の(b)に示すように、当該撮像フレーム42が移動した方向のみに、枠46a及び矢印46bを表示する。すなわち、ガイド部30は、撮像フレーム42が移動した方向以外の枠46a及び矢印46bを非表示にする。   When the movement information acquisition unit 22 outputs four directions (up, down, left and right) corresponding to the four sides indicated by the first image data 40 acquired from information stored in advance as the movement direction information, the guide unit 30 outputs As shown in FIG. 5A, four frames 46a and four arrows 46b corresponding to the four directions are displayed. The positions of these four frames 46a are determined by the distance Y to which the imaging frame 42 output by the movement distance determination unit 26 should move. The positions of the four arrows 46b correspond to the positions of the four frames 46a determined in this way, and are determined so as to be positioned between the first image data 40 and the four frames 46a. The positions of the four frames 46a and the four arrows 46b may be set in advance. When the movement information acquisition unit 22 outputs the direction in which the imaging frame 42 has moved, the guide unit 30 displays the frame 46a only in the direction in which the imaging frame 42 has moved, as shown in FIG. And an arrow 46b. That is, the guide unit 30 hides the frame 46a and the arrow 46b other than the direction in which the imaging frame 42 has moved.

例えば、ガイド部30は、以下のように移動距離決定部26により出力された撮像フレーム42が移動すべき距離Yに応じた位置に枠46aを表示させる。図6は、図5における撮像ガイドの表示が撮像フレームの移動すべき距離に応じていることを説明する図である。なお、図6においては、説明のため、枠46aを一点鎖線の矩形として簡単に示している。図6の(a)は撮像フレーム42が移動すべき距離Yが長距離の場合の撮像ガイドの表示、図6の(b)は撮像フレーム42が移動すべき距離Yが短距離の場合の撮像ガイドの表示を示している。移動距離決定部26により出力された撮像フレーム42が移動すべき距離Yが長距離である場合には、第1の画像データ40と撮像フレーム42とが重なり合う領域48の面積が上記第1の閾値(例えば、撮像フレーム42の全面積の25%)となるような撮像フレーム42の位置(図4の(a)参照)に合わせて、図6の(a)に示すように枠46aを表示する。一方、移動距離決定部26により出力された撮像フレーム42が移動すべき距離が短距離である場合には、第1の画像データ40と撮像フレーム42とが重なり合う領域48の面積が、上記第2の閾値(例えば、撮像フレーム42の面積の75%)となるような撮像フレーム42の位置(図4の(b)参照)に合わせて、図6の(b)に示すように枠46aを表示する。   For example, the guide unit 30 displays the frame 46a at a position corresponding to the distance Y to which the imaging frame 42 output by the movement distance determination unit 26 should move as follows. FIG. 6 is a diagram for explaining that the display of the imaging guide in FIG. 5 corresponds to the distance to which the imaging frame should move. In FIG. 6, the frame 46 a is simply shown as a one-dot chain line rectangle for explanation. 6A shows the display of the imaging guide when the distance Y that the imaging frame 42 should move is a long distance, and FIG. 6B shows the imaging when the distance Y that the imaging frame 42 needs to move is a short distance. The guide display is shown. When the distance Y to be moved by the imaging frame 42 output by the movement distance determining unit 26 is a long distance, the area of the region 48 where the first image data 40 and the imaging frame 42 overlap is the first threshold value. A frame 46a is displayed as shown in FIG. 6A in accordance with the position of the imaging frame 42 (for example, 25% of the total area of the imaging frame 42) (see FIG. 4A). . On the other hand, when the distance to which the imaging frame 42 output by the movement distance determination unit 26 should move is short, the area 48 of the region 48 where the first image data 40 and the imaging frame 42 overlap is the second area. A frame 46a is displayed as shown in FIG. 6B in accordance with the position of the imaging frame 42 (see FIG. 4B) such that the threshold value (for example, 75% of the area of the imaging frame 42) is reached. To do.

また、ガイド部30は、移動情報取得部22により出力された撮像フレーム42が移動した距離X及び移動距離決定部26により出力された撮像フレーム42が移動すべき距離Yに応じて、矢印46bが表示される大きさを変化させる。具体的には、移動距離決定部26により出力された撮像フレーム42が移動すべき距離Yと移動情報取得部22により出力された撮像フレーム42が移動した距離Xとの差分に対応させて、当該差分が小さくなるにつれて矢印46bの大きさが小さくなるように表示させる。すなわち、図5の(b)及び(c)に示すように、撮像フレーム42の位置が枠46aの位置に近づくにつれて、矢印46bの大きさが小さくなる。   In addition, the guide unit 30 has an arrow 46b depending on the distance X that the imaging frame 42 output by the movement information acquisition unit 22 has moved and the distance Y that the imaging frame 42 output by the movement distance determination unit 26 should move. Change the displayed size. Specifically, in correspondence with the difference between the distance Y to which the imaging frame 42 output by the movement distance determination unit 26 should move and the distance X to which the imaging frame 42 output by the movement information acquisition unit 22 has moved, The arrow 46b is displayed so that the size of the arrow 46b decreases as the difference decreases. That is, as shown in FIGS. 5B and 5C, the size of the arrow 46b decreases as the position of the imaging frame 42 approaches the position of the frame 46a.

また、ガイド部30は、フレーム到達判定部28により、撮像フレーム42が第2の画像データ50を切り出すべき位置に到達したと判定された場合には、撮像フレーム42の移動を静止すべき旨の出力を行う。具体的には、図5の(d)に示すように、撮像フレーム42が示す領域の中央部付近に静止マーク46cを表示させる。   Further, when the frame arrival determination unit 28 determines that the imaging frame 42 has reached the position where the second image data 50 should be extracted, the guide unit 30 indicates that the movement of the imaging frame 42 should be stopped. Output. Specifically, as shown in FIG. 5D, a stationary mark 46c is displayed near the center of the area indicated by the imaging frame 42.

次に、撮像装置1を用いた撮像方法において、撮像ガイドを制御する動作について、図7を用いて説明する。図7は図3のガイド部による撮像ガイドを制御する動作を示したフローチャートである。   Next, the operation for controlling the imaging guide in the imaging method using the imaging apparatus 1 will be described with reference to FIG. FIG. 7 is a flowchart showing an operation of controlling the imaging guide by the guide unit of FIG.

図7に示すように、撮像装置1において、例えばユーザにより撮像を行うアプリケーションが起動され、パノラマ画像撮像モードが設定され、シャッタボタン12が押下げられると、撮像部20は、撮像フレーム42により切り出される第1の画像データ40を取得する(S1:撮像ステップ)。続いて、移動情報取得部22は、第1の画像データ40の四辺に対応する四方向を示す情報を取得する(S2:移動情報取得ステップ)。   As illustrated in FIG. 7, in the imaging apparatus 1, for example, when an application for imaging is started by a user, a panoramic image imaging mode is set, and the shutter button 12 is pressed, the imaging unit 20 is cut out by the imaging frame 42. First image data 40 to be acquired is acquired (S1: imaging step). Subsequently, the movement information acquisition unit 22 acquires information indicating four directions corresponding to the four sides of the first image data 40 (S2: movement information acquisition step).

続いて、画像特徴点検出部24は、第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aを検出する(S3:画像特徴点検出ステップ)。なお、この検出方法の詳細については後述する。   Subsequently, the image feature point detection unit 24 detects the feature point A of the image in the region 44 where the first image data 40 and the virtual frame 41 overlap (S3: image feature point detection step). Details of this detection method will be described later.

続いて、移動距離決定部26は、撮像フレーム42が移動すべき距離Yを決定する(S4:移動距離決定ステップ)。なお、この決定方法の詳細については後述する。   Subsequently, the movement distance determination unit 26 determines the distance Y to which the imaging frame 42 should move (S4: movement distance determination step). Details of this determination method will be described later.

続いて、ガイド部30は、タッチパネルディスプレイ4に第1の画像データ40及び撮像ガイドを表示する(S5:ガイドステップ)。撮像ガイドは4つの枠46a及び4つの矢印46bからなり、それぞれ移動情報取得部22により取得された四方向に、移動距離決定部26により決定された撮像フレーム42が移動すべき距離Yに対応する位置に表示されている(図5の(a)参照)。   Subsequently, the guide unit 30 displays the first image data 40 and the imaging guide on the touch panel display 4 (S5: guide step). The imaging guide includes four frames 46a and four arrows 46b, and corresponds to the distance Y to which the imaging frame 42 determined by the movement distance determination unit 26 should move in the four directions acquired by the movement information acquisition unit 22, respectively. The position is displayed (see FIG. 5A).

続いて、移動情報取得部22は、撮像フレーム42の移動を検知し、撮像フレームが移動したかどうかを判定する(S6)。移動情報取得部22により撮像フレーム42が移動しなかったと判定された場合(S6:NO)には、ガイド部30はタッチパネルディスプレイ4に4つの枠46a及び4つの矢印46bからなる撮像ガイドを表示し続ける(図5の(a)参照)。   Subsequently, the movement information acquisition unit 22 detects the movement of the imaging frame 42 and determines whether the imaging frame has moved (S6). When the movement information acquisition unit 22 determines that the imaging frame 42 has not moved (S6: NO), the guide unit 30 displays an imaging guide including four frames 46a and four arrows 46b on the touch panel display 4. Continue (see FIG. 5A).

一方、移動情報取得部22により撮像フレーム42が移動したと判定された場合(S6:YES)には、移動情報取得部22は、撮像フレーム42が移動した方向を示す移動方向情報を取得する(S7:移動情報取得ステップ)。そして、ガイド部30は、移動情報取得部22により取得された移動方向情報が示す撮像フレーム42が移動した方向のみに、移動距離決定部26により決定された撮像フレーム42が移動すべき距離Yに対応する撮像ガイドをタッチパネルディスプレイ4に表示する(S8:ガイドステップ)。すなわち、タッチパネルディスプレイ4には、撮像フレーム42が移動した方向以外の枠46a及び矢印46bが非表示とされ、かつ、撮像フレーム42が移動した方向の枠46aは、撮像フレーム42を移動すべき位置に表示されている(図5の(b)参照)。   On the other hand, if the movement information acquisition unit 22 determines that the imaging frame 42 has moved (S6: YES), the movement information acquisition unit 22 acquires movement direction information indicating the direction in which the imaging frame 42 has moved ( S7: Movement information acquisition step). Then, the guide unit 30 sets the imaging frame 42 determined by the movement distance determination unit 26 to the distance Y to be moved only in the direction in which the imaging frame 42 indicated by the movement direction information acquired by the movement information acquisition unit 22 has moved. A corresponding imaging guide is displayed on the touch panel display 4 (S8: guide step). That is, on the touch panel display 4, the frame 46a and the arrow 46b other than the direction in which the imaging frame 42 has moved are not displayed, and the frame 46a in the direction in which the imaging frame 42 has moved is the position where the imaging frame 42 should be moved. (See (b) of FIG. 5).

続いて、移動情報取得部22は、撮像フレーム42が移動した距離Xを検知する(S9:移動情報取得ステップ)。そして、ガイド部30は、撮像フレーム42が移動すべき距離Yから撮像フレーム42が移動した距離Xを差分した量に比例させて、タッチパネルディスプレイ4に表示する矢印46bの大きさを変化させる(S10:ガイドステップ)。すなわち、タッチパネルディスプレイ4には、撮像フレーム42が矩形の枠46aに近づくほど矢印46bが小さく表示される(図5の(b)及び(c)参照)。なお、撮像フレーム42が移動した距離Xが、撮像フレーム42が移動すべき距離Yより大きい場合、すなわち撮像フレーム42が移動すべき位置を超えてしまっている場合には、撮像フレーム42を移動した方向とは反対側に移動すべき旨のガイドを行ってもよい。   Subsequently, the movement information acquisition unit 22 detects the distance X that the imaging frame 42 has moved (S9: movement information acquisition step). Then, the guide unit 30 changes the size of the arrow 46b displayed on the touch panel display 4 in proportion to an amount obtained by subtracting the distance X that the imaging frame 42 has moved from the distance Y that the imaging frame 42 should move (S10). : Guide step). That is, on the touch panel display 4, the arrow 46b is displayed smaller as the imaging frame 42 approaches the rectangular frame 46a (see FIGS. 5B and 5C). If the distance X that the imaging frame 42 has moved is greater than the distance Y that the imaging frame 42 should move, that is, if the imaging frame 42 has exceeded the position to which the imaging frame 42 should move, the imaging frame 42 has been moved. You may perform the guide to the effect of moving to the opposite side to a direction.

続いて、フレーム到達判定部28は、撮像フレーム42が移動すべき距離Yから撮像フレーム42が移動した距離Xを差分した量が、所定の閾値α以下かどうかを判定する(S11:フレーム到達判定ステップ)。所定の閾値αは、例えば撮像フレーム42が移動すべき距離Yと撮像フレーム42が移動した距離Xとがほぼ同じとみなせるほど小さい画素単位の値である。撮像フレーム42が移動すべき距離Yから撮像フレーム42が移動した距離Xを差分した量が、所定の閾値α以下でない場合(S11:NO)には、ガイド部30は、撮像フレーム42が移動すべき距離Yから撮像フレーム42が移動した距離Xを差分した量に比例させて、タッチパネルディスプレイ4に表示する矢印46bの大きさを変化させ続ける(図5の(b)及び(c)参照)。   Subsequently, the frame arrival determination unit 28 determines whether or not an amount obtained by subtracting the distance X that the imaging frame 42 has moved from the distance Y that the imaging frame 42 should move is equal to or less than a predetermined threshold value α (S11: frame arrival determination). Step). The predetermined threshold α is, for example, a value in units of pixels that is so small that the distance Y that the imaging frame 42 should move and the distance X that the imaging frame 42 moved can be regarded as substantially the same. When the amount obtained by subtracting the distance X traveled by the imaging frame 42 from the distance Y that the imaging frame 42 should move is not less than or equal to the predetermined threshold value α (S11: NO), the guide unit 30 moves the imaging frame 42. The size of the arrow 46b displayed on the touch panel display 4 is continuously changed in proportion to an amount obtained by subtracting the distance X that the imaging frame 42 has moved from the power distance Y (see FIGS. 5B and 5C).

一方、撮像フレーム42が移動すべき距離Yから撮像フレーム42が移動した距離Xを差分した量が、所定の閾値α以下となった場合(S11:YES)には、ガイド部30は、撮像フレーム42を静止すべき旨の出力として、静止マーク46cの表示を行う(S12:ガイドステップ)。すなわち、タッチパネルディスプレイ4には、例えば撮像フレーム42が示す領域の中央部付近に静止マーク46cが表示される(図5の(d)参照)。   On the other hand, when the amount obtained by subtracting the distance X to which the imaging frame 42 has moved from the distance Y to which the imaging frame 42 should move is equal to or less than the predetermined threshold value α (S11: YES), the guide unit 30 The stationary mark 46c is displayed as an output indicating that 42 should be stationary (S12: guide step). That is, on the touch panel display 4, for example, a stationary mark 46c is displayed near the center of the area indicated by the imaging frame 42 (see FIG. 5D).

ガイド部30により静止マーク46cの表示がなされ、当該表示に従いユーザが撮像装置1の操作を停止させると、撮像フレーム42が静止する。撮像部20は、移動情報取得部22により撮像フレーム42が静止されたことを検知すると、第2の画像データ50を取得する(S13:撮像ステップ)。このようにして、第1の画像データ40を取得してから第2の画像データ50を取得するまでの撮像ガイドを制御する動作が終了となる。   The stationary mark 46c is displayed by the guide unit 30, and when the user stops the operation of the imaging apparatus 1 according to the display, the imaging frame 42 is stationary. When the movement information acquisition unit 22 detects that the imaging frame 42 is stationary, the imaging unit 20 acquires the second image data 50 (S13: imaging step). In this way, the operation for controlling the imaging guide from the acquisition of the first image data 40 to the acquisition of the second image data 50 is completed.

次に、上記の撮像ガイドを制御する動作における、画像特徴点検出(S5)及び移動距離決定(S6)の動作について、図8を用いて詳細に説明する。図8は、図7における画像特徴点検出及び移動距離決定の動作を詳細に示したフローチャートである。   Next, operations of image feature point detection (S5) and movement distance determination (S6) in the operation of controlling the imaging guide will be described in detail with reference to FIG. FIG. 8 is a flowchart showing in detail the operations of image feature point detection and movement distance determination in FIG.

図8に示すように、まず、画像特徴点検出の動作が開始すると、画像特徴点検出部24は、第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aを検出する(S31)。続いて、画像特徴点検出部24は、検出された画像の特徴点Aの数を算出し(S32)、画像特徴点検出の動作を終了する。   As shown in FIG. 8, first, when the image feature point detection operation starts, the image feature point detection unit 24 detects the feature point A of the image in the region 44 where the first image data 40 and the virtual frame 41 overlap. (S31). Subsequently, the image feature point detection unit 24 calculates the number of feature points A of the detected image (S32), and ends the image feature point detection operation.

続いて、移動距離決定の動作が開始されると、移動距離決定部26は、算出された画像の特徴点Aの数が所定の閾値β以上かどうかを判定する(S41)。画像の特徴点Aの数が所定の閾値β以上でないと判定された場合(S41:NO)には、撮像フレーム42が移動すべき距離Yを短距離に決定(S43)し、移動距離決定の動作を終了する。一方、画像の特徴点Aの数が所定の閾値β以上であると判定された場合(S41:YES)には、撮像フレーム42が移動すべき距離Yを長距離に決定(S42)し、移動距離決定の動作を終了する。   Subsequently, when the movement distance determination operation is started, the movement distance determination unit 26 determines whether or not the calculated number of feature points A of the image is equal to or greater than a predetermined threshold β (S41). If it is determined that the number of feature points A in the image is not equal to or greater than the predetermined threshold β (S41: NO), the distance Y that the imaging frame 42 should move is determined as a short distance (S43), and the movement distance is determined. End the operation. On the other hand, when it is determined that the number of feature points A of the image is equal to or greater than the predetermined threshold β (S41: YES), the distance Y to which the imaging frame 42 should move is determined as a long distance (S42) and moved. The distance determination operation is terminated.

以上、一実施形態の撮像装置1によれば、移動情報取得部22により、複数の画像データを撮像する際、撮像領域を示す撮像フレーム42が移動する方向を示す移動方向情報が取得される。画像特徴点検出部24により、取得された移動方向情報が示す方向に撮像フレーム42が移動する移動量に応じた、撮像フレーム42と撮像手段によって取得された第1の画像データ40とが重なり合う領域44における画像の特徴点Aが、第1の画像データ40から検出される。移動距離決定部26により、検出された画像の特徴点の数Aに応じて、第1の画像データ40と隣り合う第2の画像データ50を取得するために撮像フレーム42が移動すべき距離Yが決定される。そして、ガイド部30により、撮像フレーム42が移動すべき距離Yに応じ、枠46a及び矢印46bからなる撮像ガイドの表示がタッチパネルディスプレイ4において行われる。これにより、ユーザは当該表示により把握される撮像フレームが移動すべき距離に基づいて適切な撮像操作を行うことができ、複数の画像データ同士の繋ぎ目となる部分の画像の特徴点Aの数を、パノラマ画像データの生成に必要な分だけ確保することが可能となる。よって、複数の画像データの繋ぎ合わせに必要となる画像の特徴点Aの数を確保した上で、無駄のない撮像操作を行うことができる。   As described above, according to the imaging apparatus 1 of the embodiment, when the movement information acquisition unit 22 captures a plurality of pieces of image data, movement direction information indicating the direction in which the imaging frame 42 indicating the imaging region moves is acquired. An area in which the imaging frame 42 and the first image data 40 acquired by the imaging unit overlap according to the amount of movement of the imaging frame 42 in the direction indicated by the acquired movement direction information by the image feature point detection unit 24. A feature point A of the image at 44 is detected from the first image data 40. The distance Y by which the imaging frame 42 should move in order to obtain the second image data 50 adjacent to the first image data 40 according to the number A of feature points of the detected image by the movement distance determination unit 26. Is determined. Then, the guide unit 30 displays the imaging guide including the frame 46 a and the arrow 46 b on the touch panel display 4 according to the distance Y that the imaging frame 42 should move. Thereby, the user can perform an appropriate imaging operation based on the distance to which the imaging frame grasped by the display should move, and the number of feature points A of the image of the portion that becomes a joint between a plurality of image data It is possible to secure the necessary amount for generating panoramic image data. Therefore, it is possible to perform a wasteful imaging operation while securing the number of image feature points A necessary for joining a plurality of image data.

また、一実施形態の撮像装置1によれば、移動情報取得部22により、撮像フレーム42が移動した方向を検知し、移動した方向を用いて移動方向情報が取得される。また、ガイド部30により、移動情報取得部22により取得した撮像フレーム42が移動した方向のみに枠46a及び矢印46bがタッチパネルディスプレイ4に表示される。このような撮像フレーム42が移動した方向に応じた撮像ガイドの表示に従い、ユーザはより適切に撮像操作を行うことができる。   Further, according to the imaging apparatus 1 of the embodiment, the movement information acquisition unit 22 detects the direction in which the imaging frame 42 has moved, and the movement direction information is acquired using the moved direction. Further, the guide unit 30 displays the frame 46 a and the arrow 46 b on the touch panel display 4 only in the direction in which the imaging frame 42 acquired by the movement information acquisition unit 22 has moved. In accordance with the display of the imaging guide corresponding to the direction in which the imaging frame 42 has moved, the user can perform an imaging operation more appropriately.

また、一実施形態の撮像装置1によれば、移動情報取得部22により、撮像フレーム42が移動した距離Xが検知される。また、ガイド部30により、撮像フレーム42が移動すべき距離Yと撮像フレーム42が移動した距離Xとの差分が小さくなるにつれて、タッチパネルディスプレイ4において矢印46bの大きさが小さくなるように表示される。よって、ユーザは当該矢印46bの表示の大きさに応じて撮像フレーム42をどの程度移動させればよいか、直感的に判断することができ、より適切な撮像操作を行うことができる。   Further, according to the imaging apparatus 1 of the embodiment, the movement information acquisition unit 22 detects the distance X that the imaging frame 42 has moved. Also, the guide unit 30 displays the size of the arrow 46b on the touch panel display 4 as the difference between the distance Y that the imaging frame 42 should move and the distance X that the imaging frame 42 moved decreases. . Therefore, the user can intuitively determine how much the imaging frame 42 should be moved according to the display size of the arrow 46b, and can perform a more appropriate imaging operation.

また、一実施形態の撮像装置1によれば、フレーム到達判定部28により、移動距離決定部26により決定された撮像フレーム42が移動すべき距離Yと移動情報取得部22により検知された撮像フレーム42が移動した距離Xとの差分(Y−X)が所定の閾値α以下に到達したか否かが判定される。また、当該差分(Y−X)が所定の閾値α以下に到達したと判定された場合には、ガイド部30により、撮像フレーム42の移動を静止すべきことを通知する静止マーク46cがタッチパネルディスプレイ4に表示される。よって、ユーザは当該静止マーク46cの表示に応じて撮像操作を停止することができ、撮像フレーム42を適切なタイミングで静止させることが可能となる。また、ブレのない撮像操作を行うことができる。例えば、本実施形態のようにユーザが撮像装置1を保持して撮像が行われる場合は、手ブレを防止することができる。   Further, according to the imaging apparatus 1 of the embodiment, the frame arrival determination unit 28 moves the imaging frame 42 determined by the movement distance determination unit 26 and the imaging frame detected by the movement information acquisition unit 22. It is determined whether or not the difference (Y−X) from the distance X traveled by 42 has reached a predetermined threshold value α or less. In addition, when it is determined that the difference (Y−X) has reached a predetermined threshold value α or less, the stationary mark 46c for notifying that the movement of the imaging frame 42 should be stopped is displayed on the touch panel display by the guide unit 30. 4 is displayed. Therefore, the user can stop the imaging operation in accordance with the display of the stationary mark 46c, and the imaging frame 42 can be stopped at an appropriate timing. In addition, it is possible to perform an imaging operation without blurring. For example, when the user holds the imaging device 1 and performs imaging as in the present embodiment, camera shake can be prevented.

以上、本発明の好適な実施形態について説明してきたが、本発明は必ずしも上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で様々な変更が可能である。   The preferred embodiments of the present invention have been described above. However, the present invention is not necessarily limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

例えば、枠46a、矢印46b及び静止マーク46cからなる撮像ガイドの表示態様は、上記実施形態におけるものに限られず、枠46a、矢印46b及び静止マーク46cは種々の形状としてもよい。図9は、図4の撮像ガイドの表示の別態様を示す図である。図9に示すように、例えば4つの括弧型の枠46aを矩形の第1の画像データ40(撮像フレーム42)が有する四つの角に対応させて配置させることにより表示させてもよく、不等号型の矢印46bをタッチパネルディスプレイ4に表示してもよい。また、枠46aは撮像フレーム42と同形状の矩形を呈しているとしてもよい。枠46aがこのような矩形を呈している場合には、ユーザは撮像フレーム42が切り出す連続的な画像データをタッチパネルディスプレイ4上で見ながら、当該画像データを枠46aに対して傾けさせないように操作することができ、より適切な撮像操作が可能となる。   For example, the display mode of the imaging guide including the frame 46a, the arrow 46b, and the stationary mark 46c is not limited to that in the above embodiment, and the frame 46a, the arrow 46b, and the stationary mark 46c may have various shapes. FIG. 9 is a diagram showing another aspect of the display of the imaging guide of FIG. As shown in FIG. 9, for example, four bracketed frames 46a may be displayed by arranging them corresponding to the four corners of the first rectangular image data 40 (imaging frame 42). The arrow 46 b may be displayed on the touch panel display 4. The frame 46a may be a rectangle having the same shape as the imaging frame 42. When the frame 46a has such a rectangular shape, the user performs an operation so that the image data is not tilted with respect to the frame 46a while viewing continuous image data cut out by the imaging frame 42 on the touch panel display 4. Therefore, a more appropriate imaging operation can be performed.

また、撮像ガイドの表示態様は、枠46a、矢印46b及び静止マーク46cによる表示に限られず、その他の図形や記号等をタッチパネルディスプレイ4に表示させてもよい。また、撮像ガイドの表示態様は静止画に限られず、アニメーション表示、タッチパネルディスプレイ4上の光を点滅させる等、画面表示に視覚的に認識できる種々の態様により撮像ガイドを行ってもよい。   The display mode of the imaging guide is not limited to the display by the frame 46a, the arrow 46b, and the stationary mark 46c, and other figures, symbols, and the like may be displayed on the touch panel display 4. In addition, the display mode of the imaging guide is not limited to a still image, and the imaging guide may be performed in various modes that can be visually recognized on the screen display, such as animation display or blinking light on the touch panel display 4.

また、撮像ガイドは、タッチパネルディスプレイ4に表示させることによるものに限られず、音声や振動等により行ってもよい。   The imaging guide is not limited to being displayed on the touch panel display 4, and may be performed by voice, vibration, or the like.

また、上記実施形態においては、撮像フレーム42が移動すべき距離Yをデフォルト値として長距離に設定しておくこととしたが、これに限られない。例えば、撮像フレーム42が移動すべき距離Yをデフォルト値として短距離に設定しておき、第1の画像データ40と仮想フレーム41とが重なり合う領域44における画像の特徴点Aの数に応じて撮像フレーム42の移動すべき距離Yを長距離に近づけてもよい。   In the above embodiment, the distance Y that the imaging frame 42 should move is set as a long distance as a default value. However, the present invention is not limited to this. For example, the distance Y to which the imaging frame 42 should move is set as a short distance as a default value, and imaging is performed according to the number of feature points A of the image in the region 44 where the first image data 40 and the virtual frame 41 overlap. The distance Y to which the frame 42 should move may be close to a long distance.

また、上記実施形態においては、撮像フレーム42が移動すべき距離Yは、長距離又は短距離のどちらか一方に決定されるとしたが、これに限られない。例えば、第1の画像データ40と現実の撮像フレーム42とが重なり合う領域48においてパノラマ画像生成に必要な数だけ画像の特徴点Aの数を有するように、撮像フレーム42が移動すべき距離Yを無段階に可変なものとしてもよい。例えば、第1の画像データ40と仮想フレーム41とが重なり合う領域44の面積をパノラマ生成のため最低限必要な大きさにしておき、当該領域44における画像の特徴点Aの数を検出する。検出された当該領域44における画像の特徴点Aの数がパノラマ生成のために不十分な場合には、十分な数となるように当該領域44の面積を大きくしていく。また、逆に、第1の画像データ40と仮想フレーム41とが重なり合う領域44の面積を最大限としておき、すなわち仮想フレーム41を第1の画像データ40にちょうど重なり合う位置にしておき、そこから当該領域44の面積を小さくしていってもよい。   In the above embodiment, the distance Y that the imaging frame 42 should move is determined to be either a long distance or a short distance, but is not limited thereto. For example, the distance Y to be moved by the imaging frame 42 is set so that the region 48 where the first image data 40 and the actual imaging frame 42 overlap has the number of image feature points A as many as necessary for panoramic image generation. It may be variable steplessly. For example, the area of the region 44 where the first image data 40 and the virtual frame 41 overlap is set to a minimum necessary size for panorama generation, and the number of feature points A of the image in the region 44 is detected. When the number of detected feature points A of the image in the region 44 is insufficient for panorama generation, the area of the region 44 is increased so as to be a sufficient number. Conversely, the area 44 where the first image data 40 and the virtual frame 41 overlap is maximized, that is, the virtual frame 41 is positioned so as to overlap the first image data 40, and from there The area of the region 44 may be reduced.

なお、上記の各閾値の設定は、製造者等により予め記憶されているデフォルト設定に限られず、当該設定をユーザが適宜変更可能なものとしてもよい。   The setting of each threshold value is not limited to the default setting stored in advance by the manufacturer or the like, and the setting may be appropriately changed by the user.

また、第1の画像データ40が取得されると図5に示すように四方に撮像ガイドが表示されるとしたが、これに限られず、パノラマ画像が適切に生成されるように予め撮像フレーム42が移動すべき方向を設定しておき、その方向のみに撮像ガイドを表示することとしてもよい。   Further, when the first image data 40 is acquired, the imaging guide is displayed in all directions as shown in FIG. 5, but the present invention is not limited to this, and the imaging frame 42 is previously prepared so that a panoramic image is appropriately generated. It is also possible to set a direction in which the camera should move and display the imaging guide only in that direction.

また、本発明の撮像装置は携帯端末に限られず、デジタルカメラ等の種々の撮像機器であってもよい。なお、デジタルカメラ等の場合には、撮像用の装置であるため、携帯電話機等の携帯端末のように撮像を行うためにアプリケーションを起動しなくてよい。   Further, the imaging apparatus of the present invention is not limited to a portable terminal, and may be various imaging devices such as a digital camera. In the case of a digital camera or the like, since it is an imaging device, it is not necessary to start an application in order to perform imaging like a mobile terminal such as a mobile phone.

1…撮像装置、20…撮像部(撮像手段)、22…移動情報取得部(移動情報取得手段)、24…画像特徴点検出部(画像特徴点検出手段)、26…移動距離決定部(移動距離決定手段)、28…フレーム到達判定部(フレーム到達判定手段)、30…ガイド部(ガイド手段)、40…第1の画像データ、42…撮像フレーム、46a…枠、46b…矢印、50…第2の画像データ、A…画像の特徴点。 DESCRIPTION OF SYMBOLS 1 ... Imaging device, 20 ... Imaging part (imaging means), 22 ... Movement information acquisition part (movement information acquisition means), 24 ... Image feature point detection part (image feature point detection means), 26 ... Movement distance determination part (movement) (Distance determination means), 28 ... frame arrival determination section (frame arrival determination means), 30 ... guide section (guide means), 40 ... first image data, 42 ... imaging frame, 46a ... frame, 46b ... arrow, 50 ... Second image data, A: Image feature points.

Claims (8)

複数の画像データを合成してパノラマ画像データを生成するため、前記複数の画像データを取得する撮像装置であって、
前記複数の画像データを、撮像領域を示す撮像フレームにより切り出される画像を撮像することにより取得する撮像手段と、
前記撮像フレームが移動する方向を示す移動方向情報を取得する移動情報取得手段と、
前記移動情報取得手段により取得した移動方向情報が示す方向に前記撮像フレームが移動する移動量に応じた、前記撮像フレームと前記撮像手段によって取得された第1の画像データとが重なり合う領域における画像の特徴点を、前記第1の画像データから検出する画像特徴点検出手段と、
前記画像特徴点検出手段により検出した前記画像の特徴点の数に応じて、前記第1の画像データと隣り合う第2の画像データを取得するために前記撮像フレームが移動すべき距離を決定する移動距離決定手段と、
前記移動距離決定手段により決定した前記撮像フレームが移動すべき距離に応じた出力を行うガイド手段と、
を備える撮像装置。
In order to generate panoramic image data by combining a plurality of image data, the imaging device acquires the plurality of image data,
Imaging means for acquiring the plurality of image data by capturing an image cut out by an imaging frame indicating an imaging region;
Movement information acquisition means for acquiring movement direction information indicating a direction in which the imaging frame moves;
The image in the region where the imaging frame and the first image data acquired by the imaging unit overlap according to the amount of movement of the imaging frame in the direction indicated by the movement direction information acquired by the movement information acquisition unit. Image feature point detection means for detecting a feature point from the first image data;
In accordance with the number of feature points of the image detected by the image feature point detection means, a distance that the imaging frame should move in order to acquire second image data adjacent to the first image data is determined. A moving distance determining means;
Guide means for performing output according to the distance to which the imaging frame determined by the movement distance determination means should move;
An imaging apparatus comprising:
前記移動情報取得手段が、前記撮像フレームが移動した方向を検知し、前記移動した方向を用いて前記移動方向情報を取得する請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the movement information acquisition unit detects a direction in which the imaging frame has moved, and acquires the movement direction information using the moved direction. 前記ガイド手段が、前記移動情報取得手段により取得した前記移動方向情報に応じた出力を行う請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the guide unit performs output according to the movement direction information acquired by the movement information acquisition unit. 前記移動情報取得手段が、前記撮像フレームが移動した距離を検知し、
前記ガイド手段が、前記移動情報取得手段により検知された前記撮像フレームが移動した距離に応じた出力を行う請求項1〜3の何れか一項に記載の撮像装置。
The movement information acquisition means detects the distance that the imaging frame has moved,
The imaging apparatus according to any one of claims 1 to 3, wherein the guide unit performs output in accordance with a distance traveled by the imaging frame detected by the movement information acquisition unit.
前記移動距離決定手段により決定された前記撮像フレームが移動すべき距離と前記移動情報取得手段により検知された前記撮像フレームが移動した距離との差分が所定の閾値に到達したか否かを判定するフレーム到達判定手段を更に備え、
前記ガイド手段が、前記フレーム到達判定手段により前記差分が所定の閾値に到達したと判定された場合に、前記撮像フレームの移動を静止すべき旨の出力を行う請求項4に記載の撮像装置。
It is determined whether or not the difference between the distance to which the imaging frame determined by the moving distance determination unit should move and the distance to which the imaging frame detected by the movement information acquisition unit has reached a predetermined threshold value. A frame arrival determination unit;
The imaging apparatus according to claim 4, wherein the guide unit performs an output indicating that the movement of the imaging frame should be stopped when the frame arrival determination unit determines that the difference has reached a predetermined threshold value.
前記ガイド手段が、前記出力を画面表示により行う請求項1〜5の何れか一項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the guide unit performs the output by screen display. 前記ガイド手段が、前記画面表示として枠又は矢印を表示する請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the guide unit displays a frame or an arrow as the screen display. 複数の画像データを合成してパノラマ画像データを生成するため、前記複数の画像データを取得する撮像方法であって、
前記複数の画像データを、撮像領域を示す撮像フレームにより切り出される画像を撮像することにより取得する撮像ステップと、
前記撮像フレームが移動する方向を示す移動方向情報を取得する移動情報取得ステップと、
前記移動情報取得ステップにおいて取得した移動方向情報が示す方向に前記撮像フレームが移動する移動量に応じた、前記撮像フレームと前記撮像ステップにおいて取得された第1の画像データとが重なり合う領域における画像の特徴点を、前記第1の画像データから検出する画像特徴点検出ステップと、
前記画像特徴点検出ステップにおいて検出した前記画像の特徴点の数に応じて、前記第1の画像データと隣り合う第2の画像データを取得するために前記撮像フレームが移動すべき距離を決定する移動距離決定ステップと、
前記移動距離決定ステップにおいて決定した前記撮像フレームが移動すべき距離に応じた出力を行うガイドステップと、
を含む撮像方法。
In order to generate panoramic image data by combining a plurality of image data, an imaging method for acquiring the plurality of image data,
An imaging step of acquiring the plurality of image data by capturing an image cut out by an imaging frame indicating an imaging region;
A movement information acquisition step of acquiring movement direction information indicating a direction in which the imaging frame moves;
The image in the region where the imaging frame and the first image data acquired in the imaging step overlap according to the amount of movement of the imaging frame in the direction indicated by the movement direction information acquired in the movement information acquisition step. An image feature point detection step of detecting a feature point from the first image data;
In accordance with the number of feature points of the image detected in the image feature point detection step, a distance that the imaging frame should move to acquire second image data adjacent to the first image data is determined. A moving distance determining step;
A guide step for performing output in accordance with the distance to which the imaging frame determined in the moving distance determining step should move;
An imaging method including:
JP2013068678A 2013-03-28 2013-03-28 Imaging apparatus and imaging method Active JP5952766B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013068678A JP5952766B2 (en) 2013-03-28 2013-03-28 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013068678A JP5952766B2 (en) 2013-03-28 2013-03-28 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2014192829A JP2014192829A (en) 2014-10-06
JP5952766B2 true JP5952766B2 (en) 2016-07-13

Family

ID=51838698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013068678A Active JP5952766B2 (en) 2013-03-28 2013-03-28 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5952766B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9986155B2 (en) 2014-09-05 2018-05-29 Htc Corporation Image capturing method, panorama image generating method and electronic apparatus
JP6417342B2 (en) * 2015-01-22 2018-11-07 カミエンス・テクノロジー株式会社 Image display device, image display method, and image display program
CN113344835A (en) * 2021-06-11 2021-09-03 北京房江湖科技有限公司 Image splicing method and device, computer readable storage medium and electronic equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4922106B2 (en) * 2007-08-30 2012-04-25 オリンパスイメージング株式会社 Camera, panorama shooting guide display method applied thereto, panorama shooting guide display program
JP5248951B2 (en) * 2008-08-12 2013-07-31 ソニーモバイルコミュニケーションズ, エービー CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM

Also Published As

Publication number Publication date
JP2014192829A (en) 2014-10-06

Similar Documents

Publication Publication Date Title
EP2770724B1 (en) Apparatus and method for positioning image area using image sensor location
KR101545883B1 (en) Method for controlling camera of terminal and terminal thereof
CN102957868B (en) Method and electronic device for shooting panorama
US8675113B2 (en) User interface for a digital camera
US9992410B2 (en) Apparatus and method photographing image
KR102114377B1 (en) Method for previewing images captured by electronic device and the electronic device therefor
US10237499B2 (en) Apparatus and method for processing an image in device
US10055081B2 (en) Enabling visual recognition of an enlarged image
KR101969424B1 (en) Photographing device for displaying image and methods thereof
US20170111574A1 (en) Imaging apparatus and imaging method
KR102082661B1 (en) Photograph image generating method of electronic device, and apparatus thereof
WO2015029114A1 (en) Electronic device and notification control method
JPWO2019058641A1 (en) Electronic device, program, control device, and control method
JP5952766B2 (en) Imaging apparatus and imaging method
JP5872415B2 (en) Display terminal, operation reception method, and program
JP2014048775A (en) Apparatus and program for identifying position gazed
CA2807866C (en) User interface for a digital camera
JP5212521B2 (en) Image display device
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
KR102039025B1 (en) Method for controlling camera of terminal and terminal thereof
JP6220276B2 (en) Imaging apparatus and imaging method
KR20140089134A (en) Apparatus and method for processing a dual image in device having a dual camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160610

R150 Certificate of patent or registration of utility model

Ref document number: 5952766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250