JP5935779B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5935779B2 JP5935779B2 JP2013203332A JP2013203332A JP5935779B2 JP 5935779 B2 JP5935779 B2 JP 5935779B2 JP 2013203332 A JP2013203332 A JP 2013203332A JP 2013203332 A JP2013203332 A JP 2013203332A JP 5935779 B2 JP5935779 B2 JP 5935779B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- frame
- unit
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、所定の時点に関連する画像を特定する画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for specifying an image related to a predetermined time point.
従来、一連のスイング動作をしている被写体を撮像した動画像のデータから、インパクト時の画像を特定する装置が知られている(例えば、特許文献1参照)。具体的には、当該装置は、動画像のデータをリングバッファに記憶しつつドップラセンサによりボール速度を測定し、ボール速度の測定に掛かった処理時間に基づいて、インパクト時のフレーム画像を特定する。 2. Description of the Related Art Conventionally, an apparatus that identifies an image at the time of impact from moving image data obtained by capturing a subject performing a series of swing operations is known (see, for example, Patent Document 1). Specifically, the apparatus measures the ball speed by a Doppler sensor while storing moving image data in a ring buffer, and identifies a frame image at the time of impact based on the processing time taken for measuring the ball speed. .
しかしながら、上記特許文献1の場合、動画像のデータの中で一連のスイング動作中の所定の瞬間の画像を特定するためには、ドップラセンサのような特殊なデバイスが必要であった。 However, in the case of the above-mentioned Patent Document 1, a special device such as a Doppler sensor is required to specify an image at a predetermined moment during a series of swing operations in moving image data.
本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、特殊なデバイスを用いなくとも所望の画像を特定することができる画像処理装置、画像処理方法及びプログラムを提供することである。 The present invention has been made in view of such problems, and an object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of specifying a desired image without using a special device. It is to be.
上記課題を解決するため、本発明に係る画像処理装置は、
被写体の動作が連続的に撮像された複数の画像を取得する取得手段と、前記取得手段により取得された複数の画像の各々に、前記画像の全領域よりも範囲が小さく、且つ重畳しない複数の部分領域を設定する領域設定手段と、前記領域設定手段により設定された複数の部分領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段と、を備えたことを特徴としている。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
An acquisition unit that acquires a plurality of images in which the motion of the subject is continuously captured, and a plurality of images that are smaller than the entire area of the image and that do not overlap each of the plurality of images acquired by the acquisition unit In the operation of the subject among the plurality of images, an area setting unit for setting a partial area and a variation in pixel values between the plurality of images in each of the plurality of partial areas set by the area setting unit And a specifying unit that specifies a plurality of images related to a predetermined time point.
また、本発明に係る画像処理方法は、
画像処理装置を用いた画像処理方法であって、被写体の動作が連続的に撮像された複数の画像を取得する処理と、取得された複数の画像の各々に、前記画像の全領域よりも範囲が小さく、且つ重畳しない複数の部分領域を設定する処理と、設定された前記複数の部分領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する処理と、を含むことを特徴としている。
The image processing method according to the present invention includes:
An image processing method using an image processing apparatus, wherein a process of acquiring a plurality of images obtained by continuously capturing the motion of a subject, and a range of each of the acquired plurality of images is larger than the entire area of the image Of the subject among the plurality of images based on a process of setting a plurality of partial regions that are small and non- overlapping and fluctuations in pixel values between the plurality of images in each of the plurality of partial regions that are set And a process of specifying a plurality of images related to a predetermined time point in the operation.
また、本発明に係るプログラムは、
画像処理装置のコンピュータを、被写体の動作が連続的に撮像された複数の画像を取得する取得手段、前記取得手段により取得された複数の画像の各々に、前記画像の全領域よりも範囲が小さく、且つ重畳しない複数の部分領域を設定する領域設定手段、前記領域設定手段により設定された複数の部分領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段、として機能させることを特徴としている。
The program according to the present invention is
The computer of the image processing apparatus, acquiring means for acquiring a plurality of images operation of the subject is continuously captured in each of the plurality of images acquired by the acquisition unit, smaller range than the entire area of the image And a region setting means for setting a plurality of partial regions that do not overlap , and based on fluctuations in pixel values between the plurality of images in each of the plurality of partial regions set by the region setting means, It is characterized by functioning as specifying means for specifying a plurality of images related to a predetermined time point in the movement of the subject.
本発明によれば、特殊なデバイスを用いなくとも所望の画像を特定することができる。 According to the present invention, a desired image can be specified without using a special device.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
図1に示すように、本実施形態の撮像装置100は、中央制御部1と、メモリ2と、撮像部3と、画像データ生成部4と、画像処理部5と、画像記録部6と、表示部7と、操作入力部8とを備えている。
また、中央制御部1、メモリ2、撮像部3、画像データ生成部4、画像処理部5、画像記録部6及び表示部7は、バスライン9を介して接続されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an
As illustrated in FIG. 1, the
The central control unit 1, the
中央制御部1は、撮像装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The central control unit 1 controls each unit of the
メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や画像処理部5等の各部によって処理されるデータ等を一時的に記憶するものである。
The
撮像部3は、背景内に存在する被写体(例えば、ゴルフクラブのクラブヘッドC;図4参照)を撮像する。具体的には、撮像部3は、レンズ部3aと、電子撮像部3bと、撮像制御部3cとを備えている。
The
レンズ部3aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CMOS(Complementary Metal-oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The
The
In addition, although illustration is abbreviate | omitted, the
撮像制御部3cは、撮像部3による被写体の撮像を制御する。即ち、撮像制御部3cは、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3cは、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部4に出力させる。
The
画像データ生成部4は、電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。また、画像データ生成部4は、動画像を構成する複数のフレーム画像の各々を所定形式(例えば、MPEG形式やモーションJPEG形式等)で符号化して、動画像の画像データを生成する。
また、画像データ生成部4は、生成した画像データをバッファメモリとして使用されるメモリ2に転送する。
The image
In addition, the image
画像処理部5は、画像取得部5aと、領域設定部5bと、復号部5cと、閾値設定部5dと、フレーム番号特定部5eと、画像特定部5fとを具備している。
なお、画像処理部5の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The
Note that each unit of the
画像取得部5aは、画像特定処理の処理対象となる画像を取得する。
即ち、画像取得部(取得手段)5aは、被写体の動作が連続的に撮像された複数のフレーム画像F1〜F5(図5(a)〜図5(e)参照)を取得する。具体的には、画像取得部5aは、例えば、被写体による所定のスポーツの一連の動作(例えば、ゴルフのスイングにおけるクラブヘッドCの動作等)が撮像部3により撮像されて画像データ生成部4により生成された複数のフレーム画像からなる動画像の画像データを、画像特定処理の処理対象として取得する。
例えば、撮像部3は、被写体による所定のスポーツの一連の動作を所定の撮像フレームレート(例えば、1000fps等)で撮像し、画像データ生成部4は、フレーム番号が対応付けられた複数のフレーム画像からなる動画像の画像データを生成してメモリ2に転送する。ここで、撮像部3による被写体の撮像の際に、表示部7は、例えば、ゴルフクラブのクラブヘッドCやボールBの初期位置を合わせるための指標Mをライブビュー画像Lに重畳させてOSD(on-screen display)表示させても良い(図4参照)。
そして、画像取得部5aは、メモリ2に格納されている動画像の画像データを読み出して、画像特定処理の処理対象として取得する。
なお、画像取得部5aは、撮像部3による被写体の撮像後に画像記録部6に記録されている動画像の画像データを読み出して、画像特定処理の処理対象として取得しても良い。
The
That is, the image acquisition unit (acquisition unit) 5a acquires a plurality of frame images F1 to F5 (see FIGS. 5A to 5E) in which the motion of the subject is continuously captured. Specifically, for example, the
For example, the
Then, the
Note that the
領域設定部5bは、被写体の検出領域を設定する。
即ち、領域設定部(領域設定手段)5bは、画像取得部5aにより取得された動画像を構成する複数のフレーム画像の各々について所定位置に、被写体(例えば、クラブヘッドC等)が存在する時点のフレーム番号(識別情報)を特定するための複数の検出領域を設定する。具体的には、領域設定部5bは、例えば、複数のフレーム画像の各々について上下方向略中央部の左右方向両端寄りの位置に、略矩形状の検出領域を二つ設定する(図6(a)〜図6(c)参照)。ここで、被写体の検出領域の位置は、例えば、被写体の一連の動作における当該被写体の移動方向を基準として設定される。つまり、領域設定部5bは、例えば、左右方向に移動する被写体に対しては各フレーム画像の左右方向両端寄りの位置に少なくとも二つの検出領域A1、A2を設定し、上下方向に移動する被写体に対しては各フレーム画像の上下方向両端寄りの位置に少なくとも二つの検出領域(図示略)を設定する。
また、領域設定部5bは、複数のフレーム画像のうち、最初のフレーム画像F1(図6(a)参照)の所定位置に被写体の検出領域を設定することで、残りのフレーム画像についても同様に、最初のフレーム画像F1の検出領域に対応する位置に検出領域を適用して設定する。
なお、上記した検出領域の配置、個数、形状等は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The area setting unit 5b sets a subject detection area.
That is, the area setting unit (area setting unit) 5b is a time point when a subject (for example, a club head C) exists at a predetermined position for each of a plurality of frame images constituting the moving image acquired by the
In addition, the region setting unit 5b sets the subject detection region at a predetermined position of the first frame image F1 (see FIG. 6A) among the plurality of frame images, and similarly for the remaining frame images. The detection area is applied and set at a position corresponding to the detection area of the first frame image F1.
Note that the arrangement, number, shape, and the like of the detection regions described above are merely examples, and are not limited thereto, and can be arbitrarily changed as appropriate.
復号部5cは、複数のフレーム画像からなる動画像の画像データを復号する。
具体的には、復号部5cは、例えば、画像取得部5aにより取得された所定形式(例えば、MPEG形式やモーションJPEG形式等)で符号化されている動画像の画像データに対して、当該動画像データの符号化方式に応じた復号処理を施して、複数のフレーム画像のYUVデータを生成する。
このとき、復号部5cは、例えば、表示パネル7aの表示解像度等に基づいて各フレーム画像を所定サイズ(例えば、VGAやQVGAサイズ)に縮小する処理を行っても良い。
The
Specifically, for example, the
At this time, the
閾値設定部5dは、被写体の検出用の閾値を設定する。
即ち、閾値設定部(閾値設定手段)5dは、複数のフレーム画像のうち、所定期間内の所定数のフレーム画像における検出領域の画素値の代表値を被写体の検出用の閾値として設定する。具体的には、閾値設定部5dは、例えば、復号部5cにより復号された最初のフレーム画像F1から所定数(例えば、n個;nは自然数)分のフレーム画像について、検出領域毎に隣合うフレーム画像との画素値(例えば、輝度値)の差分二乗和SSD(Sum of Squared Differences)を算出する。そして、閾値設定部(算出手段)5dは、検出領域毎に、算出された複数(例えば、n−1個)の差分二乗和SSDの代表値(例えば、平均値、中央値等)を演算して、被写体が検出領域に存在する時点のフレーム番号を特定するための閾値として設定する。
The
That is, the threshold setting unit (threshold setting means) 5d sets the representative value of the pixel value of the detection region in a predetermined number of frame images within a predetermined period among the plurality of frame images as a threshold for detecting the subject. Specifically, for example, the
なお、上記した閾値の算出方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。また、例えば、フレーム画像における背景の色が一色の場合や模様が一様の場合等には、閾値設定部5dは、何れか一の検出領域(例えば、左側の検出領域A1等)について算出された代表値(閾値)を他の検出領域(例えば、右側の検出領域A2等)について適用しても良い。
Note that the above-described threshold value calculation method is an example and is not limited to this, and can be arbitrarily changed as appropriate. For example, when the background color in the frame image is one color or the pattern is uniform, the
フレーム番号特定部5eは、検出領域内に被写体が存在する時点のフレーム番号を特定する。
即ち、フレーム番号特定部5eは、領域設定部5bにより設定された複数の検出領域における各検出領域の画素値の変動に基づいて、当該各検出領域内に被写体が存在する時点のフレーム番号(フレームインの時点のフレーム番号又はフレームアウトの時点のフレーム番号)を特定する。具体的には、フレーム番号特定部(判定手段)5eは、検出領域毎に、当該検出領域毎の画素値が閾値設定部5dにより設定された各閾値に対して大きいか否かを判定する。そして、検出領域毎の画素値が閾値設定部5dにより設定された各閾値に対して大きいと判定されると、当該検出領域の画素値が閾値設定部5dにより設定された閾値を超えた時点のフレーム番号を特定する(図6(b)及び図6(c)参照)。
例えば、フレーム番号特定部5eは、復号部5cにより復号された各フレーム画像について隣合うフレーム画像との検出領域の画素値(例えば、輝度値)の差分二乗和SSDを評価値として算出する。続けて、フレーム番号特定部5eは、算出された評価値と閾値設定部5dにより設定された閾値とを比較して、評価値が閾値よりも大きいか否かを判定する。当該判定の結果、フレーム番号特定部5eは、評価値が閾値を超えた時点のフレーム番号を特定する。例えば、ゴルフのスイングの場合、左右方向に移動するクラブヘッドCが検出領域を通過することで、評価値が閾値よりも大きくなる。
また、フレーム番号特定部5eは、評価値が閾値よりも大きいと判定された時点のフレーム番号のうち、当該閾値に対する相違度が最も大きい時点のフレーム番号を特定する。即ち、例えば、左右方向に移動するクラブヘッドCが検出領域を通過することで、評価値が閾値よりも大きくなり、当該クラブヘッドCと検出領域との重なり領域が最も大きくなると相違度が最も大きくなる。ここで、打ち出されたボールBが一方の検出領域(後述するフレームアウト側の検出領域A2)を通過する際にも評価値が閾値よりも大きくなるが、クラブヘッドCが通過する際の評価値の方がボールBの評価値に比して大きくなるため、閾値に対する相違度が最も大きくなった評価値に対応するフレーム画像の検出領域内には、クラブヘッドCが存在すると考えられる。
The frame
That is, the frame
For example, the frame
Also, the frame
ここで、左右二つの検出領域A1、A2内におけるフレームイン及びフレームアウトの時点のフレーム番号の特定処理は、当該被写体のフレームアウト側に対応する検出領域A2(図6(b)参照)から先に行われても良い。即ち、例えば、ゴルフのスイングの場合、右利きの人のスイングでは、クラブヘッドCが左側からフレームインして右側からフレームアウトする軌道を描くことから、右側の検出領域A2から先に特定処理が行われ、その一方で、左利きの人のスイングでは、逆に左側の検出領域A1から先に特定処理が行われる。
このとき、フレーム番号特定部5eは、検出領域A2を用いたフレームアウトの時点のフレーム番号の特定処理については(図6(b)参照)、復号部5cにより復号された全てのフレーム画像を処理対象とする。その一方で、フレーム番号特定部5eは、検出領域A1を用いたフレームインの時点のフレーム番号の特定処理については(図6(b)参照)、特定されたフレームアウトの時点のフレーム番号を基準とした所定数のフレーム画像を処理対象とする。例えば、フレーム番号特定部5eは、ゴルフの標準的なスイングスピード(例えば、30〜40m/s等)、撮像部3の撮像フレームレートや画角等を考慮して、検出領域A2を用いて特定されたフレームアウトの時点のフレーム番号に対応するフレーム画像から所定数分のフレームを遡ったフレーム画像を特定し、当該特定されたフレーム画像以降のフレームであって、検出領域A2を用いて特定されたフレームアウトの時点のフレーム番号に対応するフレーム画像の一つ前のフレーム画像までを処理対象とする。
これにより、ゴルフのスイングの場合、テイクバックと振り下ろしの各々の動作にてフレームイン側の検出領域A1を通過することとなるが、テイクバックの際にクラブヘッドCが当該検出領域A1内に存在するフレーム画像のフレーム番号がフレームインの時点のフレーム番号として誤って特定されることを抑制することができる。
Here, the frame number identification processing at the time of frame-in and frame-out in the left and right detection areas A1 and A2 starts from the detection area A2 (see FIG. 6B) corresponding to the frame-out side of the subject. May be done. That is, for example, in the case of a golf swing, a right-handed person's swing draws a trajectory in which the club head C frames in from the left side and frames out from the right side. On the other hand, in the left-handed person's swing, on the contrary, the specific processing is performed first from the left detection area A1.
At this time, the frame
Thus, in the case of a golf swing, the take-back and swing-down operations pass through the detection area A1 on the frame-in side, but the club head C is within the detection area A1 during take-back. It is possible to prevent the frame number of an existing frame image from being erroneously specified as the frame number at the time of frame-in.
画像特定部5fは、被写体の動作における所定の時点を基準とする複数のフレーム画像を特定する。
即ち、画像特定部(特定手段)5fは、フレーム番号特定部5eによるフレームイン及びフレームアウトの時点のフレーム番号の特定結果に基づいて、複数の画像内で被写体の動作における所定の時点(例えば、クラブヘッドCによりボールBを打った瞬間のインパクト等)に関連するフレーム画像を複数特定する。具体的には、例えば、画像特定部5fは、検出領域A1、A2を用いた被写体(例えば、クラブヘッドC)のフレームイン及びフレームアウトの時点のフレーム番号の特定結果に基づいて、当該フレームイン及びフレームアウトの時点のフレーム番号に対応するフレーム画像F2、F4をそれぞれ特定する。そして、画像特定部5fは、所定の時点に関連するフレーム画像F2、F4に基づいて、複数のフレーム画像のうち当該所定の時点を基準とする複数のフレーム画像を特定する。例えば、画像特定部(抽出手段)5fは、特定された二つのフレーム番号に基づいて、複数のフレーム画像から当該二つのフレーム番号間の複数のフレーム画像を特定し、動画像として抽出する。
このとき、画像特定部5fは、フレーム番号特定部5eによる複数の検出領域を用いて特定されたフレームイン及びフレームアウトの時点のフレーム番号の順序が所定の順序であった場合に、所定の時点に関連するフレーム画像を特定する。つまり、検出領域A1を用いて特定されたフレームインの時点のフレーム番号の方が、検出領域A2を用いて特定されたフレームアウトの時点のフレーム番号よりも小さい場合に、当該二つのフレーム番号に対応するフレーム画像F2、F4間には、クラブヘッドCによりボールBを打った瞬間のインパクトの時点(所定の時点)に対応するフレーム画像F3が含まれていることとなる。
The
That is, the image specifying unit (specifying unit) 5f determines a predetermined time point (for example, in the motion of the subject in the plurality of images) based on the result of specifying the frame number at the time of frame-in and frame-out by the frame
At this time, the
なお、画像特定部5fは、例えば、ボールBや初期状態のクラブヘッドの位置と二つの検出領域A1、A2との相対的な位置関係を考慮して、二つのフレーム画像F2、F4間にてボールBを打った瞬間のインパクトに対応するフレーム画像F3自体を特定しても良い。例えば、ボールBが二つの検出領域A1、A2の略中間に配置されている場合には、二つのフレーム画像F2、F4間の略中間にボールBを打った瞬間のインパクトに対応するフレーム画像F3が存在すると考えられる。
The
画像記録部6は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部6は、画像データ生成部4の符号化部(図示略)により所定の符号化方式で符号化された各種の画像の画像データを記録する。
具体的には、画像記録部6は、例えば、撮像部3により被写体の一連の動作が連続された動画像の画像データや、当該動画像から抽出され、所定の時点を基準とする所定数のフレーム画像からなる動画像の画像データ等を記録する。
The
Specifically, the
なお、画像記録部6は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。
The
表示部7は、静止画像や動画像を表示する。具体的には、表示部7は、表示パネル7aと、表示制御部7bとを具備している。
The
表示パネル7aは、表示領域内に画像を表示する。具体的には、表示部7は、静止画撮像モードや動画撮像モードにて、撮像部3による被写体の撮像により生成された複数の画像フレームを所定の再生フレームレートで逐次更新しながらライブビュー画像Lを表示する。
なお、表示パネル7aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
The
Examples of the
表示制御部7bは、画像記録部6から読み出され画像処理部5により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル7aの表示画面に表示させる制御を行う。具体的には、表示制御部7bは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、画像処理部5により復号されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから読み出して、これらのデータを元にビデオ信号を発生して表示パネル7aに出力する。
The
操作入力部8は、装置本体に対して各種指示を入力するためのものである。
具体的には、操作入力部8は、例えば、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン等を具備する操作部(図示略)を備えている。
そして、ユーザにより操作部の各種ボタンが操作されると、操作入力部8は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部8から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像等)を各部に実行させる。
なお、操作入力部8は、表示部7の表示パネル7aと一体となって設けられたタッチパネル(図示略)を有して構成されていても良い。
The operation input unit 8 is for inputting various instructions to the apparatus main body.
Specifically, the operation input unit 8 includes, for example, an operation unit (not shown) including up / down / left / right cursor buttons and a determination button related to a selection instruction of a mode, a function, and the like.
When the user operates various buttons on the operation unit, the operation input unit 8 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, imaging of a subject) in accordance with an operation instruction output from the operation input unit 8 and input.
The operation input unit 8 may include a touch panel (not shown) provided integrally with the
次に、撮像処理について、図2〜図6を参照して説明する。
図2は、撮像処理に係る動作の一例を示すフローチャートである。
Next, imaging processing will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the imaging process.
以下に説明する撮像処理は、ユーザによる操作入力部8の所定操作に基づいて、メニュー画面(図示略)に表示された複数の動作モードの中からインパクト画像抽出モードが選択指示された場合に実行される処理である。 The imaging processing described below is executed when an impact image extraction mode is selected from a plurality of operation modes displayed on a menu screen (not shown) based on a predetermined operation of the operation input unit 8 by the user. Process.
<撮像処理>
図2のフローチャートに示すように、先ず、表示制御部7bは、例えば、クラブヘッドCやボールBの初期位置を合わせるための指標M(例えば、クラブヘッド形状やボール形状の枠表示等)をライブビュー画像Lに重畳させて表示パネル7aにOSD表示させる(ステップS1;図4参照)。この状態で、撮像者は、クラブヘッドCやボールBの初期位置が指標Mと重なるように、当該装置本体と被写体との距離や撮像部3の画角等を調整する。
そして、ユーザによる操作入力部8の所定操作に基づいて、当該装置本体と被写体との距離や撮像部3の画角等の調整の完了指示が入力されると、表示制御部7bは、指標MのOSD表示を停止する。
なお、指標MのOSD表示は、動作する人の利き手に応じて用意されており、図4は右利きの人用である。また、被写体の撮像は、当該装置本体を三脚に固定して行っても良いし、撮像者が手持ちで行っても良い。
<Imaging process>
As shown in the flowchart of FIG. 2, the
Then, when an instruction to complete adjustment of the distance between the apparatus main body and the subject, the angle of view of the
The OSD display of the index M is prepared according to the dominant hand of the person who operates, and FIG. 4 is for right-handed persons. Further, the subject may be imaged with the apparatus main body fixed to a tripod, or may be performed by the imager by hand.
次に、ユーザによる操作入力部8の所定操作に基づいて撮像が指示されると、撮像部3は、ゴルフのスイングの動作を所定の撮像フレームレート(例えば、1000fps等)で撮像して、画像データ生成部4は、複数のフレーム画像を所定の符号化方式で符号化した動画像の画像データを生成する(ステップS2)。
そして、画像データ生成部4は、生成された動画像の画像データをメモリ2に転送する。
Next, when imaging is instructed based on a predetermined operation of the operation input unit 8 by the user, the
Then, the image
続けて、画像処理部5は、動画像の画像データから所定数のフレーム画像を特定して抽出する画像特定処理(図3参照)を行う(ステップS3)。
なお、画像特定処理については、後述する。
Subsequently, the
The image specifying process will be described later.
そして、表示制御部7bは、画像特定部5fにより特定され抽出された所定数のフレーム画像に基づいて、動画像を表示パネル7aに表示させる(ステップS4)。
これにより、撮像処理を終了する。
Then, the
Thereby, the imaging process is terminated.
<画像特定処理>
以下に、画像特定処理について、図3を参照して詳細に説明する。
図3は、画像特定処理に係る動作の一例を示すフローチャートである。
<Image identification processing>
Hereinafter, the image specifying process will be described in detail with reference to FIG.
FIG. 3 is a flowchart illustrating an example of an operation related to the image specifying process.
図3に示すように、画像取得部5aは、ゴルフのスイングの動作が連続的に撮像された複数のフレーム画像からなる動画像の画像データをメモリ2から読み出して、画像特定処理の処理対象として取得する(ステップS11)。
次に、領域設定部5bは、動画像の画像データを構成する複数のフレーム画像の各々について、上下方向略中央部の左右方向両端寄りの位置に略矩形状の検出領域を二つ設定する(ステップS12)。ここで、右利きの人の場合、左側の検出領域A1がフレームイン側となり、右側の検出領域A2がフレームアウト側となる。
As shown in FIG. 3, the
Next, the region setting unit 5b sets two substantially rectangular detection regions at positions near both ends in the left-right direction at the substantially central portion in the vertical direction for each of the plurality of frame images constituting the image data of the moving image ( Step S12). Here, in the case of a right-handed person, the left detection area A1 is the frame-in side, and the right detection area A2 is the frame-out side.
続けて、復号部5cは、動画像の画像データを構成する最初のフレーム画像F1から所定数(例えば、n個;nは自然数)分のフレーム画像を復号して(ステップS13)、閾値設定部5dは、左右の検出領域A1、A2の各々について、隣合うフレーム画像との画素値(例えば、輝度値)の差分二乗和SSDを算出する(ステップS14)。そして、閾値設定部5dは、左右の検出領域A1、A2の各々について、算出された複数(例えば、n−1個)の差分二乗和SSDの代表値(例えば、平均値又は中央値等)をフレームイン及びフレームアウトの時点のフレーム番号の特定のための閾値として設定する(ステップS15)。
Subsequently, the
次に、復号部5cは、動画像の画像データを構成する全てのフレーム画像を最初のフレーム画像F1から順次復号していき(ステップS16)、フレーム番号特定部5eは、復号されたフレーム画像について、一つ前のフレーム画像とのフレームアウト側に対応する検出領域A2の画素値(例えば、輝度値)の差分二乗和SSDを評価値として逐次算出する(ステップS17)。続けて、フレーム番号特定部5eは、算出された評価値が閾値設定部5dにより設定されたフレームアウト側に対応する検出領域A2の閾値よりも大きいか否かを判定する(ステップS18)。
ここで、評価値が閾値よりも大きくないと判定されると(ステップS18;NO)、画像処理部5は、処理をステップS16に戻し、それ以降の各処理を実行する。つまり、フレームアウト側に対応する検出領域A2内で画素値の変動がないため、クラブヘッドCが検出領域A2を通過していないと考えられる。これに対して、フレームアウト側に対応する検出領域A2内で画素値の変動があると、検出領域A2にクラブヘッドCが存在すると考えられる。
Next, the
Here, if it is determined that the evaluation value is not greater than the threshold value (step S18; NO), the
ステップS18にて、評価値が閾値よりも大きいと判定されると(ステップS18;YES)、フレーム番号特定部5eは、当該評価値と閾値との相違度を算出して、相違度が最大の評価値に対応する時点のフレーム番号を特定し、当該フレーム番号に対応するフレーム画像を識別するためのフレーム番号を、当該フレーム画像のフレーム番号で更新して所定の格納手段(例えば、メモリ2等)に一時的に格納する(ステップS19)。
続けて、画像処理部5は、全てのフレーム画像について上記の各処理を行ったか否かを判定する(ステップS20)。
If it is determined in step S18 that the evaluation value is larger than the threshold value (step S18; YES), the frame
Subsequently, the
ステップS20にて、全てのフレーム画像について行っていないと判定されると(ステップS20;NO)、画像処理部5は、処理をステップS16に戻し、それ以降の各処理を実行する。
上記の各処理は、ステップS20にて、全てのフレーム画像について行ったと判定されるまで(ステップS20;YES)、繰り返し実行される。
これにより、左右方向に移動するクラブヘッドCとフレームアウト側の検出領域A2との重なり領域が最も大きくなることにより、評価値と閾値との相違度が最大となった時点のフレーム番号のフレーム画像F4(図6(b)参照)のフレーム番号が特定される。
If it is determined in step S20 that all frame images have not been performed (step S20; NO), the
Each of the above processes is repeatedly executed until it is determined in step S20 that the process has been performed for all frame images (step S20; YES).
As a result, the frame image of the frame number at the time when the difference between the evaluation value and the threshold value is maximized due to the largest overlap area between the club head C moving in the left-right direction and the detection area A2 on the frame-out side. The frame number of F4 (see FIG. 6B) is specified.
次に、復号部5cは、検出領域A2を用いて特定されたフレームアウトの時点のフレーム番号に対応するフレーム画像F4から所定数分のフレームを遡ったフレーム画像を復号の開始フレーム画像として指定する(ステップS21)。また、復号部5cは、指定された開始フレーム画像以降のフレーム画像であって、特定されたフレームアウトの時点のフレーム番号に対応するフレーム画像F4の一つ前のフレーム画像までを復号処理の対象画像として指定する。
そして、復号部5cは、指定された開始フレーム画像以降のフレーム画像を順次復号していき(ステップS22)、フレーム番号特定部5eは、復号されたフレーム画像について、一つ前のフレーム画像とのフレームイン側に対応する検出領域A1の画素値(例えば、輝度値)の差分二乗和SSDを評価値として逐次算出する(ステップS23)。続けて、フレーム番号特定部5eは、算出された評価値が閾値設定部5dにより設定されたフレームイン側に対応する検出領域A1の閾値よりも大きいか否かを判定する(ステップS24)。
ここで、評価値が閾値よりも大きくないと判定されると(ステップS24;NO)、画像処理部5は、処理をステップS22に戻し、それ以降の各処理を実行する。つまり、検出領域A1内で画素値の変動がないため、クラブヘッドCが検出領域A2を通過していないと考えられる。これに対して、検出領域A1内で画素値の変動があると、クラブヘッドCが存在すると考えられる。
Next, the
Then, the
Here, if it is determined that the evaluation value is not greater than the threshold value (step S24; NO), the
ステップS24にて、評価値が閾値よりも大きいと判定されると(ステップS24;YES)、フレーム番号特定部5eは、当該評価値と閾値との相違度を算出して、相違度が最大の評価値に対応するフレーム番号を特定し、フレームイン側のフレーム画像を識別するためのフレーム番号を、当該フレーム画像のフレーム番号で更新して所定の格納手段(例えば、メモリ2等)に一時的に格納する(ステップS25)。
続けて、画像処理部5は、処理対象の全てのフレーム画像について上記の各処理を行ったか否かを判定する(ステップS26)。
If it is determined in step S24 that the evaluation value is larger than the threshold value (step S24; YES), the frame
Subsequently, the
ステップS26にて、処理対象の全てのフレーム画像について行っていないと判定されると(ステップS26;NO)、画像処理部5は、処理をステップS22に戻し、それ以降の各処理を実行する。
上記の各処理は、ステップS26にて、処理対象の全てのフレーム画像について行ったと判定されるまで(ステップS26;YES)、繰り返し実行される。
これにより、左右方向に移動するクラブヘッドCと検出領域A1との重なり領域が最も大きくなることで評価値と閾値との相違度が最大となったフレーム画像F2(図6(c)参照)のフレーム番号が特定される。
If it is determined in step S26 that all the frame images to be processed have not been performed (step S26; NO), the
Each of the above processes is repeatedly executed until it is determined in step S26 that the process has been performed for all the frame images to be processed (step S26; YES).
As a result, the frame image F2 (see FIG. 6C) in which the degree of difference between the evaluation value and the threshold value is maximized due to the largest overlap area between the club head C moving in the left-right direction and the detection area A1. A frame number is specified.
次に、画像特定部5fは、特定されたフレームイン側及びフレームアウト側の各々のフレーム番号に基づいて、複数のフレーム画像から当該二つのフレーム番号間の所定数のフレーム画像を特定し、動画像として抽出する(ステップS27)。具体的には、例えば、画像特定部5fは、特定されたフレームイン側のフレーム番号よりも所定数前のフレーム番号のフレーム画像から、特定されたフレームアウト側のフレーム番号よりも所定数後ろのフレーム番号のフレーム画像までを動画像として抽出する。
ここで、フレームイン側のフレーム番号とフレームアウト側のフレーム番号との間隔、即ち、二つのフレーム画像F2、F4間の画像数が所定値よりも多かったり、対応する時間間隔が所定値よりも長い場合には、クラブヘッドC以外のものが検出領域を通過している虞もあるため、画像特定部5fは、フレーム画像数や時間間隔が所定値以内である場合に、動画像を抽出する構成であっても良い。
Next, the
Here, the interval between the frame number on the frame-in side and the frame number on the frame-out side, that is, the number of images between the two frame images F2 and F4 is larger than the predetermined value, or the corresponding time interval is larger than the predetermined value. If it is long, there is a possibility that something other than the club head C has passed through the detection region, so the
その後、画像記録部6は、画像特定部5fにより抽出された、所定の時点を基準とする所定数のフレーム画像からなる動画像の画像データを記録して(ステップS28)、当該画像特定処理を終了する。
Thereafter, the
以上のように、本実施形態の撮像装置100によれば、被写体の動作が連続的に撮像された複数のフレーム画像の各フレーム画像における複数の所定位置に検出領域を設定し、設定された複数の検出領域の各々における複数のフレーム画像間の画素値の変動に基づいて、複数のフレーム画像のうち被写体の動作における所定の時点に関連するフレーム画像を複数特定するので、複数のフレーム画像の各々の所定位置に設定された検出領域の画素値の変動を利用することで、特殊なデバイスを用いなくともユーザ所望のフレーム画像(例えば、フレーム画像F2〜F4)を特定することができる。
例えば、ゴルフのスイングの場合、実際にボールBを打たない素振りであっても、仮にボールBを打ったらインパクトの瞬間となるであろうフレーム画像を含むユーザ所望のフレーム画像を特定することができる。
As described above, according to the
For example, in the case of a golf swing, it is possible to specify a user-desired frame image including a frame image that will be the moment of impact if the ball B is hit, even if the ball B is not actually hit. it can.
また、複数の検出領域の各々に被写体が存在するフレーム画像をそれぞれ特定し、特定された各検出領域に被写体が存在するフレーム画像のフレーム番号が所定の順序であった場合に、所定の時点に関連するフレーム画像を複数特定するので、複数の検出領域内からの被写体の検出の順序を利用して、被写体の動作が所定の動作以外であるか否かを判断することができる。
例えば、ゴルフのスイングの動作の場合、一般的に、フレームイン側(例えば、右利きのスイングにおける左側)の検出領域A1からフレームアウト側(例えば、右利きのスイングにおける右側)の検出領域A2へとクラブヘッドCが動作する。これに対して、単にクラブヘッドCを左右にぶらぶら動かすと、先にフレームアウト側の検出領域A2にてクラブヘッドCが検出された後、フレームイン側の検出領域A1にてクラブヘッドCが検出される虞もあるが、複数の検出領域を用いてクラブヘッドCが検出される順序がフレームイン側の検出領域A1が先でフレームアウト側の検出領域A2が後である場合に、所定の時点に関連するフレーム画像を複数特定することで、単にクラブヘッドCを左右にぶらぶら動かす動作(例えば、ワッグル等)に対応するフレーム画像が誤って特定されることを抑制することができる。
Further, when a frame image in which a subject is present in each of the plurality of detection areas is specified, and the frame number of the frame image in which the subject is present in each specified detection area is in a predetermined order, Since a plurality of related frame images are specified, it is possible to determine whether or not the motion of the subject is other than a predetermined motion using the order of detection of the subject from the plurality of detection areas.
For example, in the case of a golf swing action, generally, the detection area A1 on the frame-in side (for example, the left side in a right-handed swing) moves to the detection area A2 on the frame-out side (for example, the right side in a right-handed swing). And the club head C operates. On the other hand, when the club head C is simply moved to the left and right, the club head C is detected in the detection area A1 on the frame-in side after the club head C is detected in the detection area A2 on the frame-out side. Although there is a possibility that the club head C is detected using a plurality of detection areas, the detection area A1 on the frame-in side is first, and the detection area A2 on the frame-out side is later. By specifying a plurality of frame images related to, it is possible to suppress erroneously specifying a frame image corresponding to an operation of simply moving the club head C to the left or right (for example, waggle or the like).
また、複数のフレーム画像のうち、所定期間内の所定数の画像における検出領域の画素値の代表値をフレームイン又はフレームアウトの時点のフレーム番号を特定するための閾値として設定し、当該閾値を基準としてフレームイン又はフレームアウトの時点のフレーム番号を特定して、各検出領域に被写体が存在するフレーム画像をそれぞれ特定することができる。特に、閾値よりも各検出領域の画素値が大きいと判定された場合に、検出領域によりフレームイン又はフレームアウトの時点のフレーム番号を適正に検出することができ、これにより、検出領域に被写体が存在するフレーム画像を所定の時点に関連するフレーム画像として特定することができる。
即ち、例えば、被写体が検出領域に存しない状態では、当該検出領域の画素値の変動が生じ難いのに対して、被写体が検出領域に存在する状態では、当該検出領域の画素値の変動が生じるため、当該検出領域の画素値の代表値を閾値とし、検出領域の画素値の変動を利用することで、フレームイン又はフレームアウトの時点のフレーム番号の検出を適正に行うことができる。
Further, among the plurality of frame images, a representative value of the pixel values of the detection region in a predetermined number of images within a predetermined period is set as a threshold for specifying the frame number at the time of frame-in or frame-out, and the threshold is set. A frame number at the time of frame-in or frame-out can be specified as a reference, and a frame image in which a subject exists in each detection region can be specified. In particular, when it is determined that the pixel value of each detection area is larger than the threshold value, the frame number at the time of frame-in or frame-out can be properly detected by the detection area. An existing frame image can be specified as a frame image related to a predetermined time point.
That is, for example, when the subject does not exist in the detection region, the pixel value of the detection region hardly changes, whereas when the subject exists in the detection region, the pixel value of the detection region changes. Therefore, the frame number at the time of frame-in or frame-out can be properly detected by using the representative value of the pixel value of the detection region as a threshold and using the variation of the pixel value of the detection region.
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態では、検出領域に設定された閾値を基準として、フレームイン及びフレームアウトの時点のフレーム番号を特定するようにしたが、一例であってこれに限られるものではなく、フレームイン及びフレームアウトの時点のフレーム番号の特定に際して閾値を設定するか否かは適宜任意に変更可能である。即ち、撮像装置100は、検出領域の画素値の変動に基づいて、フレームイン及びフレームアウトの時点のフレーム番号を特定可能な構成であれば、必ずしも閾値設定部5dを具備する必要はない。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, the frame number at the time of frame-in and frame-out is specified based on the threshold value set in the detection area. However, this is an example, and the present invention is not limited to this. Whether or not to set a threshold value when specifying the frame number at the time of frame-out can be arbitrarily changed as appropriate. That is, the
また、上記実施形態では、左右二つの検出領域A1、A2内によるフレームイン及びフレームアウトの時点のフレーム番号の特定処理は、当該被写体のフレームアウト側に対応する検出領域A2から先に行うようにしたが、一例であってこれに限られるものではなく、例えば、被写体のフレームイン側に対応する検出領域A1から先に行うようにしても良い。この場合、フレーム番号特定部5eは、検出領域A1によるフレームインの時点のフレーム番号の特定処理については、復号部5cにより復号された全てのフレーム画像を処理対象とする一方で、検出領域A2によるフレームアウトの時点のフレーム番号の特定処理については、フレームインの時点のフレーム番号を基準としても良い。
In the above embodiment, the frame number identification process at the time of frame-in and frame-out in the two left and right detection areas A1 and A2 is performed first from the detection area A2 corresponding to the frame-out side of the subject. However, this is only an example, and the present invention is not limited to this. For example, the detection may be performed first from the detection area A1 corresponding to the frame-in side of the subject. In this case, the frame
また、フレーム番号特定部5eは、評価値が閾値よりも大きいと判定されたフレーム番号のうち、当該閾値に対する相違度が最も大きいフレーム番号を特定するようにしたが、閾値も超えた評価値のうち最も大きい評価値に近接する評価値が複数あるときは、所定の処理を行うことでフレームイン及びフレームアウトの時点のフレーム番号を特定するようにしても良い。
つまり、フレームインの時点のフレーム番号の特定においては、最も大きい評価値に近接する複数の評価値のフレーム番号のうち、最も後のフレーム番号をフレームインの時点のフレーム番号として特定するような処理を加えることで、例えば、スイング動作におけるアドレス−トップ間、及びトップ−インパクト間での動作のうち、アドレス−トップ間の動作を所望のフレームインの時点のフレーム番号として誤って検出することを抑制できる。また、フレームアウトの時点のフレーム番号の特定においては、同様に、最も大きい評価値に近接する複数の評価値のフレーム番号のうち、最も後のフレーム番号をフレームアウトの時点のフレーム番号として特定するような処理を加えることで、インパクト以降にボールが検出領域を用いて検出された時点のフレーム番号を所望のフレームアウトの時点のフレーム番号として誤って検出することを抑制できる。
Further, the frame
That is, in specifying the frame number at the time of frame-in, a process of specifying the last frame number as the frame number at the time of frame-in among the frame numbers of a plurality of evaluation values adjacent to the largest evaluation value. For example, it is possible to suppress erroneous detection of an address-top operation as a frame number at a desired frame-in among address-top and top-impact operations in a swing operation. it can. Similarly, in specifying the frame number at the time of frame-out, the last frame number is specified as the frame number at the time of frame-out among the frame numbers of a plurality of evaluation values adjacent to the largest evaluation value. By adding such processing, it is possible to suppress erroneous detection of the frame number at the time when the ball is detected using the detection area after the impact as the frame number at the desired frame-out time.
さらに、上記実施形態では、画像特定部5fは、所定の時点(例えば、クラブヘッドCによりボールBを打った瞬間のインパクト等)に関連するフレーム画像F2、F4の識別情報(例えば、フレームイン及びフレームアウトの時点のフレーム番号)を特定した後、当該識別情報に対応するフレーム画像F2、F4を特定するようにしたが、一例であってこれに限られるものではなく、必ずしもフレーム画像F2、F4を特定する必要はない。また、画像特定部5fは、例えば、フレーム番号特定部5eによる特定結果に基づいて、直接、動画像の画像データを構成する複数のフレーム画像から被写体の動作における所定の時点に関連するフレーム画像を特定しても良い。
Furthermore, in the above-described embodiment, the
さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。さらに、画像処理装置として、撮像装置100を例示したが、これに限られるものではない。
Furthermore, the configuration of the
加えて、上記実施形態にあっては、取得手段、領域設定手段、特定手段としての機能を、中央制御部1の制御下にて、画像取得部5a、領域設定部5b、画像特定部5fが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、領域設定処理ルーチン、特定処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、被写体の動作が連続的に撮像された複数の画像を取得する手段として機能させるようにしても良い。また、領域設定処理ルーチンにより中央制御部1のCPUを、取得された複数の画像の各々における複数の所定位置に領域を設定する手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部1のCPUを、設定された複数の領域の各々における複数の画像間の画素値の変動に基づいて、複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions as the acquisition unit, the region setting unit, and the specifying unit are controlled by the
That is, a program memory (not shown) that stores a program stores a program including an acquisition processing routine, an area setting processing routine, and a specific processing routine. Then, the CPU of the central control unit 1 may function as a means for acquiring a plurality of images obtained by continuously capturing the motion of the subject by an acquisition process routine. Further, the CPU of the central control unit 1 may function as means for setting an area at a plurality of predetermined positions in each of a plurality of acquired images by an area setting processing routine. In addition, the CPU of the central control unit 1 at a predetermined time in the operation of the subject among the plurality of images based on the variation of the pixel value between the plurality of images in each of the plurality of set areas by the specific processing routine. You may make it function as a means to specify two or more related images.
同様に、閾値設定手段、判定手段、算出手段、抽出手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。 Similarly, the threshold setting unit, the determination unit, the calculation unit, and the extraction unit may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
被写体の動作が連続的に撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された複数の画像の各々における複数の所定位置に領域を設定する領域設定手段と、
前記領域設定手段により設定された複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記特定手段は、更に、
前記複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、当該複数の領域の各々に被写体が存在する画像をそれぞれ特定し、特定された各領域に被写体が存在する画像のフレーム番号が所定の順序であった場合に、前記所定の時点に関連する画像を複数特定することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記複数の画像のうち、所定期間内の所定数の画像における前記領域の画素値の代表値を被写体の検出用の閾値として設定する閾値設定手段を更に備え、
前記特定手段は、前記閾値設定手段により設定された閾値を基準として、前記各領域に被写体が存在する画像をそれぞれ特定することを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記各領域の画素値が前記閾値設定手段により設定された閾値よりも大きいか否かを判定する判定手段を更に備え、
前記特定手段は、前記判定手段により前記各領域の画素値が前記閾値よりも大きいと判定されると、当該領域に被写体が存在する画像を前記所定の時点に関連する画像として特定することを特徴とする請求項3に記載の画像処理装置。
<請求項5>
前記取得手段により取得された複数の画像から所定数の画像における前記領域の画素値の平均値又は中央値を算出する算出手段を更に備え、
前記閾値設定手段は、前記算出手段により算出された平均値又は中央値を前記代表値として設定することを特徴とする請求項3又は4に記載の画像処理装置。
<請求項6>
前記特定手段により特定された所定の時点に関連する複数の画像を動画像として抽出する抽出手段を更に備えたことを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項7>
画像処理装置を用いた画像処理方法であって、
被写体の動作が連続的に撮像された複数の画像を取得する処理と、
取得された複数の画像の各々における複数の所定位置に領域を設定する処理と、
設定された前記複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する処理と、
を含むことを特徴とする画像処理方法。
<請求項8>
画像処理装置のコンピュータを、
被写体の動作が連続的に撮像された複数の画像を取得する取得手段、
前記取得手段により取得された複数の画像の各々における複数の所定位置に領域を設定する領域設定手段、
前記領域設定手段により設定された複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Acquisition means for acquiring a plurality of images in which the motion of the subject is continuously captured;
Area setting means for setting areas at a plurality of predetermined positions in each of the plurality of images acquired by the acquisition means;
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set by the region setting means, a plurality of images related to a predetermined time point in the operation of the subject are specified from the plurality of images. Specific means,
An image processing apparatus comprising:
<Claim 2>
The specifying means further includes:
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions, an image in which a subject exists in each of the plurality of regions is specified, and an image in which the subject exists in each specified region The image processing apparatus according to claim 1, wherein a plurality of images related to the predetermined time point are specified when the frame numbers are in a predetermined order.
<Claim 3>
A threshold setting unit configured to set a representative value of pixel values of the region in a predetermined number of images within a predetermined period of the plurality of images as a threshold for detecting a subject;
The image processing apparatus according to
<Claim 4>
Determination means for determining whether or not the pixel value of each region is larger than a threshold set by the threshold setting means;
When the determination unit determines that the pixel value of each region is larger than the threshold value, the specifying unit specifies an image in which a subject is present in the region as an image related to the predetermined time point. The image processing apparatus according to
<Claim 5>
A calculation unit that calculates an average value or a median value of the pixel values of the region in a predetermined number of images from the plurality of images acquired by the acquisition unit;
The image processing apparatus according to
<Claim 6>
6. The image processing apparatus according to claim 1, further comprising an extraction unit that extracts a plurality of images related to a predetermined time point specified by the specifying unit as a moving image.
<Claim 7>
An image processing method using an image processing apparatus,
Processing to acquire a plurality of images in which the motion of the subject is continuously captured;
A process of setting a region at a plurality of predetermined positions in each of a plurality of acquired images;
A process of specifying a plurality of images related to a predetermined time point in the operation of the subject among the plurality of images based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set;
An image processing method comprising:
<Claim 8>
The computer of the image processing device
Acquisition means for acquiring a plurality of images obtained by continuously capturing the motion of the subject;
Area setting means for setting areas at a plurality of predetermined positions in each of the plurality of images acquired by the acquisition means;
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set by the region setting means, a plurality of images related to a predetermined time point in the operation of the subject are specified from the plurality of images. Specific means,
A program characterized by functioning as
100 撮像装置
1 中央制御部
5a 画像取得部
5b 領域設定部
5d 閾値設定部
5e フレーム番号特定部
5f 画像特定部
A1、A2 検出領域
DESCRIPTION OF
Claims (13)
前記取得手段により取得された複数の画像の各々に、前記画像の全領域よりも範囲が小さく、且つ重畳しない複数の部分領域を設定する領域設定手段と、
前記領域設定手段により設定された複数の部分領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段と、
を備えたことを特徴とする画像処理装置。 Acquisition means for acquiring a plurality of images in which the motion of the subject is continuously captured;
A region setting unit that sets a plurality of partial regions that are smaller than the entire region of the image and are not superimposed on each of the plurality of images acquired by the acquisition unit;
Based on fluctuations in pixel values between the plurality of images in each of the plurality of partial regions set by the region setting means, a plurality of images related to a predetermined time point in the movement of the subject are identified among the plurality of images. Specific means to
An image processing apparatus comprising:
前記複数の部分領域の各々における前記複数の画像間の画素値の変動に基づいて、当該複数の部分領域の各々に被写体が存在する画像をそれぞれ特定し、特定された各部分領域に被写体が存在する画像のフレーム番号が所定の順序であった場合に、前記所定の時点に関連する画像を複数特定することを特徴とする請求項1に記載の画像処理装置。 The specifying means further includes:
Based on the pixel value variation between the plurality of images in each of the plurality of partial areas, an image in which the subject is present in each of the plurality of partial areas is identified, and the subject is present in each identified partial area. The image processing apparatus according to claim 1, wherein a plurality of images related to the predetermined time point are specified when the frame numbers of the images to be processed are in a predetermined order.
前記特定手段は、前記閾値設定手段により設定された閾値を基準として、前記各部分領域に被写体が存在する画像をそれぞれ特定することを特徴とする請求項2に記載の画像処理装置。 A threshold setting unit configured to set a representative value of pixel values of the partial area in a predetermined number of images within a predetermined period of the plurality of images as a threshold for detecting a subject;
The image processing apparatus according to claim 2, wherein the specifying unit specifies an image in which a subject is present in each of the partial areas based on the threshold set by the threshold setting unit.
前記特定手段は、前記判定手段により前記各部分領域の画素値が前記閾値よりも大きいと判定されると、当該部分領域に被写体が存在する画像を前記所定の時点に関連する画像として特定することを特徴とする請求項3に記載の画像処理装置。 Determination means for determining whether or not the pixel value of each partial region is larger than a threshold set by the threshold setting means;
When the determination unit determines that the pixel value of each partial region is larger than the threshold value, the specifying unit specifies an image in which a subject exists in the partial region as an image related to the predetermined time point. The image processing apparatus according to claim 3.
前記閾値設定手段は、前記算出手段により算出された平均値又は中央値を前記代表値として設定することを特徴とする請求項3又は4に記載の画像処理装置。 A calculation unit that calculates an average value or a median value of the pixel values of the partial areas in a predetermined number of images from the plurality of images acquired by the acquisition unit;
The image processing apparatus according to claim 3, wherein the threshold value setting unit sets an average value or a median value calculated by the calculation unit as the representative value.
前記抽出手段は、前記特定手段により特定された各画像に対応する範囲の複数の画像を前記動画像として抽出することを特徴とする請求項6に記載の画像処理装置。 The specifying unit specifies an image associated with a start time and an end time of the moving image extraction based on the motion of the subject among the plurality of images,
The image processing apparatus according to claim 6, wherein the extracting unit extracts a plurality of images in a range corresponding to each image specified by the specifying unit as the moving image.
被写体の動作が連続的に撮像された複数の画像を取得する処理と、
取得された複数の画像の各々に、前記画像の全領域よりも範囲が小さく、且つ重畳しない複数の部分領域を設定する処理と、
設定された前記複数の部分領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する処理と、
を含むことを特徴とする画像処理方法。 An image processing method using an image processing apparatus,
Processing to acquire a plurality of images in which the motion of the subject is continuously captured;
To each of the obtained plurality of images, the processing range than the entire area of the image is small, that and setting a plurality of partial areas which does not overlap,
A process of specifying a plurality of images related to a predetermined time point in the operation of the subject among the plurality of images based on fluctuations in pixel values between the plurality of images in each of the set partial areas;
An image processing method comprising:
被写体の動作が連続的に撮像された複数の画像を取得する取得手段、
前記取得手段により取得された複数の画像の各々に、前記画像の全領域よりも範囲が小さく、且つ重畳しない複数の部分領域を設定する領域設定手段、
前記領域設定手段により設定された複数の部分領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段、
として機能させることを特徴とするプログラム。 The computer of the image processing device
Acquisition means for acquiring a plurality of images obtained by continuously capturing the motion of the subject;
Wherein each acquisition unit plurality of images acquired by a smaller range than the entire area of the image, and area setting means for setting a plurality of partial areas which does not overlap,
Based on fluctuations in pixel values between the plurality of images in each of the plurality of partial regions set by the region setting means, a plurality of images related to a predetermined time point in the movement of the subject are identified among the plurality of images. Specific means to
A program characterized by functioning as
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013203332A JP5935779B2 (en) | 2013-09-30 | 2013-09-30 | Image processing apparatus, image processing method, and program |
KR1020140126242A KR101645806B1 (en) | 2013-09-30 | 2014-09-22 | Image processing apparatus, image processing method and computer readable recording medium having program thereof |
US14/500,513 US9367746B2 (en) | 2013-09-30 | 2014-09-29 | Image processing apparatus for specifying an image relating to a predetermined moment from among a plurality of images |
CN201410515141.7A CN104519278B (en) | 2013-09-30 | 2014-09-29 | Image processing apparatus, image processing method and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013203332A JP5935779B2 (en) | 2013-09-30 | 2013-09-30 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015069432A JP2015069432A (en) | 2015-04-13 |
JP2015069432A5 JP2015069432A5 (en) | 2015-07-09 |
JP5935779B2 true JP5935779B2 (en) | 2016-06-15 |
Family
ID=52740234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013203332A Active JP5935779B2 (en) | 2013-09-30 | 2013-09-30 | Image processing apparatus, image processing method, and program |
Country Status (4)
Country | Link |
---|---|
US (1) | US9367746B2 (en) |
JP (1) | JP5935779B2 (en) |
KR (1) | KR101645806B1 (en) |
CN (1) | CN104519278B (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104247433B (en) | 2012-04-06 | 2018-02-06 | 索尼公司 | Decoding apparatus and coding/decoding method and code device and coding method |
JP6676873B2 (en) | 2014-09-22 | 2020-04-08 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP6682874B2 (en) * | 2016-01-22 | 2020-04-15 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
US11979340B2 (en) | 2017-02-12 | 2024-05-07 | Mellanox Technologies, Ltd. | Direct data placement |
US10516710B2 (en) | 2017-02-12 | 2019-12-24 | Mellanox Technologies, Ltd. | Direct packet placement |
US10210125B2 (en) | 2017-03-16 | 2019-02-19 | Mellanox Technologies, Ltd. | Receive queue with stride-based data scattering |
CN107040787B (en) * | 2017-03-30 | 2019-08-02 | 宁波大学 | A kind of 3D-HEVC inter-frame information hidden method of view-based access control model perception |
CN107067424B (en) * | 2017-04-18 | 2019-07-12 | 北京动视科技有限公司 | A kind of batting image generating method and system |
US11252464B2 (en) * | 2017-06-14 | 2022-02-15 | Mellanox Technologies, Ltd. | Regrouping of video data in host memory |
US12058309B2 (en) | 2018-07-08 | 2024-08-06 | Mellanox Technologies, Ltd. | Application accelerator |
US20180367589A1 (en) * | 2017-06-14 | 2018-12-20 | Mellanox Technologies, Ltd. | Regrouping of video data by a network interface controller |
US10367750B2 (en) | 2017-06-15 | 2019-07-30 | Mellanox Technologies, Ltd. | Transmission and reception of raw video using scalable frame rate |
JP7204504B2 (en) * | 2019-01-29 | 2023-01-16 | 株式会社Subaru | Object confirmation device |
CN110062170B (en) * | 2019-05-29 | 2021-12-24 | 维沃移动通信有限公司 | Image processing method, image processing device, mobile terminal and storage medium |
US20230132193A1 (en) * | 2020-03-30 | 2023-04-27 | Sony Semiconductor Solutions Corporation | Image capturing device, image capturing system, and image capturing method |
US12135662B2 (en) | 2022-07-06 | 2024-11-05 | Mellanox Technologies, Ltd. | Patterned direct memory access (DMA) |
US12137141B2 (en) | 2022-07-06 | 2024-11-05 | Mellanox Technologies, Ltd. | Patterned remote direct memory access (RDMA) |
US12216575B2 (en) | 2022-07-06 | 2025-02-04 | Mellanox Technologies, Ltd | Patterned memory-network data transfer |
US12160661B2 (en) * | 2022-09-30 | 2024-12-03 | Zebra Technologies Corporation | Systems and methods for operating illumination assemblies in a multi-imager environment |
JP7607894B2 (en) | 2022-12-28 | 2025-01-06 | Mirai-wo合同会社 | Rotational motion evaluation method, system, and program |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6417853B1 (en) * | 1998-02-05 | 2002-07-09 | Pinnacle Systems, Inc. | Region based moving image editing system and method |
KR20010016275A (en) * | 2000-11-29 | 2001-03-05 | 김형모 | Dynamic fusion detector algorithm |
KR100696728B1 (en) * | 2003-06-09 | 2007-03-20 | 가부시키가이샤 히다치 고쿠사이 덴키 | Surveillance information transmission device and surveillance information transmission method |
JP4612803B2 (en) * | 2003-10-30 | 2011-01-12 | キヤノン株式会社 | Image motion detection device, image motion detection method, program, and recording medium |
JP4482795B2 (en) * | 2004-03-05 | 2010-06-16 | ソニー株式会社 | Image processing apparatus, moving object tracking method, moving object tracking program, monitoring apparatus, and game apparatus |
CN101052996B (en) * | 2005-08-12 | 2011-06-15 | 索尼计算机娱乐公司 | Face image display, face image display method |
KR20090006068A (en) * | 2006-02-13 | 2009-01-14 | 스넬 앤드 윌콕스 리미티드 | How to modify video sequence and its device |
JP2009005152A (en) * | 2007-06-22 | 2009-01-08 | Olympus Corp | Image processing device |
JP2009200713A (en) * | 2008-02-20 | 2009-09-03 | Sony Corp | Image processing device, image processing method, and program |
JP4534172B2 (en) * | 2008-04-03 | 2010-09-01 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5205337B2 (en) * | 2009-06-18 | 2013-06-05 | 富士フイルム株式会社 | Target tracking device, image tracking device, operation control method thereof, and digital camera |
JP5515490B2 (en) | 2009-07-30 | 2014-06-11 | 株式会社セガ | Golf practice equipment |
JP2011109397A (en) * | 2009-11-17 | 2011-06-02 | Sony Corp | Image transmission method, image reception method, image transmission device, image reception device, and image transmission system |
KR101183781B1 (en) * | 2009-12-22 | 2012-09-17 | 삼성전자주식회사 | Method and apparatus for object detecting/tracking using real time motion estimation of camera |
JP5375744B2 (en) * | 2010-05-31 | 2013-12-25 | カシオ計算機株式会社 | Movie playback device, movie playback method and program |
JP5750864B2 (en) * | 2010-10-27 | 2015-07-22 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
WO2013047066A1 (en) * | 2011-09-30 | 2013-04-04 | 富士フイルム株式会社 | Tracking frame initial position setting device and operation control method for same |
JP5762250B2 (en) * | 2011-11-07 | 2015-08-12 | 三菱電機株式会社 | Image signal processing apparatus and image signal processing method |
JP5917914B2 (en) * | 2011-12-29 | 2016-05-18 | ダンロップスポーツ株式会社 | Golf swing diagnosis method |
JP5776903B2 (en) * | 2012-03-02 | 2015-09-09 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP6071616B2 (en) * | 2012-03-22 | 2017-02-01 | キヤノン株式会社 | Imaging apparatus, control method therefor, program, and storage medium |
-
2013
- 2013-09-30 JP JP2013203332A patent/JP5935779B2/en active Active
-
2014
- 2014-09-22 KR KR1020140126242A patent/KR101645806B1/en active IP Right Grant
- 2014-09-29 US US14/500,513 patent/US9367746B2/en active Active
- 2014-09-29 CN CN201410515141.7A patent/CN104519278B/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN104519278A (en) | 2015-04-15 |
KR101645806B1 (en) | 2016-08-04 |
JP2015069432A (en) | 2015-04-13 |
KR20150037549A (en) | 2015-04-08 |
US20150092995A1 (en) | 2015-04-02 |
CN104519278B (en) | 2017-11-28 |
US9367746B2 (en) | 2016-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5935779B2 (en) | Image processing apparatus, image processing method, and program | |
JP5331128B2 (en) | Imaging device | |
JP6024728B2 (en) | Detection apparatus, detection method, and program | |
US10275917B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
JP5625995B2 (en) | Subject tracking device, subject tracking method and program | |
US20170048466A1 (en) | Image processing device that generates a composite image | |
CN107087103B (en) | Image pickup apparatus, image pickup method, and computer-readable storage medium | |
JP6500535B2 (en) | Image processing apparatus, image processing method and program | |
JP2018093376A (en) | Imaging apparatus, imaging method and program | |
CN101854475A (en) | Camera device, image processing method, and recording medium | |
US10401174B2 (en) | Posture estimating apparatus for estimating posture, posture estimating method and recording medium | |
JP6693071B2 (en) | Imaging device, imaging control method, and program | |
JP6024135B2 (en) | Subject tracking display control device, subject tracking display control method and program | |
JP6322964B2 (en) | Imaging apparatus, imaging control method, and program | |
JP5703771B2 (en) | Imaging assistance device, imaging assistance method, and program | |
JP6682874B2 (en) | Image processing apparatus, image processing method, and program | |
JP6597262B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009098850A (en) | Arithmetic device and program of same | |
JP2020115679A (en) | Object detection device, detection control method, and program | |
JP6314438B2 (en) | Display control apparatus, display control method, and program | |
JP6234147B2 (en) | Image recording apparatus and image recording method | |
JP2013242768A (en) | Information processing apparatus, control method and program | |
JP2017198872A (en) | Imaging apparatus, imaging control method, and program | |
JP2017200077A (en) | Output device, output processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150526 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5935779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |