JP3947973B2 - 画像処理装置および方法、プログラム、並びに記録媒体 - Google Patents
画像処理装置および方法、プログラム、並びに記録媒体 Download PDFInfo
- Publication number
- JP3947973B2 JP3947973B2 JP2003037325A JP2003037325A JP3947973B2 JP 3947973 B2 JP3947973 B2 JP 3947973B2 JP 2003037325 A JP2003037325 A JP 2003037325A JP 2003037325 A JP2003037325 A JP 2003037325A JP 3947973 B2 JP3947973 B2 JP 3947973B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- contour
- input
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 104
- 238000000034 method Methods 0.000 title claims description 64
- 238000000605 extraction Methods 0.000 claims description 71
- 238000004364 calculation method Methods 0.000 claims description 41
- 239000000284 extract Substances 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 28
- 238000011156 evaluation Methods 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 15
- 238000001514 detection method Methods 0.000 description 12
- 238000002474 experimental method Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 5
- 241000270295 Serpentes Species 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99933—Query processing, i.e. searching
- Y10S707/99936—Pattern matching access
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99937—Sorting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99938—Concurrency, e.g. lock management in shared database
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99939—Privileged access
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、画像処理装置および方法、プログラム、並びに記録媒体に関し、特に、ユーザが所望のオブジェクトの輪郭を抽出することができるようにする画像処理装置および方法、プログラム、並びに記録媒体に関する。
【0002】
【従来の技術】
動画像データの中の最初のフレームにおいて、ユーザが所望のオブジェクトを指定して輪郭を入力することにより、その後の連続するフレームにおいてオブジェクトの輪郭を抽出し、所望のオブジェクトを切り出す技術が開発されている(例えば、特許文献1参照)。
【0003】
図1は、あるフレーム0からフレーム40までの連続するフレームにより構成される動画像データの表示例を示す図である。図1Aはフレーム0の画像を示し、であり三角形のオブジェクト1が表示されている。図1Bはフレーム10の画像を示し、オブジェクト1は、フレーム0の状態より若干右方向に移動している。図1C、図1D、および図1Eは、それぞれフレーム20、フレーム30、フレーム40の画像を示し、オブジェクト1はその位置をより右方向に順次移動している。
【0004】
図1Aにおいて、ユーザは、画像処理装置に表示された三角形のオブジェクト1の輪郭の全体を、図示せぬペンでなぞることにより線2で指定する。そして、画像処理装置は、ユーザが線2で指定した輪郭に基づいて、その後の連続するフレームにおいて、オブジェクトをトラッキングし、図1B乃至図1Eの太線で示されるように、各フレームの画像におけるオブジェクトの輪郭を検出する。
【0005】
また、図1Eにおいて、ユーザが、オブジェクト1の輪郭を指定し、画像処理装置は、その前の連続するフレーム図1D、図1C、図1B、図1Aの順にオブジェクトをトラッキングし、輪郭を検出するという方法も考えられる。
【0006】
【特許文献1】
特開平10−269369号公報
【0007】
【発明が解決しようとする課題】
しかしながら、従来の技術では、図1B乃至図1Dに線2aで示されるように、オブジェクトをトラッキングする過程において、オブジェクトの輪郭を誤って検出してしまうおそれがあるという課題があった。
【0008】
本発明はこのような状況に鑑みてなされたものであり、オブジェクトの輪郭をより正確に検出できるようにするものである。
【0009】
【課題を解決するための手段】
本発明の画像処理装置は、指定された画像の画像データを取得する画像取得手段と、画像取得手段により取得された画像データに基づいて、画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで画像の中のオブジェクトの背景に対する動きを演算する動き演算手段と、動き演算手段により演算された動きに基づいて、画像においてオブジェクトの輪郭を抽出する抽出領域を判定する領域判定手段と、所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像を、画像の中から抽出すべきオブジェクトを指定するフレームの画像として提示する画像提示手段と、領域判定手段により判定された抽出領域に入力された輪郭を受け付ける輪郭入力受付手段と、輪郭入力受付手段により入力が受け付けられたオブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、輪郭が入力されていない複数のフレームの画像のオブジェクトを抽出するオブジェクト抽出手段と、動き演算手段により演算された、時間的に前のフレームにおける隣接する特徴点間の距離と、時間的に後のフレームにおける隣接する特徴点間の距離を比較する比較手段とを備え、領域判定手段は、比較手段による比較の結果に基づいて、画像の背景のうちの、オブジェクトにより順次カバーされる第1の領域と、オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域を設定し、オブジェクト抽出手段は、第 1 の領域においては、第1のフレームで輪郭入力受付手段によりオブジェクトの輪郭の入力を受け付け、第1のフレームより時間的に後の複数のフレームにおいてオブジェクトを抽出し、第2の領域においては、第2のフレームで輪郭入力受付手段によるオブジェクトの輪郭の入力を受け付け、第2のフレームより時間的に前の複数のフレームにおいてオブジェクトを抽出することを特徴とする。
【0011】
前記画像提示手段は、領域判定手段により判定された抽出領域を表示することができる。
【0016】
前記オブジェクト抽出手段により抽出されたオブジェクトを表示するオブジェクト表示手段をさらに備えるようにすることができる。
【0017】
本発明の画像処理方法は、指定された画像の画像データを取得する画像取得ステップと、画像取得ステップの処理により取得された画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで画像の中のオブジェクトの背景に対する動きを演算する動き演算ステップと、動き演算ステップの処理により演算された動きに基づいて、画像においてオブジェクトの輪郭を抽出する抽出領域を判定する領域判定ステップと、所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像を、画像の中から抽出すべきオブジェクトを指定するフレームの画像として提示する画像提示ステップと、領域判定ステップの処理により判定された抽出領域に入力された輪郭を受け付ける輪郭入力受付ステップと、輪郭入力受付ステップの処理により入力が受け付けられたオブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、輪郭が入力されていない複数のフレームの画像のオブジェクトを抽出するオブジェクト抽出手段と、動き演算ステップの処理により演算された、時間的に前のフレームにおける隣接する特徴点間の距離と、時間的に後のフレームにおける隣接する特徴点間の距離を比較する比較ステップと含み、領域判定ステップの処理では、比較ステップの処理による比較の結果に基づいて、画像の背景のうちの、オブジェクトにより順次カバーされる第1の領域と、オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域を設定し、オブジェクト抽出ステップの処理では、第 1 の領域においては、第1のフレームで輪郭入力受付ステップの処理によるオブジェクトの輪郭の入力を受け付け、第1のフレームより時間的に後の複数のフレームにおいてオブジェクトを抽出し、第2の領域においては、第2のフレームで輪郭入力受付ステップの処理によるオブジェクトの輪郭の入力を受け付け、第2のフレームより時間的に前の複数のフレームにおいてオブジェクトを抽出することを特徴とする。
【0018】
本発明のプログラムは、指定された画像の画像データの取得を制御する画像取得制御ステップと、画像取得制御ステップの処理により取得された画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで画像の中のオブジェクトの背景に対する動きの演算を制御する動き演算制御ステップと、動き演算制御ステップの処理により演算された動きに基づいて、画像においてオブジェクトの輪郭を抽出する抽出領域の判定を制御する領域判定制御ステップと、所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像の、画像の中から抽出すべきオブジェクトを指定するフレームの画像としての提示を制御する画像提示制御ステップと、領域判定ステップの処理により判定された抽出領域に入力された輪郭の受け付けを制御する輪郭入力受付制御ステップと、輪郭入力受付制御ステップの処理により入力が受け付けられたオブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、輪郭が入力されていない複数のフレームの画像のオブジェクトの抽出を制御するオブジェクト抽出制御ステップと、動き演算制御ステップの処理により演算された、時間的に前のフレームにおける隣接する特徴点間の距離と、時間的に後のフレームにおける隣接する特徴点間の距離の比較を制御する比較制御ステップとをコンピュータに実行させ、領域判定制御ステップの処理では、比較制御ステップの処理による比較の結果に基づいて、画像の背景のうちの、オブジェクトにより順次カバーされる第1の領域と、オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域が設定され、オブジェクト抽出制御ステップの処理では、第 1 の領域においては、第1のフレームで輪郭入力受付ステップの処理によるオブジェクトの輪郭の入力を受け付け、第1のフレームより時間的に後の複数のフレームにおいてオブジェクトが抽出され、第2の領域においては、第2のフレームで輪郭入力受付ステップの処理によるオブジェクトの輪郭の入力を受け付け、第2のフレームより時間的に前の複数のフレームにおいてオブジェクトが抽出されることを特徴とする。
【0019】
本発明の記録媒体は、指定された画像の画像データの取得を制御する画像取得制御ステップと、画像取得制御ステップの処理により取得された画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで画像の中のオブジェクトの背景に対する動きの演算を制御する動き演算制御ステップと、動き演算制御ステップの処理により演算された動きに基づいて、画像においてオブジェクトの輪郭を抽出する抽出領域の判定を制御する領域判定制御ステップと、所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像の、画像の中から抽出すべきオブジェクトを指定するフレームの画像としての提示を制御する画像提示制御ステップと、領域判定ステップの処理により判定された抽出領域に入力された輪郭の受け付けを制御する輪郭入力受付制御ステップと、輪郭入力受付制御ステップの処理により入力が受け付けられたオブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、輪郭が入力されていない複数のフレームの画像のオブジェクトの抽出を制御するオブジェクト抽出制御ステップと、動き演算制御ステップの処理により演算された、時間的に前のフレームにおける隣接する特徴点間の距離と、時間的に後のフレームにおける隣接する特徴点間の距離の比較を制御する比較制御ステップとをコンピュータに実行させ、領域判定制御ステップの処理では、比較制御ステップの処理による比較の結果に基づいて、画像の背景のうちの、オブジェクトにより順次カバーされる第1の領域と、オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域が設定され、オブジェクト抽出制御ステップの処理では、第 1 の領域においては、第1のフレームで輪郭入力受付ステップの処理によるオブジェクトの輪郭の入力を受け付け、第1のフレームより時間的に後の複数のフレームにおいてオブジェクトが抽出され、第2の領域においては、第2のフレームで輪郭入力受付ステップの処理によるオブジェクトの輪郭の入力を受け付け、第2のフレームより時間的に前の複数のフレームにおいてオブジェクトが抽出されるプログラムが記録されることを特徴とする。
【0020】
本発明の画像処理装置および方法、並びにプログラムにおいては、指定された画像の画像データを取得する画像取得ステップと、画像取得ステップの処理により取得された画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで画像の中のオブジェクトの背景に対する動きを演算する動き演算ステップと、動き演算ステップの処理により演算された動きに基づいて、画像においてオブジェクトの輪郭を抽出する抽出領域を判定する領域判定ステップと、所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像を、画像の中から抽出すべきオブジェクトを指定するフレームの画像として提示する画像提示ステップと、領域判定ステップの処理により判定された抽出領域に入力された輪郭を受け付ける輪郭入力受付ステップと、輪郭入力受付ステップの処理により入力が受け付けられたオブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、輪郭が入力されていない複数のフレームの画像のオブジェクトを抽出するオブジェクト抽出手段と、動き演算ステップの処理により演算された、時間的に前のフレームにおける隣接する特徴点間の距離と、時間的に後のフレームにおける隣接する特徴点間の距離を比較する比較ステップと含み、領域判定ステップの処理では、比較ステップの処理による比較の結果に基づいて、画像の背景のうちの、オブジェクトにより順次カバーされる第1の領域と、オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域を設定し、オブジェクト抽出ステップの処理では、第 1 の領域においては、第1のフレームで輪郭入力受付ステップの処理によるオブジェクトの輪郭の入力を受け付け、第1のフレームより時間的に後の複数のフレームにおいてオブジェクトを抽出し、第2の領域においては、第2のフレームで輪郭入力受付ステップの処理によるオブジェクトの輪郭の入力を受け付け、第2のフレームより時間的に前の複数のフレームにおいてオブジェクトを抽出することを特徴とする。
【0021】
【発明の実施の形態】
図2は、本発明を適用した画像処理装置の構成例を表すブロック図である。この構成例においては、画像処理装置51に、画像を表示する表示部71、使用者の操作入力を受け付ける入力部72が設けられている。使用者は入力部72に配置された図示せぬ操作ボタンを操作することにより、画像データの再生の開始、または後述するオブジェクト抽出処理の開始などを指示する。また、入力部72には、タッチペン72−1が設けられており、使用者は、表示部71に表示された画像の中の所望のオブジェクトの輪郭を、タッチペン72−1でトレースすることにより、オブジェクトの輪郭の入力を行う。
【0022】
また、画像処理装置51には、画像データを蓄積する画像データベース73、画像の動きを解析する動き解析部75、使用者が入力したオブジェクトの輪郭に基づいて、オブジェクトを抽出するオブジェクト抽出部76が設けられている。さらに、オブジェクト抽出部76により抽出されたオブジェクトのデータを記録するオブジェクトデータベース74が設けられており、上述した各部は、バス78により相互に接続され、各部を制御する制御部77により制御される。
【0023】
図3は、動き解析部75の内部の構成例を示すブロック図である。動き解析部75には、フレーム毎に画像の中の所定の領域における隣接する特徴点間の距離を演算する動き演算部81、動き演算部の処理結果に基づいて、画像の中のカバードバックグラウンド領域またはアンカバードバックグラウンド領域を判定する領域判定部82が設けられている。なお、カバードバックグラウンド領域とアンカバードバックグラウンド領域については後述する。
【0024】
また、使用者が輪郭を入力すべきフレームを検出し、そのフレームの画像において使用者が輪郭を入力すべき部分の表示を制御するフレーム検出部83、動き演算部81、領域判定部82、およびフレーム検出部83の処理結果を記憶する記憶部84、およびバス78との接続を制御するインタフェース部85が設けられており、動き解析部75の中の各部は、バス86を介して相互に接続されている。
【0025】
次に、図4のフローチャートを参照して、オブジェクト抽出処理について説明する。
【0026】
ステップS1において、制御部77は、使用者により処理の開始が指示されたか否かを判定し、指示されたと判定されるまで待機する。使用者は、オブジェクト抽出処理の開始を指示するとき、入力部72を操作して、画像データベース73に蓄積された動画像データの中から、処理を実行すべき動画像データの種類(例えば動画像データファイルA)と、その動画像データの中でオブジェクトの抽出処理を実行すべき部分(例えば、フレーム0(始点)からフレーム50(終点)まで)を指定して、処理の開始を指示する。
【0027】
ステップS1において、処理の開始が指示されたと判定された場合、ステップS2において、制御部77は、画像データベース73から指定された始点と終点で規定される範囲の動画像データを読み込む。いまの例の場合、動画像データファイルAのフレーム0からフレーム50が読み込まれる。
【0028】
そして、ステップS3に進み、制御部77は、動き解析部75に、ステップS2において読み込まれた動画像データについて、図10を参照して後述する動き解析処理を実行させる。これにより、動画像の中で、オブジェクトの背景に対する動きが解析され、使用者が輪郭を入力すべき領域が検出される。このとき、使用者がオブジェクトの輪郭を入力すべき領域を検出するために、カバードバックグラウンド領域とアンカバードバックグラウンド領域が判定される。
【0029】
図5はカバードバックグラウンドとアンカバードバックグラウンドの例を示す図である。
【0030】
図5A乃至図5Cは、ある動画像データにおいて時間的に連続するフレームT(T=0,1,2)の画像を示す図である。この画像において、Tの値が増えるに従って(時間的に後のフレームになる程)、オブジェクト21は、背景に対して図中右側に移動していく。そして、オブジェクト21が図中右側に移動していくことにともなって、オブジェクト21の背景にあり、隠れていたオブジェクト31が画像の中に現れる。図5A(フレーム0の画像)においては、オブジェクト31は、オブジェクト21の後ろに位置しており、表示されていないが、図5B(フレーム1の画像)では、オブジェクト21が右側に移動したことに伴って、オブジェクト31の左上部が、オブジェクト21の輪郭線21Aの中央左側に表示され、図5C(フレーム2の画像)では、オブジェクト21はさらに右側に移動し、オブジェクト31の左上部がさらに大きく表示されている。
【0031】
このようにオブジェクトの移動に伴って、今までオブジェクトに隠れていた部分であって、序々に表示される背景をアンカバードバックグラウンドと称する。一般に、このアンカバードバックグラウンドが検出される領域において、画像処理装置により、オブジェクトの輪郭を正確に抽出することは困難である。図5A乃至図5Cにおいて、点線22は、画像処理装置により検出されたオブジェクト21の輪郭を表す。図5A(フレーム0の画像)においては、点線22は、使用者により入力されたオブジェクト21の輪郭でもある。
【0032】
フレーム0において、使用者により入力されたオブジェクト21の点線22に基づいて、画像処理装置は、オブジェクト21の輪郭を抽出するが、オブジェクト21の輪郭線21Aの近傍に別のオブジェクトが検出されると、画像処理装置は、オブジェクト21の輪郭を誤って検出するおそれがある。例えば、フレーム1では、オブジェクト21の背景にある別のオブジェクト31の左上部が誤ってオブジェクト21の輪郭として検出されている。そして、フレーム2においては、オブジェクト31がさらに大きく表示されたことに伴って、検出された輪郭線(点線22)は、オブジェクト21の輪郭線21Aとさらに大きく異なっている。
【0033】
このように、アンカバードバックグラウンドが検出される領域において、一旦オブジェクトの輪郭が誤って検出されると、その後に連続するフレームにおいても、オブジェクトの輪郭が誤って検出されてしまう可能性が高い。従って、この領域において、使用者からオブジェクトの輪郭の入力が受け付けられた場合、その後に連続するフレームにおいて、オブジェクトの輪郭が正確に検出されないおそれがある。
【0034】
図5D乃至図5Fも、やはりある動画像データにおいて時間的に連続するフレームT(T=0,1,2)の画像を示す図である。この画像において、Tの値が増えるに従って(時間的に後のフレームになる程)、オブジェクト21は、背景に対して図中左側に移動していく。そして、オブジェクト21が図中左側に移動していくことにともなって、オブジェクト21の背景にある、別のオブジェクト31が、次第にオブジェクト21の後ろに隠れて画像の中から消えていく。図5D(フレーム0の画像)においては、オブジェクト31は、オブジェクト21の後部左に位置しており、大きく表示されているが、図5E(フレーム1の画像)では、オブジェクト21が左側に移動したことに伴って、オブジェクト31の図中右下の部分が、オブジェクト21の後ろに隠れて、オブジェクト21の輪郭線21Aの中央左側に、オブジェクト31の左上部が小さく表示されている。図5F(フレーム2の画像)では、オブジェクト21はさらに左側に移動し、オブジェクト31は、オブジェクト21の後ろに完全に隠れて、表示されていない。
【0035】
このようにオブジェクトの移動に伴って、オブジェクトに隠されることで、序々に消えていく背景をカバードバックグラウンドと称する。一般に、このカバードバックグラウンドが検出される領域においては、オブジェクトの輪郭を正確に抽出することが比較的容易である。図5D乃至図5Fにおいて、点線22は、画像処理装置により検出されたオブジェクト21の輪郭を示す。ただし、図5D(フレーム0の画像)においては、点線22は、使用者により入力されたオブジェクト21の輪郭でもある。
【0036】
図5Dのフレーム0において、使用者により入力された点線22に基づいて、画像処理装置は、オブジェクト21の輪郭を抽出するが、図5Eのフレーム1において、オブジェクト21の背景にある別のオブジェクト31の左上部が誤ってオブジェクト21の輪郭として検出されている。しかし、図5Fのフレーム2においては、オブジェクト31は、オブジェクト21の背後に隠れて、消えてしまっているため、検出された輪郭線(点線22)は、オブジェクト21の輪郭線21Aとほぼ一致している。
【0037】
このように、カバードバックグラウンドが検出される領域においては、一旦オブジェクトの輪郭が誤って検出されたとしても、その後に連続するフレームにおいて、オブジェクトの輪郭が誤って検出されてしまう可能性が低くなる。従って、このカバードバックグラウンド領域において、使用者からオブジェクトの輪郭の入力を受け付けるようにすれば、その後の連続するフレームにおいて、オブジェクトの輪郭が正確に検出される可能性が高くなる。
【0038】
また、動画像のフレームを時間的に後(未来)の方向に再生する場合に、アンカバードバックグラウンドとなる背景は、動画像のフレームを時間的に前(過去)の方向に再生する(逆方向に再生する)ことにより、カバードバックグラウンドとなる。例えば、図5A乃至図5Cに示される背景は、フレーム0、フレーム1、フレーム2の順で再生すると、アンカバードバックグラウンドとなるが、フレーム2、フレーム1、フレーム0の順に再生すれば、図5D乃至図5Fと同様に、カバードバックグラウンドとなる。
【0039】
すなわち、カバードバックグラウンドが検出される領域においては、時間的に前のフレームで、使用者によるオブジェクトの輪郭の入力を受け付け、動画像のフレームを未来方向に再生して、オブジェクトの輪郭を抽出し、アンカバードバックグラウンドが検出される領域においては、時間的に後のフレームで、使用者によるオブジェクトの輪郭の入力を受け付け、動画像のフレームを過去方向に再生して、オブジェクトの輪郭を抽出すれば、オブジェクトの輪郭を正確に抽出できる可能性が高くなる。
【0040】
図4に戻って、ステップS4において、制御部77は、使用者が、輪郭入力すべきフレームの画像を表示部71に表示し、ステップS5において、使用者からの輪郭入力を受け付ける。
【0041】
図6は動画像の最初のフレームの画像91と最後のフレームの画像92を示す図である。この動画像において、前景となる人物(オブジェクト)111が、背景110に対して、左側に移動している。最初のフレームの画像91では、背景110の中の山112は、人物111の左側にあるが、人物111は、背景110に対して左側に移動していくので、最後のフレーム92においては、背景110の中の山112は、人物111の右側に位置している。
【0042】
この動画像の場合、上述したように、人物111の左側は、カバードバックグラウンドとなり、人物111の右側は、アンカバードバックグラウンドとなる。そこで、ステップS4において、制御部77は、図6のフレームの画像91と92を表示部71に表示させる。そして、画像91においては、人物111の左側(図中斜線で示される部分121)を、画像92においては、人物111の右側(図中斜線で示される部分122)を、例えば、赤くハイライト表示するなどして、使用者の輪郭入力を促す。
【0043】
そして、ステップS5において、使用者は、表示部71をタッチペン72−1でトレースすることにより、抽出すべきオブジェクト(人物111)の輪郭を入力する。このとき、図7に示されるように、画像91においては、人物111の左側の部分121に、太線131で示されるように、画像92においては、人物111の右側の部分122に、太線132で示されるように、それぞれ輪郭が入力される。すなわち、輪郭は人物111の全体を囲むように入力されるのではなく、最初のフレームと最後のフレームで、半分ずつ入力される。
【0044】
ステップS6において、制御部77は、オブジェクト抽出部76に、カバードバックグラウンド領域において、未来方向に輪郭をトラッキングさせ、ステップS7に進み、アンカバードバックグラウンド領域において、過去方向に輪郭をトラッキングさせる。すなわち、図8に示されるように、画像91に入力された輪郭(太線131)に基づいて、未来方向に人物111の左側の輪郭が抽出され、画像92に入力された輪郭(太線132)に基づいて、過去方向に人物111の右側の輪郭が抽出される。
【0045】
このときオブジェクトの輪郭は図9に示されるように抽出される。画像131は、フレーム(t−1)における人物111の輪郭の一部を示す。画像132Aは、フレーム(t−1)より1フレーム後のフレーム(t)における人物111の輪郭の一部を示す。画像132Bは、画像132Aを補正処理した画像を示す。
【0046】
画像131において人物111の輪郭線151上にトレーシングポイントP1(t−1)、P2(t−1)・・・Pn(t−1)が設定されており、ブロックマッチングアルゴリズムなどの方法を用いて、画像の動きが検出され、1フレーム後のフレームにおける各トレーシングポイントが追跡される。画像132AのトレーシングポイントP1(t)A、P2(t)A、・・・Pn(t)Aは、追跡の結果得られた、トレーシングポイントP1(t−1)、P2(t−1)・・・Pn(t−1)に対応する、トレーシングポイントである。
【0047】
ステップS6、S7では、追跡、抽出するオブジェクトの形状の変化に対応するために、スネークにより、オブジェクトと背景の境界線が抽出される。
スネークはエネルギー関数であり、次式により示される。
【数1】
【数2】
【数3】
Iiは、注目する画素について計算された特徴量のレベルであり、Eimageは、注目する画素の周辺における画素の特徴量のレベルの標準偏差であり、Eintは、オブジェクトと背景の境界における差分ベクトルの距離の自乗である。
【0048】
このエネルギー関数Esnakeの値を最小化するようにV(s)=(x(s),y(s))が選択されることにより、オブジェクトと背景の境界線が得られる。
【0049】
画像132Aにおいて、スネークにより人物111と背景の境界線が求められ、画像132Bに示されるように、その境界線上にトレーシングポイントP1(t)B、P2(t)B・・・Pn(t)Bがあらたに設定され、トレーシングポイントP1(t)B、P2(t)B・・・Pn(t)Bを結ぶ線が人物111の輪郭として抽出される。
【0050】
なお、この例では、オブジェクトの輪郭の抽出は、ブロックマッチングとスネークにより行っているが、他の方法でオブジェクトの輪郭を抽出してもよい。
【0051】
また、このようにして抽出されたオブジェクトの画像のデータは、そのオブジェクトを特定する情報などが付加され、必要に応じてオブジェクトデータベース74に記憶される。
【0052】
そして、図4のステップS8において、制御部77は、抽出結果を1フレーム毎に表示部71に表示する。例えば、図8の画像91をフレーム0の画像とし、画像92をフレーム50の画像とすると、制御部77は、フレーム0、フレーム1、フレーム2・・・フレーム50の画像を、入力部72の所定のボタンが押下される都度、順番に表示する。
【0053】
ステップS8において、表示された画像をもとに、使用者は、修正入力を指示することができる。例えば、表示されたフレーム0からフレーム50までの画像の中で、フレーム30からフレーム40において、輪郭が誤って抽出されていると、使用者が判断した場合、使用者は、フレーム30からフレーム40を新たな始点と終点として指定して修正入力を指示する。
【0054】
ステップS9において、制御部77は、使用者から修正入力の指示があったか否かを判定し、修正入力が指示されたと判定された場合、ステップS2に戻り、それ以降の処理を繰り返し実行する。この場合、フレーム30が最初のフレームとされ、フレーム40が最後のフレームとされ、上述したステップS2乃至S8の処理が実行される。
【0055】
このようにすることで、使用者は、例えば、図1A乃至図1Eの動画像の中で、オブジェクトの輪郭が誤って検出されている画像として、フレーム10(図1B)、フレーム20(図1C)、フレーム30(図1D)などを確認し、オブジェクトの輪郭が誤って検出された最初のフレーム(図1B)を始点として、オブジェクトの輪郭が誤って検出された最後のフレーム(図1D)を終点として指定し、修正入力することができる。その結果、オブジェクトの輪郭は、さらに正確に抽出される。
【0056】
ステップS9において、使用者から修正入力の指示がなかったと判定された場合、すなわち、使用者が、修正すべきフレームはないと判断した場合、制御部77は、ステップS10に進み、例えば、抽出されたオブジェクトの輪郭を白い線で表示するなどして、全体の動画像(この場合、フレーム0からフレーム50まで)を表示部71に出力し、表示させる。
【0057】
このようにして、使用者が所望するオブジェクトが抽出される。
【0058】
次に図10を参照して、図4のステップS3の動き解析処理について説明する。この処理は、動き解析部75において実行される。ステップS31において、動き解析部75の動き演算部81は、図11を参照して後述する動き演算処理を実行する。これにより、オブジェクト上に設定されたトレーシングポイントと、背景上に設定されたトレーシングポイント間の距離が演算される。
【0059】
ステップS32において、動き解析部75の領域判定部82は、図13を参照して後述する領域判定処理を行う。これにより、各フレームにおいて、カバードバックグラウンド領域とアンカバードバックグラウンド領域が設定される。そして、ステップS33において、動き解析部75のフレーム検出部83は、図14を参照して後述するフレーム検出処理を行う。これにより、図4のステップS4において、輪郭入力すべきフレームとして表示されるフレームが検出され、そのフレームの画像の中で輪郭入力すべき部分がハイライト表示される。
【0060】
次に図11を参照して、図10のステップS31の動き演算処理について説明する。ステップS51において、動き演算部81は、0番目のフレームにおいてトレーシングポイントを設定し、ステップS52において、隣接するトレーシングポイント間の距離d(0)xを計算する。
【0061】
例えば、図12Aに示されるように、0番目のフレームの画像171において、トレーシングポイントPa1乃至Pc4が任意の位置に設定されている。抽出すべきオブジェクト191が表示されているとき、そのうち、3つのトレーシングポイントPa1,Pa2、およびPa3は、オブジェクト191の上部に配置されており、トレーシングポイントPb1乃至Pb3は、オブジェクト191の中央に配置されており、トレーシングポイントPc1乃至Pc3は、オブジェクト191の下部に配置されている。また、トレーシングポイントPa0,Pb0、およびPc0は、オブジェクト191の左側の背景に配置され、トレーシングポイントPa4,Pb4、およびPc4は、オブジェクト191の右側の背景に配置されている。
【0062】
そして、トレーシングポイントPa1とPa0の間の距離d0(0)が計算される。図12Aの例では、トレーシングポイントPb0とPb1の間の距離、並びにトレーシングポイントPc0とPc1の間の距離は、トレーシングポイントPa1とPa0の間の距離d(0)0と等しくとなるよう設定されているが、それらの値が異なる場合には、それぞれ隣接するトレーシングポイント間の距離が、個々に計算される。
【0063】
さらに、トレーシングポイントPa1とPa2(Pb1とPb2、Pc1とPc2)の距離d(0)1、トレーシングポイントPa2とPa3(Pb2とPb3、Pc2とPc3)の距離d(0)2、およびトレーシングポイントPa3とPa4(Pb3とPb4、Pc3とPc4)の距離d(0)3も同様に計算される。
【0064】
勿論、図12Aに示されるように各トレーシングポイントが均等に配置されている場合には、1つの距離だけが演算される。さらに、より具体的には、トレーシングポイントは動き演算部81が自分自身で指示した位置に配置されるだけなので、距離の演算といっても、その値を読み取るだけの処理となる。
【0065】
ステップS53において、動き演算部81は、計算した結果、すなわち距離d(0)0乃至d(0)3を記憶部84に記憶させる。
【0066】
ステップS54において、動き演算部81は、変数nに値1をセットし、ステップS55に進み、n番目のフレームにおけるトレーシングポイントを追跡し、ステップS56において隣接するトレーシングポイント間の距離d(n)xを計算する。
【0067】
すなわち、図12Aの0番目のフレームの画像171において設定されたトレーシングポイントPa0乃至Pc4は、次のフレーム(1番目のフレーム)の画像172においても、トレーシングポイントPa0乃至Pc4として追跡される。トレーシングポイントの追跡には、ブロックマッチングアルゴリズムなどが用いられる。オブジェクト191は図中左方向に移動しているため、トレーシングポイントのうち、オブジェクト191上に設定された9個のトレーシングポイントPa1乃至Pc3は、1番目のフレームにおいて、図中左方向に移動する。一方、オブジェクト191の左側の背景上に設定された3個のトレーシングポイントPa0乃至Pc0、およびオブジェクト191の右側の背景上に設定された3個のトレーシングポイントPa4乃至Pc4は移動しない。
【0068】
そして、画像172においても、隣接するトレーシングポイント間の距離d(1)0,d(1)1,d(1)2,およびd(1)3が計算される。
【0069】
ステップS57において、動き演算部81は、計算した結果、すなわち距離d(1)0乃至d(1)3を記憶部84に記憶させる。
【0070】
ステップS58において、動き演算部81は、全てのフレームについて隣接するトレーシングポイント間の距離を演算したか否かを判定し、まだ全てのフレームについて演算していないと判定された場合、ステップS59に進み、nの値を1だけインクリメントして、ステップS55に戻り、それ以降の処理を繰り返し実行する。
【0071】
ステップS58において、全てのフレームについて隣接するトレーシングポイント間の距離を演算したと判定された場合、動き演算処理は終了される。
【0072】
このようにして、各フレームにおいて、隣接するトレーシングポイント間の距離が計算され、記憶される。
【0073】
次に図13を参照して、図10のステップS32の領域判定処理について説明する。ステップS71において、領域判定部82は、変数nの値に0を設定する。ステップS72において、n番目のフレームにおける隣接するトレーシングポイント間の距離d(n)xと、n+1番目のフレームにおける対応するトレーシングポイント間の距離d(n+1)xの値を記憶部84から読み出し、それぞれ値の大きさを比較し、d(n)x>>d(n+1)xの条件を満たすか否かを判定する。ここで「>>」は、左側の値が、右側の値より充分大きいことを示す記号であり、例えば、距離d(n)xと距離d(n+1)xの差が、所定の基準値以上である場合、d(n)x>>d(n+1)xの条件を満たすと判定される。
【0074】
ステップS72において、d(n)x>>d(n+1)xの条件を満たすと判定された場合、領域判定部82は、ステップS75に進み、当該領域をカバードバックグラウンド領域として設定する。
【0075】
ステップS72において、d(n)x>>d(n+1)xの条件を満たさないと判定された場合、ステップS73に進み、領域判定部82は、d(n)x<<d(n+1)xの条件を満たすか否かを判定する。ステップS73において、d(n)x<<d(n+1)xの条件を満たすと判定された場合、ステップS74に進み、領域判定部82は、当該領域をアンカバードバックグラウンド領域として設定する。
【0076】
例えば、変数nの値が0のとき、図12Aの0番目(n番目)のフレームの画像171におけるトレーシングポイント間の距離d(0)0と1番目(n+1番目)のフレームの画像172における対応するトレーシングポイント間の距離d(1)0が比較され、d(0)0>>d(1)0の条件を満たすか否かが判定される。
【0077】
抽出すべきオブジェクト191は、0番目のフレームの画像171において、図中ほぼ中央に表示されているが、1番目のフレームの画像172においては、図中やや左側に移動している。距離d(0)0とd(1)0は、オブジェクト191の左側の背景に設定されたトレーシングポイントPa0,Pb0、またはPc0と、オブジェクト191の左側の輪郭近傍に設定されたトレーシングポイントPa1,Pb1、またはPc1との間の距離なので、ステップS72において、0番目のフレームのトレーシングポイント間の距離d(0)0は、1番目のフレームにおけるトレーシングポイント間の距離d(1)0より充分大きい(d(0)0>>d(1)0の条件を満たす)ものと判定される。
【0078】
この場合、領域判定部82は、ステップS75において、トレーシングポイントPa0,Pb0、またはPc0と、トレーシングポイントPa1,Pb1、またはPc1の近傍の領域を図12Bに示されるように、カバードバックグラウンド領域192として設定する。
【0079】
同様に、距離d(0)1と距離d(1)1について、値の大きさが比較され、d(0)1>>d(1)1の条件を満たすか否かが判定される。このように、距離d(0)2と距離d(1)2、距離d(0)3と距離d(1)3についても、それぞれの値の大きさが比較され、上述した距離d(0)0と距離d(1)0の場合と同様に条件を満たすか否かが判定される。この例の場合、d(n)x>>d(n+1)xの条件を満たすと判定されるのは、距離d(0)0と距離d(0)1を比較した場合のみである。
【0080】
一方、ステップS73においては、上述したように、d(n)x<<d(n+1)xの条件を満たすか否かが判定される。すなわち、距離d(0)0と距離d(1)0について、値の大きさが比較され、d(0)0<<d(1)0の条件を満たすか否かが判定される。距離d(0)1と距離d(1)1、距離d(0)2と距離d(1)2、および距離d(0)3と距離d(1)3についても、それぞれの値の大きさが比較され、距離d(0)0と距離d(1)0の場合と同様に条件を満たすか否かが判定される。この例の場合、d(n)x<<d(n+1)xの条件を満たすと判定されるのは、d(0)3と距離d(1)3を比較した場合のみである。
【0081】
すなわち、距離d(0)3とd(1)3は、オブジェクト191の右側の背景に設定されたトレーシングポイントPa4,Pb4、またはPc4と、オブジェクト191の右側の輪郭近傍に設定されたトレーシングポイントPa3,Pb3、またはPc3との間の距離なので、オブジェクト191が左へ移動することに伴って距離d(1)3は距離d(0)3より大きくなる。従って、ステップS73において、1番目のフレームのトレーシングポイント間の距離d(1)3は、0番目のフレームにおけるトレーシングポイント間の距離d(0)3より充分大きい(d(0)0<<d(1)0の条件を満たす)ものと判定される。
【0082】
この場合、領域判定部82は、ステップS74において、トレーシングポイントPa3,Pb3、またはPc3と、トレーシングポイントPa4,Pb4、またはPc4の近傍の領域を、図12Bに示されるように、アンカバードバックグラウンド領域193として設定する。
【0083】
図13に戻って、ステップS74もしくはステップS75の処理の後、またはステップS73でd(n)x<<d(n+1)xの条件が満たされないと判定された場合、ステップS76において、領域判定部82は、設定結果を記憶部84に記憶させる。ステップS77において、領域判定部82は、全てのフレームについて処理したか否かを判定し、まだ全てのフレームについて処理していないと判定された場合、ステップS78に進み、nの値を1だけインクリメントして、ステップS72に戻り、それ以降の処理を繰り返し実行する。
【0084】
ステップS77において、全てのフレームについて処理したと判定された場合、領域判定処理は終了される。
【0085】
このようにして、各フレームにおいて、カバードバックグラウンド領域またはアンカバードバックグラウンド領域の判定が行われ、その判定に応じて領域が設定される。
【0086】
次に、図14を参照して図10のステップS33のフレーム検出処理について説明する。ステップS91において、フレーム検出部83は、カバードバックグラウンド領域が設定された最初のフレームを検索する。上述したように、カバードバックグラウンド領域においては、時間的に前のフレームで、使用者によるオブジェクトの輪郭の入力を受け付け、動画像のフレームを未来方向に再生して、オブジェクトの輪郭を抽出していくことにより、より正確にオブジェクトの輪郭を抽出することができる。
【0087】
そこで、ステップS92において、フレーム検出部83は、カバードバックグラウンド領域が設定された最初のフレームの画像の中のカバードバックグラウンド領域をハイライトさせる。
【0088】
ステップS93において、フレーム検出部83は、アンカバードバックグラウンド領域が設定された最後のフレームを検索する。上述したように、アンカバードバックグラウンド領域においては、時間的に後のフレームで、使用者によるオブジェクトの輪郭の入力を受け付け、動画像データのフレームを過去方向に再生して、オブジェクトの輪郭を抽出していくことにより、より正確にオブジェクトの輪郭を抽出することができる。
【0089】
そこで、ステップS94において、フレーム検出部83は、アンカバードバックグラウンド領域が設定された最後のフレームの画像の中のアンカバードバックグラウンド領域をハイライトさせる。
【0090】
この結果、各領域が設定されたフレームの画像が、図4のステップS4において、図6に示されるように表示される。
【0091】
図15と図16は、このようにして表示される最初のフレーム(図15)と最後のフレーム(図16)の他の表示例を表している。図15と図16は、スカーフ251をもった女性が、図中左に向かって歩いているところを撮影したフレーム0からフレーム50で構成される動画像データの中の、最初のフレーム(フレーム0)と最後のフレーム(フレーム50)の画像を示す。この動画像において、スカーフ251をオブジェクトとして抽出するとき、図15のフレーム0の画像において、カバードバックグラウンド領域となるスカーフ251の左側近傍の所定の部分231が、例えば赤くハイライトされて表示部71に表示され、使用者に対して、輪郭の入力が促される。
【0092】
また、図16のフレーム50の画像において、アンカバードバックグラウンド領域となるスカーフ251の右側近傍の所定の部分232が、例えば赤くハイライトされ表示部71に表示され、使用者に対して、輪郭の入力が促される。
【0093】
なお、使用者が輪郭を入力すべき部分231と232は、赤くハイライトさせるのに限らず、その部分を点滅させたり、その部分の輪郭を構成する線を表示したりすることによって表示し、使用者に入力を促すようにしてもよい。勿論、輪郭入力を禁止する方の領域を表示させ、禁止されていない方の領域に輪郭を入力させるようにしてもよいが、操作性を考慮した場合、図15と図16に示されるように、入力すべき領域を表示させるのが好ましい。
【0094】
この例の場合、使用者は、図17に示されるように、図15のハイライト表示された部分231の中で、スカーフ251の輪郭をタッチペン72−1でトレースすることにより、太線261を入力し、図18に示されるように、図16のハイライト表示された部分232の中で、スカーフ251の輪郭をタッチペン72−1でトレースすることにより、太線262を入力する。
【0095】
このように、使用者が、抽出すべきオブジェクトの輪郭を入力すべきフレームの画像と、輪郭を入力すべき部分が表示される。従って、オブジェクトをより正確に抽出することが可能となる。
【0096】
次に、本発明によるオブジェクト抽出の実験結果を、本発明とは異なる2つの方法によるオブジェクトの抽出の実験結果と比較しつつ説明する。ここで比較される本発明とは異なるオブジェクト抽出方法として、輪郭を入力すべき部分を表示せずに、最初のフレーム(フレーム0)において、抽出すべきオブジェクトの輪郭を使用者が目で見て、全周に渡って囲むように入力し、動画像データのフレームを未来方向に再生して、オブジェクトの輪郭を抽出していく方法(以下、方法Aと称する)と、輪郭を入力すべき部分を表示せずに最後のフレーム(フレーム50)において、抽出すべきオブジェクトの輪郭を使用者が目で見て、全周に渡って囲むように入力し、動画像データのフレームを過去方向に再生して、オブジェクトの輪郭を抽出していく方法(以下、方法Bと称する)を考える。
【0097】
方法Aによれば、図19に示されるように、最初のフレーム(フレーム0)において、スカーフ251全体の輪郭をトレースして線271を使用者が入力し、方法Bによれば、図20に示されるように、最後のフレーム(フレーム50)において、スカーフ251全体の輪郭をトレースして線272を使用者が入力する。本発明によるスカーフ251の輪郭の入力は、図17と図18を参照して説明した通りである。
【0098】
図21は、方法Aまたは方法Bによるオブジェクト抽出の実験結果の評価値と、本発明によるオブジェクト抽出の実験結果の評価値を示すグラフである。図21の横軸はフレームの番号を示し、縦軸は、オブジェクト抽出結果の評価値を示す。オブジェクト抽出の実験結果の評価値は、フレーム0からフレーム50の各フレームにおいて、スカーフ251の輪郭線を使用者が入力し、自動的に抽出されたオブジェクトの輪郭と比較することにより決定される。
【0099】
すなわち、図22に示されるように、使用者により手入力されたオブジェクトの境界線281上に、比較ポイントP1乃至P4が設定され、自動的に抽出されたオブジェクトの境界線282上にも、比較ポイントP1乃至P4に対応する比較ポイントP1A乃至P4Aが設定される。それぞれの比較ポイント間の距離が求められ、例えば、比較ポイントP2とP2A間の距離がdnとされ、P3とP3A間の距離がdn+1とされる。このようにN個の比較ポイントが設定されている場合、オブジェクト抽出結果の評価値αは次の式で求められる。
α=(1/N)Σdn
【0100】
ここで、評価値αは、各比較ポイント間の距離の平均値を示すものであり、値が小さいほど、オブジェクトを正確に抽出できていることを示す。
【0101】
図21において、方法Aによるオブジェクト抽出の実験結果の評価値は線Aで示され、方法Bによるオブジェクト抽出の実験結果の評価値は線Bで示され、本発明によるオブジェクト抽出の実験結果の評価値は、線Cで示されている。線Aは、フレーム40からフレーム50にかけて、図中上方向に急傾斜しており、評価値の値が大きくなっている。線Bは、フレーム50付近では、評価値の値が小さいものの、フレーム0からフレーム40にかけて、評価値の値が大きくなっている。
【0102】
これに対して、線Cは、フレーム0からフレーム50にかけて、安定して、比較的小さい評価値を示しており、本発明によるオブジェクト抽出の実験結果は、方法Aまたは方法Bと比較して、最初のフレームから最後のフレームにいたるまで、安定して、かつ比較的高い精度でオブジェクトを抽出していることが分かる。
【0103】
図23において、本発明により抽出されたフレーム0の画像におけるスカーフ251(オブジェクト)の輪郭を線291で示し、図24において、方法Bにより抽出されたフレーム0の画像におけるスカーフ251の輪郭を線292で示す。
【0104】
図24に示されるように、方法Bによる抽出では、矢印301付近でスカーフ251の輪郭が誤って抽出されている。これに対して、図23に示されるように本発明による抽出では、目立った誤りはない。
【0105】
図25において、本発明により抽出されたフレーム50の画像におけるスカーフ251(オブジェクト)の輪郭を線291で示し、図26において、方法Aにより抽出されたフレーム50の画像におけるスカーフ251の輪郭を線292で示す。図26に示されるように、方法Aによる抽出では、矢印302付近でスカーフ251の輪郭が誤って抽出されている。これに対して、図25に示されるように本発明による抽出では、目立った誤りはない。
【0106】
図27において、本発明により抽出されたフレーム40の画像におけるスカーフ251(オブジェクト)の輪郭を線311で示し、図28において、方法Aにより抽出されたフレーム40の画像におけるスカーフ251の輪郭を線312で示す。また、図29において、方法Bにより抽出されたフレーム40の画像におけるスカーフ251の輪郭を線313で示す。図28に示されるように、方法Aによる抽出では、矢印321付近でスカーフ251の輪郭が誤って抽出されている。また、図29に示されるように、方法Bによる抽出では、矢印322付近でスカーフ251の輪郭が誤って抽出されている。これに対して、図27に示されるように本発明による抽出では、目立った誤りはない。
【0107】
このように、最初のフレーム(フレーム0)でカバードバックグラウンド領域にオブジェクトの輪郭を使用者に入力させ、最後のフレーム(フレーム50)でアンカバードバックグラウンド領域にオブジェクトの輪郭を使用者に入力させれば、使用者が入力するオブジェクトの輪郭の量を増やすことなく、全てのフレームにわたって、オブジェクトを安定して、かつ比較的高い精度で抽出することができる。
【0108】
なお、上述した一連の処理をハードウェアで実現するか、ソフトウェアで実現するかは問わない。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、図30に示されるような、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0109】
図30において、CPU(Central Processing Unit)391は、ROM(Read Only Memory)392に記憶されているプログラム、または記憶部398からRAM(Random Access Memory)393にロードされたプログラムに従って各種の処理を実行する。RAM393にはまた、CPU391が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0110】
CPU391、ROM392、およびRAM393は、バス394を介して相互に接続されている。このバス394にはまた、入出力インタフェース395も接続されている。
【0111】
入出力インタフェース395には、キーボード、マウスなどよりなる入力部396、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ(表示部)、並びにスピーカなどよりなる出力部397、ハードディスクなどより構成される記憶部398、モデム、ターミナルアダプタなどより構成される通信部399が接続されている。通信部399は、インターネットなどのネットワークを介しての通信処理を行う。
【0112】
入出力インタフェース395にはまた、必要に応じてドライブ400が接続され、ドライブ200には、本発明のプログラムが記録された記録媒体が装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部398にインストールされる。
【0113】
記録媒体は、磁気ディスク421、光ディスク422、光磁気ディスク423、或いは半導体メモリ424などにより構成される。
【0114】
なお、本明細書において上述した一連の処理を実行するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0115】
【発明の効果】
以上の如く、本発明によれば、オブジェクトを安定して、かつより高い精度で抽出することができる。
【図面の簡単な説明】
【図1】従来のオブジェクト検出方法の例を示す図である。
【図2】本発明を適用した画像処理装置の構成例を示すブロック図である。
【図3】図2の動き解析部の構成例を示すブロック図である。
【図4】オブジェクト抽出処理を説明するフローチャートである。
【図5】カバードバックグラウンドとアンカバードバックグラウンドの例を示す図である。
【図6】使用者が輪郭を入力すべきフレームの画像の表示例を示す図である。
【図7】図6の画像に対する輪郭入力の例を示す図である。
【図8】図7の画像をもとに輪郭抽出が行われた例を示す図である。
【図9】抽出されるオブジェクトの輪郭の一部を拡大した図である。
【図10】動き解析処理を説明するフローチャートである。
【図11】動き演算処理を説明するフローチャートである。
【図12】動き解析処理において設定されるトレーシングポイントの例を示す図である。
【図13】領域判定処理を説明するフローチャートである。
【図14】フレーム検出処理を説明するフローチャートである。
【図15】本発明において、表示される使用者が輪郭入力すべきフレームの画像の表示例を示す図である。
【図16】本発明において、表示される使用者が輪郭入力すべきフレームの画像の表示例を示す図である。
【図17】図15の画像に対して、使用者が輪郭入力するときの表示例を示す図である。
【図18】図16の画像に対して、使用者が輪郭入力するときの表示例を示す図である。
【図19】方法Aにおいて、表示される使用者が輪郭入力すべきフレームの画像の表示例を示す図である。
【図20】方法Bにおいて、表示される使用者が輪郭入力すべきフレームの画像の表示例を示す図である。
【図21】本発明によるオブジェクト抽出の実験結果の評価値と、方法Aまたは方法Bによるオブジェクト抽出の実験結果の評価値を比較するグラフである。
【図22】評価値を算出するための、オブジェクトの境界線における比較ポイントを示す図である。
【図23】本発明によりオブジェクトが抽出されたフレーム0の画像を示す図である。
【図24】方法Bによりオブジェクトが抽出されたフレーム0の画像を示す図である。
【図25】本発明によりオブジェクトが抽出されたフレーム50の画像を示す図である。
【図26】方法Aによりオブジェクトが抽出されたフレーム50の画像を示す図である。
【図27】本発明によりオブジェクトが抽出されたフレーム40の画像を示す図である。
【図28】方法Aによりオブジェクトが抽出されたフレーム40の画像を示す図である。
【図29】 方法Bによりオブジェクトが抽出されたフレーム40の画像を示す図である。
【図30】パーソナルコンピュータの構成例を示す図である。
【符号の説明】
51 画像処理装置, 71 表示部, 72 入力部, 73 画像データベース, 74 オブジェクトデータベース, 75 動き解析部, 76 オブジェクト抽出部 77 制御部
Claims (6)
- 指定された画像の画像データを取得する画像取得手段と、
前記画像取得手段により取得された前記画像データに基づいて、前記画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで前記画像の中の前記オブジェクトの背景に対する動きを演算する動き演算手段と、
前記動き演算手段により演算された前記動きに基づいて、前記画像において前記オブジェクトの輪郭を抽出する抽出領域を判定する領域判定手段と、
所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像を、前記画像の中から抽出すべき前記オブジェクトを指定するフレームの画像として提示する画像提示手段と、
前記領域判定手段により判定された前記抽出領域に入力された輪郭を受け付ける輪郭入力受付手段と、
前記輪郭入力受付手段により入力が受け付けられた前記オブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、前記輪郭が入力されていない複数のフレームの画像の前記オブジェクトを抽出するオブジェクト抽出手段と、
前記動き演算手段により演算された、時間的に前のフレームにおける隣接する前記特徴点間の距離と、時間的に後のフレームにおける隣接する前記特徴点間の距離を比較する比較手段とを備え、
前記領域判定手段は、
前記比較手段による比較の結果に基づいて、前記画像の背景のうちの、前記オブジェクトにより順次カバーされる第1の領域と、前記オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域を設定し、
前記オブジェクト抽出手段は、
前記第 1 の領域においては、前記第1のフレームで前記輪郭入力受付手段により前記オブジェクトの輪郭の入力を受け付け、前記第1のフレームより時間的に後の複数のフレームにおいて前記オブジェクトを抽出し、
前記第2の領域においては、前記第2のフレームで前記輪郭入力受付手段による前記オブジェクトの輪郭の入力を受け付け、前記第2のフレームより時間的に前の複数のフレームにおいて前記オブジェクトを抽出する
ことを特徴とする画像処理装置。 - 前記画像提示手段は、前記領域判定手段により判定された前記抽出領域を表示する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記オブジェクト抽出手段により抽出されたオブジェクトを表示するオブジェクト表示手段をさらに備える
ことを特徴とする請求項1に記載の画像処理装置。 - 指定された画像の画像データを取得する画像取得ステップと、
前記画像取得ステップの処理により取得された前記画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで前記画像の中の前記オブジェクトの背景に対する動きを演算する動き演算ステップと、
前記動き演算ステップの処理により演算された前記動きに基づいて、前記画像において前記オブジェクトの輪郭を抽出する抽出領域を判定する領域判定ステップと、
所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像を、前記画像の中から抽出すべき前記オブジェクトを指定するフレームの画像として提示する画像提示ステップと、
前記領域判定ステップの処理により判定された前記抽出領域に入力された輪郭を受け付ける輪郭入力受付ステップと、
前記輪郭入力受付ステップの処理により入力が受け付けられた前記オブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、前記輪郭が入力されていない複数のフレームの画像の前記オブジェクトを抽出するオブジェクト抽出手段と、
前記動き演算ステップの処理により演算された、時間的に前のフレームにおける隣接する前記特徴点間の距離と、時間的に後のフレームにおける隣接する前記特徴点間の距離を比較する比較ステップと含み、
前記領域判定ステップの処理では、
前記比較ステップの処理による比較の結果に基づいて、前記画像の背景のうちの、前記オブジェクトにより順次カバーされる第1の領域と、前記オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域を設定し、
前記オブジェクト抽出ステップの処理では、
前記第 1 の領域においては、前記第1のフレームで前記輪郭入力受付ステップの処理による前記オブジェクトの輪郭の入力を受け付け、前記第1のフレームより時間的に後の複数のフレームにおいて前記オブジェクトを抽出し、
前記第2の領域においては、前記第2のフレームで前記輪郭入力受付ステップの処理による前記オブジェクトの輪郭の入力を受け付け、前記第2のフレームより時間的に前の複数のフレームにおいて前記オブジェクトを抽出する
ことを特徴とする画像処理方法。 - 指定された画像の画像データの取得を制御する画像取得制御ステップと、
前記画像取得制御ステップの処理により取得された前記画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで前記画像の中の前記オブジェクトの背景に対する動きの演算を制御する動き演算制御ステップと、
前記動き演算制御ステップの処理により演算された前記動きに基づいて、前記画像において前記オブジェクトの輪郭を抽出する抽出領域の判定を制御する領域判定制御ステップと、
所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像の、前記画像の中から抽出すべき前記オブジェクトを指定するフレームの画像としての提示を制御する画像提示制御ステップと、
前記領域判定ステップの処理により判定された前記抽出領域に入力された輪郭の受け付けを制御する輪郭入力受付制御ステップと、
前記輪郭入力受付制御ステップの処理により入力が受け付けられた前記オブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、前記輪郭が入力されていない複数のフレームの画像の前記オブジェクトの抽出を制御するオブジェクト抽出制御ステップと、
前記動き演算制御ステップの処理により演算された、時間的に前のフレームにおける隣接する前記特徴点間の距離と、時間的に後のフレームにおける隣接する前記特徴点間の距離の比較を制御する比較制御ステップとをコンピュータに実行させ、
前記領域判定制御ステップの処理では、
前記比較制御ステップの処理による比較の結果に基づいて、前記画像の背景のうちの、前記オブジェクトにより順次カバーされる第1の領域と、前記オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域が設定され、
前記オブジェクト抽出制御ステップの処理では、
前記第 1 の領域においては、前記第1のフレームで前記輪郭入力受付ステップの処理による前記オブジェクトの輪郭の入力を受け付け、前記第1のフレームより時間的に後の複数のフレームにおいて前記オブジェクトが抽出され、
前記第2の領域においては、前記第2のフレームで前記輪郭入力受付ステップの処理による前記オブジェクトの輪郭の入力を受け付け、前記第2のフレームより時間的に前の複数のフレームにおいて前記オブジェクトが抽出される
ことを特徴とするプログラム。 - 指定された画像の画像データの取得を制御する画像取得制御ステップと、
前記画像取得制御ステップの処理により取得された前記画像において、複数の特徴点を設定し、隣接する特徴点間の距離を計算することで前記画像の中の前記オブジェクトの背 景に対する動きの演算を制御する動き演算制御ステップと、
前記動き演算制御ステップの処理により演算された前記動きに基づいて、前記画像において前記オブジェクトの輪郭を抽出する抽出領域の判定を制御する領域判定制御ステップと、
所定の時刻の画像より時間的に前の第1のフレームの画像、または所定の時刻の画像より時間的に後の第2のフレームの画像の、前記画像の中から抽出すべき前記オブジェクトを指定するフレームの画像としての提示を制御する画像提示制御ステップと、
前記領域判定ステップの処理により判定された前記抽出領域に入力された輪郭の受け付けを制御する輪郭入力受付制御ステップと、
前記輪郭入力受付制御ステップの処理により入力が受け付けられた前記オブジェクトの輪郭の線上に設定された所定の追跡点に基づいて、前記輪郭が入力されていない複数のフレームの画像の前記オブジェクトの抽出を制御するオブジェクト抽出制御ステップと、
前記動き演算制御ステップの処理により演算された、時間的に前のフレームにおける隣接する前記特徴点間の距離と、時間的に後のフレームにおける隣接する前記特徴点間の距離の比較を制御する比較制御ステップとをコンピュータに実行させ、
前記領域判定制御ステップの処理では、
前記比較制御ステップの処理による比較の結果に基づいて、前記画像の背景のうちの、前記オブジェクトにより順次カバーされる第1の領域と、前記オブジェクトによりカバーされた状態からカバーされていない状態に順次変化する第2の領域が設定され、
前記オブジェクト抽出制御ステップの処理では、
前記第 1 の領域においては、前記第1のフレームで前記輪郭入力受付ステップの処理による前記オブジェクトの輪郭の入力を受け付け、前記第1のフレームより時間的に後の複数のフレームにおいて前記オブジェクトが抽出され、
前記第2の領域においては、前記第2のフレームで前記輪郭入力受付ステップの処理による前記オブジェクトの輪郭の入力を受け付け、前記第2のフレームより時間的に前の複数のフレームにおいて前記オブジェクトが抽出される
プログラムが記録されることを特徴とする記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003037325A JP3947973B2 (ja) | 2003-02-14 | 2003-02-14 | 画像処理装置および方法、プログラム、並びに記録媒体 |
US10/765,859 US7409075B2 (en) | 2003-02-14 | 2004-01-29 | Image processing apparatus and method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003037325A JP3947973B2 (ja) | 2003-02-14 | 2003-02-14 | 画像処理装置および方法、プログラム、並びに記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004246723A JP2004246723A (ja) | 2004-09-02 |
JP3947973B2 true JP3947973B2 (ja) | 2007-07-25 |
Family
ID=33022177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003037325A Expired - Fee Related JP3947973B2 (ja) | 2003-02-14 | 2003-02-14 | 画像処理装置および方法、プログラム、並びに記録媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7409075B2 (ja) |
JP (1) | JP3947973B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101398892B (zh) * | 2004-08-03 | 2010-12-22 | 松下电器产业株式会社 | 人物搜索跟踪装置 |
US7715589B2 (en) * | 2005-03-07 | 2010-05-11 | Massachusetts Institute Of Technology | Occluding contour detection and storage for digital photography |
JP2013164834A (ja) * | 2012-01-13 | 2013-08-22 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP5960691B2 (ja) * | 2012-02-23 | 2016-08-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 興味区間特定装置、興味区間特定方法、興味区間特定プログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5019975A (en) * | 1986-08-08 | 1991-05-28 | Fuji Photo Film Co., Ltd. | Method for constructing a data base in a medical image control system |
JP3569992B2 (ja) * | 1995-02-17 | 2004-09-29 | 株式会社日立製作所 | 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム |
JPH09322170A (ja) | 1996-05-24 | 1997-12-12 | Nippon Hoso Kyokai <Nhk> | 動き検出装置 |
US6026217A (en) * | 1996-06-21 | 2000-02-15 | Digital Equipment Corporation | Method and apparatus for eliminating the transpose buffer during a decomposed forward or inverse 2-dimensional discrete cosine transform through operand decomposition storage and retrieval |
JP3189870B2 (ja) * | 1996-12-24 | 2001-07-16 | シャープ株式会社 | 画像処理装置 |
JPH1191169A (ja) * | 1997-09-19 | 1999-04-06 | Fuji Photo Film Co Ltd | 画像処理装置 |
EP0977151B1 (en) * | 1998-07-31 | 2007-11-07 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
US7213061B1 (en) * | 1999-04-29 | 2007-05-01 | Amx Llc | Internet control system and method |
JP2000357234A (ja) * | 1999-06-16 | 2000-12-26 | Canon Inc | 画像処理装置およびその方法 |
US6873723B1 (en) * | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US7123745B1 (en) * | 1999-11-24 | 2006-10-17 | Koninklijke Philips Electronics N.V. | Method and apparatus for detecting moving objects in video conferencing and other applications |
US6731799B1 (en) * | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
JP3802322B2 (ja) | 2000-07-26 | 2006-07-26 | 株式会社東芝 | 動画像内オブジェクト抽出方法及び装置 |
JP4564634B2 (ja) | 2000-08-14 | 2010-10-20 | キヤノン株式会社 | 画像処理方法及び装置並びに記憶媒体 |
JP4482778B2 (ja) * | 2000-09-11 | 2010-06-16 | ソニー株式会社 | 画像処理装置および画像処理方法、並びに記録媒体 |
US7043058B2 (en) * | 2001-04-20 | 2006-05-09 | Avid Technology, Inc. | Correcting motion vector maps for image processing |
US6999599B2 (en) * | 2002-06-07 | 2006-02-14 | Microsoft Corporation | System and method for mode-based multi-hypothesis tracking using parametric contours |
US7164784B2 (en) * | 2002-07-30 | 2007-01-16 | Mitsubishi Electric Research Laboratories, Inc. | Edge chaining using smoothly-varying stereo disparity |
US7224366B2 (en) * | 2002-10-17 | 2007-05-29 | Amx, Llc | Method and system for control system software |
US7991207B2 (en) * | 2003-12-16 | 2011-08-02 | Hitachi Medical Corporation | Method and device for extracting region including stratified region held between first and second closed regions |
-
2003
- 2003-02-14 JP JP2003037325A patent/JP3947973B2/ja not_active Expired - Fee Related
-
2004
- 2004-01-29 US US10/765,859 patent/US7409075B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004246723A (ja) | 2004-09-02 |
US20040252861A1 (en) | 2004-12-16 |
US7409075B2 (en) | 2008-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2856229B2 (ja) | 画像切り出し箇所検出方法 | |
KR102192830B1 (ko) | 트랙킹 네트워크를 포함한 CNN(Convolutional Neural Network)을 사용하여 이미지 상의 객체에 대응하는 바운딩 박스를 획득하기 위한 방법 및 이를 이용한 장치 | |
KR101670282B1 (ko) | 전경-배경 제약 조건 전파를 기초로 하는 비디오 매팅 | |
US6400830B1 (en) | Technique for tracking objects through a series of images | |
JP4564634B2 (ja) | 画像処理方法及び装置並びに記憶媒体 | |
US20040125115A1 (en) | Strobe image composition method, apparatus, computer, and program product | |
JP5595655B2 (ja) | 画像処理装置および画像処理方法 | |
US8086587B2 (en) | Information processing apparatus, method, and program | |
CN110287949A (zh) | 视频片段提取方法、装置、设备及存储介质 | |
JP6706577B2 (ja) | 修正確認方法および修正確認装置 | |
JPWO2017104372A1 (ja) | 画像処理装置、画像処理システム、画像処理方法およびプログラム | |
US20180322641A1 (en) | Moving body tracking method, moving body tracking device, and program | |
JP5251410B2 (ja) | カメラワーク算出プログラム、撮像装置及びカメラワーク算出方法 | |
JP3947973B2 (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
JP2003288588A (ja) | 画像処理装置及び画像処理方法 | |
JP5468773B2 (ja) | 画像処理装置および画像処理方法 | |
CN113673536B (zh) | 一种图像颜色提取方法、系统及介质 | |
KR101124560B1 (ko) | 동영상 내의 자동 객체화 방법 및 객체 서비스 저작 장치 | |
CN112508998B (zh) | 基于全局运动的视觉目标对齐方法 | |
US6298155B1 (en) | Apparatus and method for generating time-series data, apparatus and method for editing curves and recording medium having program recorded thereon | |
JP3175760B2 (ja) | 動画像アンカー作成システム | |
JPH09265538A (ja) | 自動追尾装置 | |
KR102151748B1 (ko) | 비디오 영상에서 사람과 배경을 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 | |
CN112396631A (zh) | 物件追踪方法及其电脑系统 | |
KR102390951B1 (ko) | 영상기반 음악작곡방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070405 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100427 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110427 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120427 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130427 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140427 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |