[go: up one dir, main page]

JP2006053921A - ダイナミックプログラミングによる境界マッティング - Google Patents

ダイナミックプログラミングによる境界マッティング Download PDF

Info

Publication number
JP2006053921A
JP2006053921A JP2005231247A JP2005231247A JP2006053921A JP 2006053921 A JP2006053921 A JP 2006053921A JP 2005231247 A JP2005231247 A JP 2005231247A JP 2005231247 A JP2005231247 A JP 2005231247A JP 2006053921 A JP2006053921 A JP 2006053921A
Authority
JP
Japan
Prior art keywords
foreground
color
region
pixel
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005231247A
Other languages
English (en)
Other versions
JP4733462B2 (ja
Inventor
Carsten Curt Eckard Rother
カート エッカード ローター カーステン
Vladimir Kolmogorov
コルモゴロフ ウラジミール
Andrew Blak
ブレイク アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006053921A publication Critical patent/JP2006053921A/ja
Application granted granted Critical
Publication of JP4733462B2 publication Critical patent/JP4733462B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/275Generation of keying signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

【課題】 ユーザーが過度に関わることなく、抽出した前景画像により効率的で改善された境界マッティングを提供する。
【解決手段】 例えば過度にユーザーが関わることを必要とせず、抽出した前景画像により効率的で改善された境界マッティングを提供する技術を開示する。本明細書で説明する境界マッティング技術は、抽出したオブジェクトの境界線に沿って、比較的連続した透明度(又はアルファ値)を生成する(例えば、色にじみおよび/又はアーチファクトを抑える)。
【選択図】 図6

Description

本発明は、一般的にデジタル画像処理、より具体的には境界マッティングに関係する。
コンピュータ技術が進化するにつれ、より強力なプロセッサと大容量の記憶装置を内蔵するコンピュータシステムがより一般的なものになってきている。このような処理能力と記憶容量の発展に伴い、デジタル画像テクノロジーの実現もより実用的になってきている。例えば、高解像度画像はより短い時間で処理できる。
ある場面のデジタル画像は、直接取得する(例えば、デジタルカメラで)か、又は従来にようにフィルムベースのカメラで撮影して、後でデジタル化してもよい(例えば、スキャナーで)。画像をデジタル形式にしたら、デジタル加工ができる。多くの場合、デジタル画像処理の最初の段階には、ある場面のある一部の選択が関わる。それから選択した部分に、デジタル技術(フィルタリング、複写、貼り付けなど)が応用できる。
現在、ユーザー関与の様々な程度によって、ある場面の前景を抽出するには、多数の技術が採用されている。しかし、抽出した前景は背景からのアーチファクトおよび/又は色にじみが含まれることがある。したがって、現在の前景抽出技術は一般的に、ユーザーが大幅に関与せずに、抽出した前景に相応に滑らかな境界を提供できていない。
このように、例えば背景からアーチファクトおよび/又は色にじみがなく、ある場面の一部のより効率的で改善された滑らかな抽出が望まれている。
例えば、ユーザーが過度に関わることなく、抽出した前景画像により効率的で改善された境界マッティングを提供する技術を開示する。本明細書で開示する境界マッティング技術は、抽出したオブジェクトの境界線に沿って、比較的連続した透明度(又はアルファ値)を生み出す(例えば、色にじみおよび/又はアーチファクトを抑える)。
一実施例において、方法は、前景領域と背景領域を有する分割画像を受信することを含む。この方法は2つの領域の境界線に沿って輪郭線を決定する。輪郭線から広がる未知の領域が決定される(つまり、アルファマップを計算する必要のある領域)。代わりに、輪郭線を、3領域マップから出発して決定することができ、輪郭線は提供される未知の領域で決定される。未知の領域の画素のアルファマップの一又は複数のパラメータに対応するエネルギー関数が定められる。エネルギー関数を最小化して、アルファマップの中心パラメータと幅パラメータを推定する。それから、推定した中心および幅パラメータに対応するアルファマップが計算される。
いくつかの実施例において、製品がコンピュータプログラム製品として提供される。コンピュータプログラム製品の一実施例は、コンピュータシステムによって読取可能で、コンピュータプログラムを符号化するコンピュータプログラム記憶媒体を提供する。コンピュータプログラム製品の別の実施例は、コンピュータシステムによって搬送波に具現され、コンピュータプログラムを符号化するコンピュータデータ信号の形で提供できる。
コンピュータプログラム製品は、コンピュータプロセスをコンピュータシステムで実行するためのコンピュータプログラムを符号化する。コンピュータプロセスは、前景領域と背景領域を有する分割画像を受信する。このプロセスは2つの領域と輪郭線から広がる未知の領域(つまり、アルファマップを計算する必要のある領域)の境界線に沿って輪郭線を決定する。代わりに、輪郭線は3領域マップから出発して決定でき、輪郭線は提供された未知の領域で決定される。新たな未知の領域の画素のアルファマップの一又は複数のパラメータに対応するエネルギー関数が定められる。エネルギー関数を最小化して、アルファマップの中心パラメータと幅パラメータを推定する。それから、推定した中心および幅パラメータに対応するアルファマップを計算する。
本明細書では、他の実施例も説明、列挙される。
以下の開示は一般的に、デジタル画増処理を改善するための技術を説明する。より具体的には、ユーザーが過度に関わることなく、ある場面の抽出した前景部分に適用できる改良された境界マッティングのための技術を開示する。さらに、本明細書で述べる技術は、ある画像の所要のあらゆる部分にも適用できることは予見される(例、オブジェクト、前景など)。
本明細書で説明する境界マッティング技術は、アーチファクト(例、図2A〜Bのアーチファクトを参照)を抑えるため、および/又は例えば背景からの色にじみを抑えるなど前景の色の回復が可能なことが予見される。一施例において、境界マッティングはオブジェクトの境界線周囲のアルファマットと前景の画素の色を同時に推定して、滑らかなオブジェクトの境界線に沿ったにじみおよび/又はミクセル(mixed pixels)の悪影響を抑えるために適用できる。
(概要)
図1は、ある画像の一部を抽出するための例示的なフロー図100を図示する。図1に図示されるように、画像102は領域104内に所要のオブジェクトを含む。領域104内のオブジェクトを抽出するために、ユーザーはオブジェクトを囲むための長方形(又は、投げ縄形、多角形、三角形、台形、楕円形、円形等などの別の形状)を描くことによって、所要の領域(104)を選択できる。従って、ユーザーは実施例において画像102の2点(つまり、始点と終点)を定義することによって、所要の部分を選択する。また、ユーザーは必ずしも厳密に問題の部分をトレースする必要はない。
領域104が選択されたら、領域104内の問題のオブジェクトもしくは部分を、本明細書で述べる技術により抽出することが可能である。(106)(例えば、図5および6を参照)。一実施例において、抽出した部分106は別の画像に貼り付けした、その他のデジタル処理ができる(例えば、フィルタをかける、色変更などにより)。
(境界マッティング結果の概要)
図2A〜Cは、図1を参照して述べた抽出した部分106のある断片に境界マッティングを適用した後の様々な結果を図示する。図2Aはノックアウト2の先行技術に従って境界マッティングした結果を図示する。図2Bは、ベイズマット法の先行技術に従って境界マッティングした結果を図示する。図2Cは、本明細書で述べる技術に従って境界マッティングした結果を図示する(例えば、図3および4を参照)。図2Cに図示するように、本明細書で述べる技術は図2A〜Bの技術のいずれよりも明瞭なマットを提供する。
(境界マッティング技術)
図3は、オブジェクトの境界線に沿って連続した透明度(又はアルファ値)を生成するための例示的な境界マッティング法300を図示する。境界マッティングは、オブジェクトの境界線の周りのアルファマットと前景の画素の色を同時に推定して、滑らかなオブジェクトの境界線に沿ったにじみおよび/又はミクセル(mixed pixels)の悪影響を抑えるためにも適用できる。従って、アルファマップは、アーチファクト(例えば図2A〜Bのアーチファクトを参照)を生成することなく、および/又は背景から色にじみせずに前景の色の回復のために推定できる。
図3、4Aおよび4Bを参照すると、ある場面が2領域マップ又は3領域マップ(302)に分割されると、輪郭線C408を、分割した場面の分割境界線にポリラインをフィットすることにより(又は他の曲線フィッティング技術)決定する(304)。2領域マップは2つの領域、つまり前景402(TF)と背景404(TB)を含む。3領域マップは未知の領域406(TU)といわれる追加の領域を含む。3領域マップの場合、輪郭線C408は未知の領域406(TU)にある。2領域マップ分割を図5〜8を参照して詳しく述べるが、反復型ハードセグメンテーション(例えば、画素×画素)を適用することにより得られる。
2領域マップに関し、未知の領域406(TU)は、さらに帯状の幅の画素集合から輪郭線Cの両側のw個の画素を差し引きして計算する(オプション工程306)。一実施例において、wを6画素の幅に定めることができる。このため、この手順は、前景402(TF)と、背景404(TB)と、未知の領域406(TU)から構成される3領域マップを定義する。
代わりに、工程302に関して述べたように、方法300はこの3領域マップを入力として受信できる。そのため、輪郭線Cは、例えば細線化を使うなど、多数の異なる技術を使って計算できる。
Uの各画素のαマップ又はαプロファイル、つまりαn,n∈TUを定義するために、少数のパラメータに依存する比較的単純なモデルをTU内のαマップの形状について、想定できる。モデルの最適なパラメータを求めるために、エネルギー関数を定義できる。このエネルギー関数は正則化を含むことができる(例えば、推定したαマップの質を高めるため)。ダイナミックプログラミング(DP)アルゴリズムを使用してエネルギー関数を最小化する、つまりモデルのパラメータ、そのためTU全体でのαを計算することができる。
より具体的には、t=1,...,Tを輪郭線Cのパラメータ表示とすると、曲線Cは一実施例において閉じているため、これは期間Tで周期的に現れる。図4Bに図示するように、各画素n∈TUにインデックスt(n)を割り当てる。αマップをソフトステップ関数gになるようにとる(図4C)。αn=g(rn;Δt(n),σt(n))で、ここでrnは画素nから輪郭線Cまでの距離である(例えば、図4Bを参照)。パラメータΔ、σは、αマップの0から1までの移行のそれぞれ中心と幅を決定する(例えば、図4Cを参照)。同じインデックスtをもつすべての画素はパラメータΔt、σtの値を共有すると想定する。これらのパラメータ値は、例えばt全体でDPを使って、以下のエネルギー関数を最小化することによって推定できる。
、ここで
は、以下のとおりのスムージング正則化項である。
スムージング正則化項
の役割は、曲線Cに沿って、tが増加したときにα値を滑らかに変化させるのを促すことである(例えば、λ1=50かつλ2=103をとる)。DP計算のために、Δtの値は30のレベルに離散化し、σtは10のレベルに離散化できる。全体の平滑度項
はtからt+1に移行するために、プロファイルの数の二乗に比例した時間を必要とするであろうが、特定の正則化項は距離変換を使うことにより線形時間アルゴリズムを可能にする。輪郭線Cが閉じているとき、最小化はシングルパスDPを使っては正確には行えないが、最初のパスがt=T/2の最適なプロファイルを与えると想定して、DPの2つのパスを使って近似化する。
データ項は以下のように定義する。
上記の式で、
は平均μと共分散Σのときのzのガウス確率密度を表す。上記式の平均と共分散は、マッティングのために以下のように定義する。
ガウスパラメータμt(α)、Σt(α)、前景と背景のα=0,1は、Ft=St∩TFかつBt=St∩TBとして定義される領域FtとBtのそれぞれからのサンプル平均と共分散として推定される。ここでStは、tのとき分割境界線Cの中心にあるサイズL×Lの画素の平方領域である(例えば、L=41)。従って、このアプローチは、アルファ値が与えられたときの未知の領域の画素に、データ尤度推定値を提供する。
図3に戻って、また前述したように、エネルギー関数(E)は、スムージング正則化項(
)とデータ尤度項(
)を用いて定義される(308)。定義されたエネルギー関数を最小化することにより、αマップの中心と幅のパラメータ(それぞれΔ、σ)を推定する(310)。推定したパラメータをαマップの計算に利用する(312)。
(前景の推定)
αマップの計算に加えて(312)、境界マッティングの結果は、前景の画素の色を推定して(314)改善でき、原画の背景からの色にじみを抑える又は除去することができる。にじみは、使用する確率的アルゴリズムがミクセル(mixed pixels)から背景成分を切り離すことを目的としている。しかし、それを正確にできないために、一部の先行技術(ベイズマッティング法など、例えば図2Bを参照)で生じることがある。切り離しプロセスで残ったものが色にじみとして現れることがある。一実施例において、にじみは、前景TFから画素を借用することによって回避できる。まず、ベイズマットアルゴリズムを、画素n∈TUの前景の色
の推定値を求めるために適用できる。それから、近傍Ft(n)(前述のとおり)から、
に最も類似した画素の色を借用して、前景の色fnを作る。正則化したアルファ計算と前景の画素の借用の両方を用いて得られた境界マッティングの結果を、図2Cに図示する。
反復グラフカットを使用した前景抽出
図5は、ユーザー定義の2領域マップ又は3領域マップに適用されるグラフカットを用いて、画像の一部を抽出するための例示的な方法500を図示する。方法500では、ユーザーはまず画像を2領域マップ又は3領域マップに分割する(502)。一実施例において、ユーザーの関与の必要を少なくすることによってユーザーを支援するために、2領域マップ(3領域マップの代わりに)を利用することが予見される。2領域マップ分割では、ユーザーは背景部分と未知の部分(本明細書で詳しく述べるように、それぞれTB、TUはBおよびU)を定義できる。3領域マップ分割では、ユーザーは画像の3領域マップを手で初期設定できる。3領域マップは領域TB、TU、およびTFを含み、ここでTBとTFはそれぞれ背景領域と前景領域で、TUは残りの領域(未知の領域)である。簡素化のために、TB、TU、およびTFは本明細書において、それぞれB、U、およびF領域と呼ぶことがある。ユーザーはTBとTUを供給することによって2領域マップを初期設定できる(図1を参照して述べたように)。さらに、TUおよびTFは当初同じ値をもつ(例えば、図1の方形(104)の内部)。画像データは以下に述べるようにモデル化できる。
グラフカットのためのエネルギーの指定
画像は、それぞれ色空間にある画素znを含むと考える。色空間は赤緑青(RGB)色空間でよい。混合ガウスモデル(GMM)のような確率分布などの分布を用いて、色空間における色分布を実装できる。例えば、各GMM(1つが背景用で1つが前景用)をK成分(例K=5)をもつ全相関混合正規確率分布と考えることができる。また、ヒストグラムを利用してもよい(例えば、白黒実装の場合)。分布の代わりに、識別法を用いて、ある色分布に属する画素の尤度を定義することもできる。以下詳細に述べるように、他の画像特徴や特性を用いることもできる。
GMMを扱いやすくするために、最適化フレームワークでは、kn∈{1,...,K}として追加ベクトルk={k1,...kn,...,KN}を用いて、不透明度値(これは画像のハードセグメンテーションを表す)としてαn=0又は1に従い、各画素に固有のGMM成分(背景又は前景モデルのうちのいずれかから1成分)を割り当てる。
そのため、GMM成分はTUの各nの画素に、以下のように割り当てることができる。
図5を参照して、前景分布と背景分布の特性を判断する(504)。これら特性は、ユーザーが502で定義する手元、前景および/又は背景の領域に関する情報を含むことができる。色、にじみ等などの多くの様々な特徴も特性として利用できることが予見される。一実施例において、GMMパラメータは以下詳細に述べるようにデータzから分かる。
分割のギブスのエネルギーは以下のように定義できる(506)。
ここでパラメータ
は画像の前景および背景分布(例えば、工程504で分かる)を表し、Vは色空間のユークリッド距離で計算するコントラスト項を使った平滑度項であり、Uは不透明度分布
のデータzへの適合度を評価し、パラメータ
を与えて、色GMMモデルを考慮すると、以下の通りになる。
ここで
で、
はガウス確率分布、
は混合加重係数であり、そのため(定数まで含めて)以下のようになる。
そのため、モデルのパラメータは次のようになる。
(したがって、モデルのパラメータは、背景および前景分布の2Kガウス成分の加重π、平均μ、共分散Σである。)。平滑度項V項は次のように計算する(定数項を色空間のユークリッド距離を用いて計算する場合)。
ここでCは隣接する画素対の集合である。定数β=0のとき、平滑度項は、定数γで決まる程度まで、あらゆる場所で平滑度を促す単によく知られたイジングプライヤ(Ising Prior)である。一実施例において、βを0より大きくして、ハイコントラストの領域で平滑への傾向を緩和してもよい。定数βは次のように決めることができる。
ここで<(zm−zn2>はある画像サンプルにおける期待値を表す。一実施例において、このようなβの選択が、Vの指数項を適切にハイコントラストとローコントラストに切り換えさせる。
前述のエネルギーモデルを考慮に入れると、分割は大域最小値として以下のように推定できる。
従って、最小化は標準最小カットアルゴリズムを用いて行える。一実施例において、ワンショット最小カット推定アルゴリズムの代わりに、推定とパラメータ学習を交互にする反復技術を用いる(次項で詳細に述べる)。方法500は前景および背景部分の計算によって続け(508)、これがエネルギー最小化の結果
となる。3領域マップ領域TBのすべての画素を背景に割り当て、TFのすべての画素を前景に割り当てる。TUの画素は、結果
によって、前景又は背景のいずれかに割り当てる。
反復エネルギー最小化による分割
図6は、反復グラフカットを用いて画像の部分を抽出するための例示的な方法600を図示する。方法600への入力は、背景部分と前景部分と図5を参照して述べたような特性であり(602)、さらにユーザー定義の2領域マップ又は3領域マップである。前景および背景部分を用いて、前景および背景特性を更新する(604)(例えば、図5の工程508で計算した部分に基づいて)。この更新プロセスは以下詳細に述べる。以下詳細に述べるように、前景および背景特性は、更新された前景および背景部分(最初に計算した背景および前景部分ではなく)に基づいて更新することもできる。
更新した前景および背景特性に基づいて(604)、前景および背景部分を更新する(606)。例えば、更新の工程は、最小カットアルゴリズムを実行して行うことができる(例えば、図5を参照して述べたワンショットバージョンや反復バージョン)。このプロセスは、新たな前景又は背景ラベルを推測する未知の領域Uを決定するために、初期のユーザー定義の2領域マップ又は3領域マップを使う。ユーザーインタラクションの場合(以下を参照)、ユーザーが編集した新たな2領域マップ又は3領域マップを使う。
方法600は、収束が得られたと判断されるまで(608)、工程604から606を繰り返す。一実施例において、コンピュータプログラム(図10を参照して述べるものなど)が収束が得られたかどうかを判断する(例えば、閾値を設定して)。収束が得られたと判断されたら、前景および/又は背景部分が出力される(610)。従って、方法600は、一実施例において前景および背景特性と前景および背景部分を繰り返し更新することにより、ある画像の所要の部分を提供する。
一実施例において、方法600の構造が、適切な収束特性(つまり、極小値に対し)を保証する。これは反復最小化の工程604から606のそれぞれが、
という3つの変数のセットに対して順番に全エネルギーEの最小化になると示せるからである。そのため、Eは単調に減少し、これは以下詳細に述べるように、実際図8に図示される。
反復最小化は、ワンショットグラフカットアプローチに比べ、分割タスクを完了するのに必要なユーザーインタラクションの量を減らせることが予見される。これは2つの方法で明らかである。まず、初期設定と最適化の後に必要なユーザー編集の程度が減る。次に、初期のインタラクションは、例えば以下に説明するようにユーザーにより完全にラベリングしなくてよいことから、より簡単にできる。
まとめると、初期の3領域マップのTU領域から新たにラベル付けした画素を用いて、前述の色GMMパラメータ
を精緻化する。そして、反復エネルギー最小化で、不透明度
つまり前景および背景部分の自動精緻化ができる。
前景および背景特性のモデル化と更新
図7は、前景および背景特性(例えば、図5の工程504を参照して述べたような)を決定するための例示的な方法700を図示する。2領域マップ又は3領域マップの初期設定の後(図5を参照して述べたように)、モデル成分kn∈{1,...,K}を、各画素nに割り当てる(702)。工程702は、各画素nのkn値の単純数え上げ法により行うことができる
(つまり、
)。
モデル化パラメータの集合(例えば、ガウス分布)を、データzから以下のように求める(704)。
工程704は、以下のように、ガウス分布のパラメータ集合の推定手順として実施できる(これは期待値最大化(EM)としても知られる)。例えば前景モデルのあるGMM成分kの場合、画素の部分集合F(k)={zn:kn=kかつαn=1}が定義される。平均μ(α,k)と共分散Σ(α,k)は、サンプルの平均として標準的な方法で推定し、F(k)の画素の値の共分散と加重は、次のように推定する。
ここで、|S|は集合Sのサイズを表す。
モデルのパラメータを計算した後、画素はモデル成分kn∈{1,...,K}に再割り当てできる。一実施例において、工程702および704を、収束(706)が得られるまで繰り返す。従って、この方法は、一実施例において極小値まで収束することを保証する。
方法700の出力(708)はモデルのパラメータである(つまり、前景又は背景いずれかの特性)。この繰り返しアルゴリズムは、一実施例において前景と背景の特性を得るために個別に実施する。
反復最小化の収束
図8Aは、エネルギーEの例示的な単調減少と対応する背景および前景の分離を図示する。そして、初期設定時(図8B)と収束後(図8C)のRGB色空間(赤と緑を表示する側面)のGMMが図示されている。背景(例、802)と前景(例、804)の両方に5混合成分に等しいKを使用した。当初(図8B)、GMMは両方ともかなり重なり合っていたが、前景/背景のラベリングが正確になるにつれて、収束後(図8C)にはよりよく分離する。
ユーザーインタラクションと不完全な3領域マップ
反復最小化方法700で、ユーザーインタラクションの使いやすさを増すことができる。特に、不完全なラベリングが実行可能になり、完全な3領域マップTの代わりに、ユーザーはTF=0としたまま背景領域TB、つまり2領域マップを指定するだけでよい(例えば、図2の工程502を参照して述べたように)。厳密な前景ラベリングは一切必要ない。
一実施例において、反復最小化(図7)は、この不完全性を、後述するように後で取外せる一部の画素に仮のラベルをつけることによって処理する。
その後のユーザー編集
初期の不完全なユーザーラベリングは、多くの場合完全な分割を自動的に完了させるのに十分であることが予見される。代わりに、画素のブラッシング、それを固定した前景又は固定した背景のいずれかに拘束して、その後ユーザー編集を行ってもよい。ブラッシングの後、図5のようなワンショット分割を適用できる。さらに、ユーザー編集後に、色モデルも更新するオプションの「精緻化」を適用してもよい。つまり、反復グラフカットは図6に関して述べるように適用されるということである。これが、一部の実施例で有益な方法で編集操作の効果を高める。さらに、分割は、知能ハサミ(intelligent scissors)(別名、ライブワイヤ(live wire)又はマグネット投げ縄(magnetic lasso))などの既存のツールで変更できることが予見される。
一実施例において、ユーザー編集を適用して、オブジェクト抽出を改善できる。例えば、ユーザー編集を次のように適用できる。(1)前景から背景への移行部分でコントラストが低い領域が存在する場所、(2)真の前景および背景分布が色空間で部分的に重なり合っているように見える状況、又は(3)選択したユーザーの方形内の背景素材が、背景領域にたまたま十分に現れない場合。
図9に例示的なケースを示す。初期のユーザーインタラクションと分割の後(それぞれ、902と904)、その後のユーザー編集(906)が所要の結果を提供する。一実施例において、間違ってラベル付けしたエリアの部分だけを大まかにブラッシングすればよい(906)。ブラッシングの後、推定工程706を適用して、所要の結果が得られる、つまり不正確にラベル付けしたエリアでブラッシングしたラベル(906から)を適切に伝播する。
ハードウェアの実装
図10は、本明細書で説明する技術を実施するために使用できる一般的なコンピュータ環境1000を図示する。例えば、コンピュータ環境1000を利用して、これ以前の図に対して述べたタスクの実施に関連した命令を実行できる。コンピュータ環境1000はコンピューティング環境の単なる1例であり、使用の範囲やコンピュータおよびネットワーク・アーキテクチャの機能性に関して、制限を示唆するつもりはない。コンピュータ環境1000を、例示的なコンピュータ環境1000に図示される成分のいずれか1つ又はその組合せに関して、従属性又は必要条件をもつと解釈してはならない。
コンピュータ環境1000は、コンピュータ1002の形態の汎用コンピューティングデバイスを備える。コンピュータ1002のコンポーネントは、一又は複数のプロセッサもしくはプロセッシングユニット1004(オプションで、暗号プロセッサ又は共同プロセッサを備える)と、システムメモリ1006と、プロセッサ1004などの様々なシステムコンポートントをシステムメモリ1006に連結するシステムバス1008とを備えるが、それだけに限定されない。
システムバス1008は、メモリバスやメモリコントローラー、周辺バス、アクセラレイテッドグラフィックスポート(グラフィック専用高速バス)、様々なバスアーキテクチャのいずれかを使用するプロセッサやローカルバスなど、数種類のバス構造のいずれか一又は複数を表す。例として、前記アーキテクチャとして、ISA(Industry Standard Architecture)バス、MCA(Micro Channel Architecture)バス、拡張ISA(EISA)バス、VESA(Video Electronics Standards Association)ローカルバス、メザニン(Mezzanine)バスとしても知られるPCI(Peripheral Component Interconnects)バスがあげられよう。
コンピュータ1002は典型的には、様々なコンピュータ読取可能媒体を備える。前記媒体はコンピュータ1002からアクセス可能な利用できるあらゆる媒体で、揮発性および不揮発性媒体、取外し可能および取外し不可能な媒体のどちらも含む。
システムメモリ1006は、ランダムアクセスメモリ(RAM)1010などの揮発性メモリ形態、および/又は読取専用メモリ(ROM)1012などの不揮発性メモリの形態のコンピュータ読取可能媒体を備える。起動時などにコンピュータ1002内のエレメント間で情報を伝送するのに役立つ基本ルーチンを内蔵する基本入出力システム(BIOS)1014がROM1012に記憶される。RAM1010は典型的には、プロセッシングユニット1004に即座にアクセス可能な、および/又はプロセッシングユニット1004で現在動作しているデータおよび/又はプログラムモジュールを内蔵する。
コンピュータ1002は、他の取外し可能/取外し不可能な、揮発性/不揮発性のコンピュータ記憶媒体を備えてもよい。例として、図10は、取外し不可能な不揮発性磁気媒体(図示せず)に対して読取りと書き込みをするためのハードディスクドライブ1016と、取外し可能な不揮発性磁気ディスク1020(例えば、「フロッピー(登録商標)ディスク」)に対して読取りと書き込みをするための磁気ディスクドライブ1018と、CD−ROM、DVD−ROM、又はその他の光学媒体などの取外し可能な不揮発性光学ディスク1024に対して読取りおよび/又は書き込みをするための光学ディスクドライブ1022を図示する。ハードディスクドライブ1016、磁気ディスクドライブ1018、および光学ディスクドライブ1022はそれぞれ、一又は複数のデータ媒体インターフェース1026でシステムバス1008に接続される。代わりに、ハードディスクドライブ1016、磁気ディスクドライブ1018、および光学ディスクドライブ1022は、一又は複数のインターフェース(図示せず)によりシステムバス1008に接続することができる。
ディスクドライブとその関連のコンピュータ読取可能媒体は、コンピュータ読取可能命令、データ構造、プログラムモジュール、およびコンピュータ1002のその他のデータの不揮発性記憶装置となる。例はハードディスク1016、取外し可能磁気ディスク1020、および取外し可能光学ディスク1024を図示しているが、磁気カセットやその他磁気記憶装置、フラッシュメモリーカード、CD−ROM、DVD(digital versatile disks)やその他光学記憶装置、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、電気消去及びEEPROM(electrically erasable programmable read−only memory)等など、コンピュータがアクセス可能なデータを記憶できる他の種類のコンピュータ読取可能媒体も、例示的なコンピューティングシステムおよび環境を実施するのに利用できることは理解されるべきである。
ハードディスク1016、磁気ディスク1020、光学ディスク1024、ROM1012、および/又はRAM1010には、例としてオペレーティングシステム1026、一又は複数のアプリケーションプログラム1028、他のプログラムモジュール1030、およびプログラムデータ1032を始めとし、任意の数のプログラムモジュールが記憶できる。前記オペレーティングシステム1026、一又は複数のアプリケーションプログラム1028、他のプログラムモジュール1030、およびプログラムデータ1032(又はそのいくつかの組合せ)のそれぞれは、分散ファイルシステムをサポートする常駐コンポーネントの全部もしくは一部を実装できる。
ユーザーはキーボード1034やポインティングデバイス1036(例えば、「マウス」)などの入力デバイスを介して、コマンドと情報をコンピュータ1002に入力できる。その他の入力デバイス1038(具体的には図示せず)としては、マイクロフォン、ジョイスティック、ゲームパッド、衛星アンテナ、シリアルポート、スキャナー、および/又は同様の物があげられよう。上記およびその他の入力デバイスは、システムバス1008に連結される入出力インターフェース1040を介してプロセッシングユニット1004に接続されるが、パラレルポート、ゲームポート、又はユニバーサルシリアルバス(USB)などの他のインターフェースやバス構造で接続してもよい。
モニター1042又は他の種類のディスプレイ装置も、ビデオアダプタ1044などのインターフェースを介してシステムバス1008に接続できる。モニター1042に加えて、他の出力用周辺機器として、入出力インターフェース1040を介してコンピュータ1002に接続できるスピーカー(図示せず)やプリンター1046などのコンポーネントがあげられよう。
コンピュータ1002は、リモート・コンピューティング・デバイス1048などの一又は複数のリモートコンピュータへの論理接続を使用して、ネットワーク接続環境で動作できる。例として、リモート・コンピューティング・デバイス1048は、パーソナルコンピュータ、携帯型コンピュータ、サーバー、ルーター、ネットワークコンピュータ、ピアデバイスやその他共有ネットワークノード、ゲーム機などがあろう。リモート・コンピューティング・デバイス1048は、コンピュータ1002に関連した本明細書で述べる要素および特徴の多くもしくはすべてを内蔵できる携帯型コンピュータとして図示される。
コンピュータ1002とリモートコンピュータ1048の論理接続は、ローカルエリアネットワーク(LAN)1050と汎用広域ネットワーク(WAN)1052として図示される。前記ネットワーク接続環境は、職場、企業内コンピュータネットワーク、イントラネット、およびインターネットにおいて一般的である。
LANネットワーク接続環境に実装するとき、コンピュータ1002はネットワークインターフェース又はアダプタ1054を介してローカルネットワーク1050に接続される。WANネットワーク接続環境に実装するとき、コンピュータ1002は典型的には、モデム1056又は広域ネットワーク1052で通信を確立するための他の手段を備える。モデム1056は、コンピュータ1002の内部にあっても外部接続してもよいが、入出力インターフェース1040又はその他適切なメカニズムを介してシステムバス1008に接続できる。図示するネットワーク接続は例示的なものであり、コンピュータ1002と1048の間の通信リンクを確立する他の手段も採用できることは理解されるべきである。
コンピューティング環境1000とともに図示するもののようなネットワーク接続環境において、コンピュータ1002に関連して描かれるプログラムモジュール、もしくはその一部は、リモートメモリデバイスに記憶できる。例として、リモートアプリケーションプログラム1058がリモートコンピュータ1048のメモリ装置に常駐する。分かりやすくするために、アプリケーションプログラムや、オペレーティングシステムなどのその他実行可能プログラムコンポーネントが本明細書では個別のブロックとして図示されているが、前記プログラムやコンポーネントは様々な場合においてコンピューティングデバイス1002の様々な記憶コンポーネントに存在し、コンピュータのデータプロセッサで実行されることは認められる。
一又は複数のコンピュータやその他のデバイスで実行するプログラムモジュールなど、コンピュータ実行可能命令の一般的な状況において、様々なモジュールや技術が本明細書で説明できる。一般的に、プログラムモジュールは、特定のタスクを実行したり、特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。典型的には、プログラムモジュールの機能性は、様々な実装に相応しいように組合せ又は分散できる。
これらモジュールおよび技術の実装は、ある形態のコンピュータ読取可能媒体に記憶、又は伝送できる。コンピュータ読取可能媒体は、コンピュータでアクセス可能な利用できるあらゆる媒体が考えられる。限定するのではなく、例示すると、コンピュータ読取可能媒体は、「コンピュータ記憶媒体」と「通信媒体」から構成できる。
「コンピュータ記憶媒体」には、コンピュータ読取可能命令、データ構造、プログラムモジュール、又はその他のデータなどの情報を記憶するためのあらゆる方法又は技術で実施される揮発性および不揮発性、取外し可能および取外し不可能な媒体が含まれる。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュメモリやその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)又はその他光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置又はその他磁気記憶装置、あるいは所望の情報を記憶するために使え、コンピュータでアクセスできるあらゆるその他の媒体が含まれるが、それだけに限定されない。
「通信媒体」には、代表的にはコンピュータ読取可能命令、データ構造、プログラムモジュール、搬送波やその他伝達メカニズムなどの変調データ信号におけるその他のデータが含まれる。通信媒体はあらゆる情報配信媒体も含まれる。「変調データ信号」という用語は、その特徴集合のうち一又は複数をもち、又は信号の情報を符号化するためのような方法で変更した信号を意味する。限定するものではなく、例示すると、通信媒体には、ワイヤードネットワークやダイレクトワイヤ接続などのワイヤード媒体、音響、無線周波数(RF)、赤外線(IR)、ワイヤレス標準規格に準拠した製品(例えば、IEEE 802.11bのワイヤレスネットワーク接続(Wi−Fi)、セルラー、ブルートゥース使用可能媒体、およびその他ワイヤレス媒体が含まれる。上記いくつかの組合せも、コンピュータ読取可能媒体の範囲に含まれる。
ある画像の一部を抽出するための例示的なフロー図を示す図である。 図1を参照して述べた抽出した部分106の断片に境界マッティングを適用した後の様々な結果を示す図である。 図1を参照して述べた抽出した部分106の断片に境界マッティングを適用した後の様々な結果を示す図である。 図1を参照して述べた抽出した部分106の断片に境界マッティングを適用した後の様々な結果を示す図である。 オブジェクトの境界に沿って連続する透明度(又はアルファ値)を生成するための例示的な境界マッティング法を示す図である。 3領域マップに分割された原画を示す図である。 輪郭線Cに関連した輪郭線のパラメータ化と距離マップの表記法を示す図である。 図4Aの画像に対応する中心Δ、幅σのときのαプロファイルgのソフトステップ関数を示す図である。 ユーザー定義の2領域マップ又は3領域マップに適用されるグラフカットを使って画像の一部を抽出するための例示的な方法を示す図である。 反復グラフカットを使って画像の一部を抽出するための例示的な方法を示す図である。 前景および背景特性の判断のための例示的な方法を示す図である。 (A)はエネルギーEを示す図であり、(B)は初期のエネルギーEに対応する背景および前景の分離を示す図であり、(C)は収束したエネルギーEに対応する背景および前景の分離を示す図である。 ユーザー編集の例示的な結果を示す図である。 本明細書で説明する技術を実装するために使える一般的なコンピュータ環境を示す図である。

Claims (28)

  1. 前景領域と背景領域を有する分割した画像を受信することと、
    前景領域と背景領域との境界線に沿って輪郭線を判断することと、
    輪郭線から広がる未知の領域の画素のアルファマップの一又は複数のパラメータに対応するエネルギー関数を定義することと、
    定義したエネルギー関数を最小化することによって、アルファマップの中心パラメータと幅パラメータを推定すること、および
    推定した中心パラメータと幅パラメータに対応するアルファマップを計算すること、
    を備えたことを特徴とする方法。
  2. 請求項1に記載の方法において、画像を2領域マップ又は3領域マップとして分割することを特徴とする方法。
  3. 請求項1に記載の方法において、未知の領域を3領域マップで定義することを特徴とする方法。
  4. 請求項1に記載の方法において、エネルギー関数が、スムージング正則化項とデータ尤度項からなるグループから選択される一又は複数の項を有することを特徴とする方法。
  5. 請求項1に記載の方法において、輪郭線を未知の領域の境界線に曲線フィッティング技術を適用して求めることを特徴とする方法。
  6. 請求項1に記載の方法において、輪郭線を未知の領域の境界にポリラインをフィットして求めることを特徴とする方法。
  7. 請求項1に記載の方法において、分割した画像をハードセグメンテーションによって提供することを特徴とする方法。
  8. 請求項1に記載の方法において、エネルギー最小化をダイナミックプログラミングによって行うことを特徴とする方法。
  9. 請求項1に記載の方法において、画像分割をユーザーが定義することを特徴とする方法。
  10. 請求項1に記載の方法において、2領域マップ分割画像の場合、輪郭線から広がる未知の領域を決定することをさらに備えたことを特徴とする方法。
  11. 請求項1に記載の方法において、背景領域からの色にじみを抑えるために、一又は複数の前景の画素の色を推定することをさらに備えたことを特徴とする方法。
  12. 請求項1に記載の方法において、背景領域からの色にじみを抑えるために一又は複数の前景の画素の色を推定することをさらに備え、前景の画素の色を推定することが、
    第1画素の前景の色の推定値を得るためにベイズマット法を適用すること、および
    第1画素の推定した前景の色に色が最も類似した第1画素の近傍にある第2前景画素から画素の色を借用すること、
    を備えたことを特徴とする方法。
  13. 前景領域と背景領域を有する2領域マップ分割画像を受信することと、
    前景領域と背景領域との境界線に沿って輪郭線を判断することと、
    輪郭線から広がる未知の領域を決定することと、
    未知の領域の画素のエネルギー関数を定義することであって、前記エネルギー関数は、スムージング正則化項とデータ尤度項を含むグループから選択した一又は複数の項を有することと、
    定義したエネルギー関数を最小化することによって、アルファマップの中心パラメータと幅パラメータを推定すること、および
    推定した中心パラメータと幅パラメータに対応するアルファマップを計算すること、
    を備えたことを特徴とする方法。
  14. 請求項13に記載の方法において、曲線フィッティング技術を未知の領域の境界線に適用して輪郭線を求めることを特徴とする方法。
  15. 請求項13に記載の方法において、2領域マップがハードセグメンテーションで提供されることを特徴とする方法。
  16. 請求項13に記載の方法において、エネルギー最小化をダイナミックプログラミングにより行うことを特徴とする方法。
  17. 請求項13に記載の方法がさらに、背景領域からの色にじみを抑えるために、一又は複数の前景の画素の色を推定することからなることを特徴とする方法。
  18. 請求項13に記載の方法がさらに、背景領域からの色にじみを抑えるために一又は複数の前景の画素の色を推定することからなり、前景の画素の色を推定することが、
    第1画素の前景の色の推定値を得るためにベイズマット法を適用すること、および
    第1画素の推定した前景の色に色が最も類似した第1画素の近傍にある第2前景画素から画素の色を借用すること、
    からなることを特徴とする方法。
  19. 実行時に機械に動作を行うよう指示する命令を記憶する一又は複数のコンピュータ読取可能媒体であって、前記動作は、
    前景領域と背景領域を有する分割した画像を受信することと、
    前景領域と背景領域との境界線に沿って輪郭線を判断することと、
    輪郭線から広がる未知の領域の画素のアルファマップの一又は複数のパラメータに対応するエネルギー関数を定義することと、
    定義したエネルギー関数を最小化することによって、アルファマップの中心パラメータと幅パラメータを推定すること、および
    推定した中心パラメータと幅パラメータに対応するアルファマップを計算すること、
    を備えたことを特徴とする一又は複数のコンピュータ読取可能媒体。
  20. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、画像を2領域マップ又は3領域マップとして分割することを特徴とする一又は複数のコンピュータ読取可能媒体。
  21. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、未知の領域を3領域マップで定義することを特徴とする一又は複数のコンピュータ読取可能媒体。
  22. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、エネルギー関数が、スムージング正則化項とデータ尤度項からなるグループから選択した一又は複数の項を有することを特徴とする一又は複数のコンピュータ読取可能媒体。
  23. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、未知の領域の境界線に曲線フィッティング技術を適用して輪郭線を決定することを特徴とする一又は複数のコンピュータ読取可能媒体。
  24. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、分割した画像がハードセグメンテーションで提供されることを特徴とする一又は複数のコンピュータ読取可能媒体。
  25. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、エネルギー最小化をダイナミックプログラミングにより行うことを特徴とする一又は複数のコンピュータ読取可能媒体。
  26. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、画像分割をユーザーが定義することを特徴とする一又は複数のコンピュータ読取可能媒体。
  27. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、動作がさらに、背景領域からの色にじみを抑えるために、一又は複数の前景の画素の色を推定するための工程からなることを特徴とする一又は複数のコンピュータ読取可能媒体。
  28. 請求項19に記載の一又は複数のコンピュータ読取可能媒体において、動作がさらに、背景領域からの色にじみを抑えるために、一又は複数の前景の画素の色を推定することからなり、前景の画素の色を推定することが、
    第1画素の前景の色の推定値を得るために、ベイズマット法を適用すること、および
    第1画素の推定した前景の色に色が最も類似した第1画素の近傍にある第2前景画素から画素の色を借用すること、
    からなることを特徴とする一又は複数のコンピュータ読取可能媒体。
JP2005231247A 2004-08-09 2005-08-09 ダイナミックプログラミングによる境界マッティング Expired - Fee Related JP4733462B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/914,485 2004-08-09
US10/914,485 US7430339B2 (en) 2004-08-09 2004-08-09 Border matting by dynamic programming

Publications (2)

Publication Number Publication Date
JP2006053921A true JP2006053921A (ja) 2006-02-23
JP4733462B2 JP4733462B2 (ja) 2011-07-27

Family

ID=34937825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005231247A Expired - Fee Related JP4733462B2 (ja) 2004-08-09 2005-08-09 ダイナミックプログラミングによる境界マッティング

Country Status (7)

Country Link
US (1) US7430339B2 (ja)
EP (1) EP1626371B1 (ja)
JP (1) JP4733462B2 (ja)
KR (1) KR101176649B1 (ja)
CN (1) CN1734499B (ja)
AT (1) ATE485570T1 (ja)
DE (1) DE602005024216D1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007138858A1 (ja) * 2006-05-25 2007-12-06 Nec Corporation 映像の特殊効果検出装置、特殊効果検出方法、特殊効果検出プログラム及び映像再生装置
JP2010066803A (ja) * 2008-09-08 2010-03-25 Sony Corp 画像処理装置および方法、並びにプログラム
WO2011013579A1 (ja) * 2009-07-30 2011-02-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
KR101259705B1 (ko) 2011-05-04 2013-05-06 한국과학기술원 이미지 윤곽 처리 방법 및 장치
JP2014044461A (ja) * 2012-08-24 2014-03-13 Sony Corp 画像処理装置および方法、並びにプログラム
JP2016530624A (ja) * 2013-08-16 2016-09-29 ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド 仮想試着モデル画像を生成するための方法及びデバイス
JP2017126304A (ja) * 2016-01-15 2017-07-20 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2020052530A (ja) * 2018-09-25 2020-04-02 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706610B2 (en) * 2005-11-29 2010-04-27 Microsoft Corporation Segmentation of objects by minimizing global-local variational energy
KR100698845B1 (ko) * 2005-12-28 2007-03-22 삼성전자주식회사 인물 외형 추출 알고리즘을 이용한 영상 편집 방법 및 그장치
US7630541B2 (en) * 2006-05-30 2009-12-08 Microsoft Corporation Image-wide matting
US7593020B2 (en) * 2006-05-30 2009-09-22 Microsoft Corporation Image editing using image-wide matting
US20080065980A1 (en) * 2006-09-08 2008-03-13 Opera Software Asa Modifying a markup language document which includes a clickable image
US8103068B2 (en) * 2006-09-29 2012-01-24 Cornell Research Foundation, Inc. Methods and systems for reconstruction of objects
US8175409B1 (en) 2006-12-01 2012-05-08 Adobe Systems Incorporated Coherent image selection and modification
US8004536B2 (en) * 2006-12-01 2011-08-23 Adobe Systems Incorporated Coherent image selection and modification
KR100846513B1 (ko) * 2007-01-15 2008-07-17 삼성전자주식회사 영상 처리 방법 및 장치
US8131075B2 (en) * 2007-03-29 2012-03-06 Siemens Aktiengesellschaft Fast 4D segmentation of large datasets using graph cuts
US8041114B2 (en) * 2007-06-15 2011-10-18 Microsoft Corporation Optimizing pixel labels for computer vision applications
US8175384B1 (en) * 2008-03-17 2012-05-08 Adobe Systems Incorporated Method and apparatus for discriminative alpha matting
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
CN102037717B (zh) 2008-05-20 2013-11-06 派力肯成像公司 使用具有异构成像器的单片相机阵列的图像拍摄和图像处理
US8452105B2 (en) * 2008-05-28 2013-05-28 Apple Inc. Selecting a section of interest within an image
US8548251B2 (en) * 2008-05-28 2013-10-01 Apple Inc. Defining a border for an image
WO2009154951A2 (en) * 2008-05-28 2009-12-23 Apple Inc. Defining a border for an image
US8280171B2 (en) * 2008-05-28 2012-10-02 Apple Inc. Tools for selecting a section of interest within an image
US8331685B2 (en) 2008-05-28 2012-12-11 Apple Inc. Defining a border for an image
US9177218B2 (en) * 2008-09-08 2015-11-03 Kofax, Inc. System and method, and computer program product for detecting an edge in scan data
US9025043B2 (en) * 2008-09-24 2015-05-05 Nikon Corporation Image segmentation from focus varied images using graph cuts
US9355469B2 (en) 2009-01-09 2016-05-31 Adobe Systems Incorporated Mode-based graphical editing
KR100987412B1 (ko) * 2009-01-15 2010-10-12 포항공과대학교 산학협력단 멀티프레임을 고려한 비디오 오브젝트 매팅 시스템 및 방법
US8885977B2 (en) * 2009-04-30 2014-11-11 Apple Inc. Automatically extending a boundary for an image to fully divide the image
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
JP5731525B2 (ja) 2009-11-13 2015-06-10 コーニンクレッカ フィリップス エヌ ヴェ 3dビデオにおける深さ遷移の効率的な符号化
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) * 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8411948B2 (en) * 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8379919B2 (en) * 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
US8625888B2 (en) 2010-07-21 2014-01-07 Microsoft Corporation Variable kernel size image matting
US8386964B2 (en) 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8823726B2 (en) 2011-02-16 2014-09-02 Apple Inc. Color balance
US8854370B2 (en) 2011-02-16 2014-10-07 Apple Inc. Color waveform
US8760464B2 (en) 2011-02-16 2014-06-24 Apple Inc. Shape masks
CN107404609B (zh) 2011-05-11 2020-02-11 快图有限公司 用于传送阵列照相机图像数据的方法
US8855411B2 (en) * 2011-05-16 2014-10-07 Microsoft Corporation Opacity measurement using a global pixel set
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
CN103136723A (zh) * 2011-11-29 2013-06-05 方正国际软件(北京)有限公司 一种图像锯齿消除方法及系统
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9154732B2 (en) 2012-04-09 2015-10-06 Futurewei Technologies, Inc. Visual conditioning for augmented-reality-assisted video conferencing
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9100635B2 (en) 2012-06-28 2015-08-04 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays and optic arrays
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8619082B1 (en) 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
KR101373405B1 (ko) * 2012-09-17 2014-03-13 성균관대학교산학협력단 식물 영상에 대한 객체 검출 방법 및 장치
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
EP2790154A1 (en) * 2013-04-09 2014-10-15 Thomson Licensing Method and apparatus for determining an alpha value for alpha matting
KR102161052B1 (ko) * 2013-08-27 2020-09-29 삼성전자주식회사 영상에서 객체를 분리하는 방법 및 장치.
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
EP3066690A4 (en) 2013-11-07 2017-04-05 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) * 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9449395B2 (en) 2014-09-15 2016-09-20 Winbond Electronics Corp. Methods and systems for image matting and foreground estimation based on hierarchical graphs
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
KR101932487B1 (ko) * 2015-07-08 2018-12-26 주식회사 케이티 방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법, 셋톱 박스 및 시스템
CN106339997B (zh) * 2015-07-09 2019-08-09 株式会社理光 图像融合方法、设备和系统
CN105608699B (zh) * 2015-12-25 2019-03-29 联想(北京)有限公司 一种图像处理方法及电子设备
KR102212588B1 (ko) * 2016-01-04 2021-02-05 주식회사 케이티 셋톱 박스에서 수행되는 영상 처리 방법, 셋톱 박스 및 영상 처리 시스템
US10395138B2 (en) * 2016-11-11 2019-08-27 Microsoft Technology Licensing, Llc Image segmentation using user input speed
US10217224B2 (en) * 2016-12-22 2019-02-26 TCL Research America Inc. Method and system for sharing-oriented personalized route planning via a customizable multimedia approach
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
JP6945493B2 (ja) * 2018-05-09 2021-10-06 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
CN114787648B (zh) 2019-11-30 2023-11-10 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的系统和方法
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
JP7542070B2 (ja) 2020-01-30 2024-08-29 イントリンジック イノベーション エルエルシー 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
CN115082366B (zh) * 2021-03-12 2024-07-19 中国移动通信集团广东有限公司 图像合成方法及系统
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US12175741B2 (en) 2021-06-22 2024-12-24 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12340538B2 (en) 2021-06-25 2025-06-24 Intrinsic Innovation Llc Systems and methods for generating and using visual datasets for training computer vision models
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US12293535B2 (en) 2021-08-03 2025-05-06 Intrinsic Innovation Llc Systems and methods for training pose estimators in computer vision

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0959625A2 (en) * 1998-05-22 1999-11-24 Tektronix, Inc. Segmenting video images based on joint region and contour information

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3405776B2 (ja) 1993-09-22 2003-05-12 コニカ株式会社 切り抜き画像の輪郭線探索装置
US5883678A (en) * 1995-09-29 1999-03-16 Kabushiki Kaisha Toshiba Video coding and video decoding apparatus for reducing an alpha-map signal at a controlled reduction ratio
US6377269B1 (en) * 1998-05-29 2002-04-23 Robert L. Kay Automated generation of masks for photo-compositing
US6744923B1 (en) * 1999-08-30 2004-06-01 Cornell Research Foundation, Inc. System and method for fast approximate energy minimization via graph cuts
WO2001026050A2 (en) 1999-10-04 2001-04-12 A.F.A. Products Group, Inc. Improved image segmentation processing by user-guided image processing techniques
US6337925B1 (en) * 2000-05-08 2002-01-08 Adobe Systems Incorporated Method for determining a border in a complex scene with applications to image masking
JP4443784B2 (ja) * 2000-12-07 2010-03-31 株式会社エヌ・ティ・ティ・ドコモ 画像符号化・復号方法、画像符号化装置及び画像復号装置
US6839463B1 (en) * 2000-12-22 2005-01-04 Microsoft Corporation System and method providing subpixel-edge-offset-based determination of opacity
US6741755B1 (en) * 2000-12-22 2004-05-25 Microsoft Corporation System and method providing mixture-based determination of opacity
JP4596224B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US6906729B1 (en) * 2002-03-19 2005-06-14 Aechelon Technology, Inc. System and method for antialiasing objects

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0959625A2 (en) * 1998-05-22 1999-11-24 Tektronix, Inc. Segmenting video images based on joint region and contour information

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007138858A1 (ja) * 2006-05-25 2007-12-06 Nec Corporation 映像の特殊効果検出装置、特殊効果検出方法、特殊効果検出プログラム及び映像再生装置
JP2010066803A (ja) * 2008-09-08 2010-03-25 Sony Corp 画像処理装置および方法、並びにプログラム
US8346013B2 (en) 2008-09-08 2013-01-01 Sony Corporation Image processing apparatus, image processing method, and program
WO2011013579A1 (ja) * 2009-07-30 2011-02-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8649599B2 (en) 2009-07-30 2014-02-11 Sony Corporation Image processing apparatus, image processing method, and program
KR101259705B1 (ko) 2011-05-04 2013-05-06 한국과학기술원 이미지 윤곽 처리 방법 및 장치
JP2014044461A (ja) * 2012-08-24 2014-03-13 Sony Corp 画像処理装置および方法、並びにプログラム
JP2016530624A (ja) * 2013-08-16 2016-09-29 ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド 仮想試着モデル画像を生成するための方法及びデバイス
JP2017126304A (ja) * 2016-01-15 2017-07-20 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2020052530A (ja) * 2018-09-25 2020-04-02 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
KR20060048802A (ko) 2006-05-18
US20060039611A1 (en) 2006-02-23
ATE485570T1 (de) 2010-11-15
US7430339B2 (en) 2008-09-30
EP1626371A1 (en) 2006-02-15
EP1626371B1 (en) 2010-10-20
JP4733462B2 (ja) 2011-07-27
KR101176649B1 (ko) 2012-08-23
DE602005024216D1 (de) 2010-12-02
CN1734499A (zh) 2006-02-15
CN1734499B (zh) 2010-05-26

Similar Documents

Publication Publication Date Title
JP4733462B2 (ja) ダイナミックプログラミングによる境界マッティング
US7660463B2 (en) Foreground extraction using iterated graph cuts
JP4954206B2 (ja) ビデオオブジェクトのカットアンドペースト
JP5045619B2 (ja) 画像処理装置および方法、並びにプログラム
US9928601B2 (en) Automatic segmentation of hair in images
US20070013813A1 (en) Poisson matting for images
US8452087B2 (en) Image selection techniques
US9483835B2 (en) Depth value restoration method and system
US8824808B2 (en) Methods and apparatus for automated facial feature localization
US8233739B1 (en) Patch jittering for visual artifact correction
US8913830B2 (en) Multilevel image segmentation
US12079936B2 (en) Portrait editing and synthesis
US8335403B2 (en) Soft edge smoothness prior and application on alpha channel super resolution
US8879835B2 (en) Fast adaptive edge-aware matting
US7593020B2 (en) Image editing using image-wide matting
JP2006053919A (ja) 画像データ分離システム及びその方法
JP2006012166A (ja) カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス
JP2006318474A (ja) 画像シーケンス内のオブジェクトを追跡するための方法及び装置
JP6158882B2 (ja) 生成装置、生成方法、及び生成プログラム
KR20140124427A (ko) 이미지 처리 장치, 이미지 처리 방법, 및 컴퓨터 판독가능한 기록 매체
JP2010066803A (ja) 画像処理装置および方法、並びにプログラム
JP2018206260A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
CN114762004A (zh) 数据生成方法、数据生成装置、模型生成方法、模型生成装置及程序
JP2017134853A (ja) 生成装置、生成方法、及び生成プログラム
US7965301B1 (en) Color conversion preserving global and local image characteristics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080808

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090812

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100716

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101018

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101021

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101216

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110422

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees