JP2016001404A - 画像処理方法、画像処理装置およびコンピュータプログラム - Google Patents
画像処理方法、画像処理装置およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2016001404A JP2016001404A JP2014121005A JP2014121005A JP2016001404A JP 2016001404 A JP2016001404 A JP 2016001404A JP 2014121005 A JP2014121005 A JP 2014121005A JP 2014121005 A JP2014121005 A JP 2014121005A JP 2016001404 A JP2016001404 A JP 2016001404A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- image division
- information
- superpixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】ステレオ画像のように視差のある複数の画像に対する領域分割結果を概略同様にする。【解決手段】画素の位置関係と画素の特徴量の関係とに基づいて画像を複数の画素からなる領域に分割する画像分割処理を、互いに視差のある同一シーンに対応する複数の画像に対して行う画像処理方法であって、前記互いに視差のある同一シーンに対応する複数の画像の1つである第一の画像に対し、前記画像分割処理を施して第一の画像に対する画像分割情報を出力する第一の画像分割処理工程と、前記互いに視差のある同一シーンに対応する複数の画像の1つであって、前記第一の画像とは異なる第二の画像に対し、前記第一の画像分割処理工程が出力した第一の画像に対する画像分割情報を参照し、前記画像分割処理を施す第二の画像分割処理工程とを有する。【選択図】 図3
Description
本発明は、画像処理方法、画像処理装置およびコンピュータプログラムに関する。
特に、画素の特徴に応じ該特徴が類似する画素をグループ化することで画像を領域に切り分ける領域分割処理を、ステレオ画像等の同一シーンを撮影した複数の画像に対して行う画像処理方法等に関する。
特に、画素の特徴に応じ該特徴が類似する画素をグループ化することで画像を領域に切り分ける領域分割処理を、ステレオ画像等の同一シーンを撮影した複数の画像に対して行う画像処理方法等に関する。
近年、ステレオカメラもしくはステレオビデオカメラに注目が集まっている。
ステレオカメラ/ビデオは、従来の1視点からなる写真/動画に対し、複数視点から撮影することにより視差を得、被写体との間の距離、また被写体の形状等の情報を得ることができる。
ステレオカメラ/ビデオは、従来の1視点からなる写真/動画に対し、複数視点から撮影することにより視差を得、被写体との間の距離、また被写体の形状等の情報を得ることができる。
しかしながら、ステレオカメラが撮影する画像の視差より距離の情報を得る(距離推定処理)ためには非常に多くの計算を要するので、これを如何に削減するかという課題が残る。
一方、色やテクスチャ等の類似性に応じて、画像を複数の領域に分割する、領域分割処理という技術がある。これにより、画素単位で距離推定処理を行うのではなく、領域分割した領域単位で距離推定処理を行うように構成すると、計算量を削減することが期待できる。
[領域分割処理]
画像を色や模様、明るさ等の属性が同じになるように複数の領域に分割する技術として領域分割(Segmentation)手法が用いられる。これら分割された領域は、その後、領域単位で符号化処理、領域の認識が行えるため画素レベルで画像を処理する場合に比べ処理量を削減することができる。近年、組み込み機器で高解像度の画像に対して画像処理を行うケースは増えてきており、領域分割後の領域単位で処理することで、組み込み機器でも高解像度の画像に対してリアルタイムで複雑な処理ができるようになると考えられる。
画像を色や模様、明るさ等の属性が同じになるように複数の領域に分割する技術として領域分割(Segmentation)手法が用いられる。これら分割された領域は、その後、領域単位で符号化処理、領域の認識が行えるため画素レベルで画像を処理する場合に比べ処理量を削減することができる。近年、組み込み機器で高解像度の画像に対して画像処理を行うケースは増えてきており、領域分割後の領域単位で処理することで、組み込み機器でも高解像度の画像に対してリアルタイムで複雑な処理ができるようになると考えられる。
リアルタイムな領域分割処理を実現するためにいくつかの手法が提案されている。その中で、色空間(R,G,B)と座標空間(X,Y)の5次元の情報を用いて画素データをクラスタリングすることで画像を領域に分ける手法として、非特許文献1がある。非特許文献1の手法は、Simple Linear Iterative Clustering(SLIC)と呼ばれる。SLIC手法では、はじめに、クラスタの中心となる代表点を画像中に格子状に配置する。SLIC手法での代表点は色空間(R,G,B)と座標空間(X,Y)の5次元の情報を持つ。代表点はシードやクラスタ中心(cluster centroid)とも呼ばれる。SLIC手法におけるクラスタリングは、k−means法をベースとしており、各画素を格子状に配置した代表点にクラスタリングする。SLIC手法の特徴は代表点にクラスタリングする座標空間を所定範囲に限定している点である。代表点にクラスタリングされた画素の集合が分割された領域となる。この分割された領域をSuperpixelと呼ぶ。この手法は繰り返し処理があるものの画像サイズに比例した少ない演算量で処理できる特徴を持つ。
また、非特許文献1の手法をGPUで実装し、高速化を実現した手法として非特許文献2がある。非特許文献2の手法ではGPUで高速処理を実現するために階層クラスタリング方式(Hierarchical clustering scheme)を使っている。これにより高解像度画像のリアルタイムな領域分割処理を実現している。
R. Achanta, et al. " SLIC Superpixels," tech. rep., EPFL, EPFL, 2010.
C.Y. Ren, et al. "gSLIC: a real-time implementation of SLIC superpixel segmentation", University of Oxford, Department of Engineering, Technical Report, 2011.
Superpixel処理をステレオ画像に適用した場合、複数視点画像が持つ各Superpixel間の対応関係をどうやって決定するか、という課題がある。
これは、Superpixel手法の多くは、実際に人間がそうと認識する領域よりも細かい領域に分割した結果(過分割状態)を生成する。また、どのように(過)分割するか、ということに対して、Superpixel手法自体が規定していない。
これは、Superpixel手法の多くは、実際に人間がそうと認識する領域よりも細かい領域に分割した結果(過分割状態)を生成する。また、どのように(過)分割するか、ということに対して、Superpixel手法自体が規定していない。
したがって、同じシーンを概略同じ方向から撮影したステレオ画像の対自体は画像として似ているものの、それぞれのSuperpixel処理結果の分割結果が似ていない場合がある。この場合、左右視点画像のSuperpixel間の対応づけが困難になるという課題がある。
本発明は、こうした従来技術における課題に鑑みてなされたものであり、ステレオ画像のように、視差のある複数の画像に対する領域分割結果を概略同様にすることができる画像処理方法等を提供することを目的とする。
本発明の画像処理方法は、は以下の構成をとる。
すなわち、この画像処理方法は、画素の位置関係と画素の特徴量の関係とに基づいて画像を複数の画素からなる領域に分割する画像分割処理を、互いに視差のある同一シーンに対応する複数の画像に対して行う画像処理方法である。また、この画像処理方法は、前記互いに視差のある同一シーンに対応する複数の画像の1つである第一の画像に対し、前記画像分割処理を施して第一の画像に対する画像分割情報を出力する第一の画像分割処理工程を有している。さらに、互いに視差のある同一シーンに対応する複数の画像の1つであって、前記第一の画像とは異なる第二の画像に対し、前記第一の画像分割処理工程が出力した第一の画像に対する画像分割情報を参照し、前記画像分割処理を施す第二の画像分割処理工程を有する。
すなわち、この画像処理方法は、画素の位置関係と画素の特徴量の関係とに基づいて画像を複数の画素からなる領域に分割する画像分割処理を、互いに視差のある同一シーンに対応する複数の画像に対して行う画像処理方法である。また、この画像処理方法は、前記互いに視差のある同一シーンに対応する複数の画像の1つである第一の画像に対し、前記画像分割処理を施して第一の画像に対する画像分割情報を出力する第一の画像分割処理工程を有している。さらに、互いに視差のある同一シーンに対応する複数の画像の1つであって、前記第一の画像とは異なる第二の画像に対し、前記第一の画像分割処理工程が出力した第一の画像に対する画像分割情報を参照し、前記画像分割処理を施す第二の画像分割処理工程を有する。
本発明によれば、互いに視差のある同一シーンを撮影した複数の画像に対してSuperpixel処理を行う場合に、概略同様なSuperpixel処理結果(各視点画像の領域分割結果)が得られる。言いかえれば、画像中の視差のない部分を中心に、複数の画像のSuperpixelの処理結果が概略同様になる。このことにより、各画像のSuperpixel間の対応が容易にとれるようになり、Superpixel単位での処理を構成し易くなる(例えば、Superpixel単位で、被写体との距離推定を行う等)。
[実施形態1]
以下、本発明の実施形態を、図面を参照して詳細に説明する。
<画像処理装置の構成>
図1は、本発明による画像処理方法を実現可能なデータ処理装置(画像処理装置)の構成例を示すブロック図である。
データ入力部101a、101bは、画像データを入力する部分であり、公知のCCDやCMOS等のセンサー装置を備えている。本実施形態では、データ入力部101aと101bは、それぞれ互いに視差のある画像を入力する。データ入力部101a、101bより入力したデータは、後述するRAM106や、あるいはデータ保存部102に格納される。
以下、本発明の実施形態を、図面を参照して詳細に説明する。
<画像処理装置の構成>
図1は、本発明による画像処理方法を実現可能なデータ処理装置(画像処理装置)の構成例を示すブロック図である。
データ入力部101a、101bは、画像データを入力する部分であり、公知のCCDやCMOS等のセンサー装置を備えている。本実施形態では、データ入力部101aと101bは、それぞれ互いに視差のある画像を入力する。データ入力部101a、101bより入力したデータは、後述するRAM106や、あるいはデータ保存部102に格納される。
データ保存部102は、画像データを保持する部分であり、通常はハードディスク、SSD、フレキシブルディスク、CD−ROM、CD−R、DVD、Blu−ray(登録商標)、メモリーカード、CFカード、スマートメディア、SDカード、メモリスティック、xDピクチャーカード、USBメモリ等で構成される。データ保存部102には、画像データの他に、プログラムやその他のデータを保存することも可能である。あるいは、後述するRAM106の一部を、データ保存部102として用いてもよい。また、後述する通信部107により接続した機器の記憶装置を、データ保存部102として利用するというように仮想的に構成してもよい。
表示部103は、画像処理前、画像処理後の画像を表示、あるいはGUI等の画像を表示する装置で、一般的にはCRTや液晶ディスプレイ等が用いられる。あるいは、ケーブル等で接続された装置外部のディスプレイ装置であっても構わない。
入力部108は、ユーザからの指示や、データを入力する装置で、キーボードやポインティング装置を含む。なお、ポインティング装置としては、マウス、トラックボール、トラックパッド、タブレット等が挙げられる。あるいは、例えば公知のデジタルカメラ装置やプリンタ等の機器に本実施形態のデータ処理装置を適用する場合には、ボタンやダイヤル等を入力部108としてもよい。また、キーボードをソフトウェアで構成(ソフトウェアキーボード)し、ボタンやダイヤル、あるいは、先に挙げたポインティングデバイスを操作して、文字等を入力するようにしてもよい。
また、公知のタッチスクリーン装置のように、表示部103と入力部108が同一装置であってもよい。その場合、タッチスクリーンによる入力を入力部108の入力として扱うようにしてもよい。あるいは、公知のジェスチャー認識処理によりユーザの指示を受け取るよう構成する場合、入力部108は可視光線あるいは赤外線による画像を入力する入力装置と、その画像からユーザの動作を認識してコマンドに変換する装置から構成してもよい。
前者の場合、入力装置はデータ入力部101a、101bのいずれか(もしくは両方)が兼ねるのであってもよい。後者の場合、コマンドに変換する装置は図1の構成に専用の回路を追加して構成するか、あるいは後述するCPU104上で動作するソフトウェア等で構成すればよい。動作の認識方式は公知のものでよい。
CPU104は、上述した各構成の処理の全てに関わる。ROM105とRAM106は、その処理に必要なプログラム(コンピュータプログラム)、データ、作業領域等をCPU104に提供する。また、後述する処理に必要な制御プログラムがデータ保存部102に格納されている場合や、ROM105に格納されている場合には、一旦RAM106に読み込まれてから実行される。あるいは、通信部107を経由して装置がプログラムを受信する場合には、一度データ保存部102に記録した後にRAM106に読み込まれるか、直接通信部107からRAM106に直接読み込まれてから実行される。
画像処理部109は、画像処理を行う回路であり、本発明による画像処理方法を実現する回路を含む。なお、本実施形態では通常の回路により構成する例を示すが、公知のFPGAやDSP等の汎用の回路で構成するようにしてもよい。あるいは、公知のCPUやGPUとそれを制御するソフトウェアで構成するようにしてもよい。
なお、図1においては、CPUが1つ(CPU104)だけである構成だが、これを複数設けるような構成にしてもよい。
通信部107は、機器間の通信を行うためのインタフェース(I/F)である。これは例えば、公知の有線ネットワーク、USB、IEEE1284、IEEE1394、電話回線等の有線による通信方式であってもよいし、あるいは赤外線(IrDA)、IEEE802.11a、IEEE802.11b、IEEE802.11g、IEEE802.11n、IEEE802.11ac、Bluetooth(登録商標)、UWB(Ultra Wide Band)、無線電話回線、NFC等の無線通信方式であってもよい。
画像処理部(第一の画像分割処理部、第二の画像分割処理部)109は、本実施形態による画像処理を行う処理部である。この部分の処理の詳細は後述する。
なお、図1ではデータ入力部101a、101b、データ保存部102、表示部103、入力部108が全て1つの装置内に含まれるような図を示している。しかし、これらの部分が別々の機器内にあり、機器同士が公知の通信方式による通信路で接続され、全体として図1と同様の構成となるようにしてもよい。
データ処理装置のシステム構成については、上記以外にも様々な構成要素の追加等が考えられるが、本発明の主眼ではないので、詳細な説明は省略する。
データ処理装置のシステム構成については、上記以外にも様々な構成要素の追加等が考えられるが、本発明の主眼ではないので、詳細な説明は省略する。
<Superpixel処理 画像分割処理>
以下、このように構成されたデー処理装置の動作について説明する。まず、Superpixel処理(画像分割処理)について説明する。
この実施形態では、Superpixel処理として、各画素が属する分割領域を決定する処理を全分割領域のサブセットに対して行い、各画素の画像中での位置によって全分割領域のサブセットを決定する手法の一例である公知のSLIC手法を用いている。
図2のフローチャートに基づいて、SLIC手法(SLICアルゴリズム)による処理の流れを説明する。
以下、このように構成されたデー処理装置の動作について説明する。まず、Superpixel処理(画像分割処理)について説明する。
この実施形態では、Superpixel処理として、各画素が属する分割領域を決定する処理を全分割領域のサブセットに対して行い、各画素の画像中での位置によって全分割領域のサブセットを決定する手法の一例である公知のSLIC手法を用いている。
図2のフローチャートに基づいて、SLIC手法(SLICアルゴリズム)による処理の流れを説明する。
SLIC手法では、はじめに、ステップS201で代表点の初期化を行う。代表点(代表画素)は色空間(R,G,B)と座標空間(X,Y)の5次元の情報(画像分割情報)を持つ。代表点の初期化は、例えば入力画像に代表点を縦と横に間隔Sで格子状に配置し、座標空間(X,Y)の情報を設定し、その座標に対応する入力画像の画素値で色空間(R,G,B)の情報を初期化するよう構成すればよい。あるいは、座標に対応する画素だけではなく、その近傍の画素も参照して決定するように構成してもよい。またあるいは、処理外部から初期値として座標空間(X,Y)の情報、色空間(R,G,B)の情報を与えるよう構成することも可能である。その場合、S201ではRAM106やデータ保存部102等に格納されている代表点情報を読み込む処理を行う。
次に、ステップS202でクラスタリングを行う。クラスタリングでは代表点を中心に所定範囲の領域の画素との距離DSを計算する。非特許文献1ではCIE L*a*b*色空間が使われているがここではRGB色空間で説明する。k番目の代表点の色空間(R,G,B)は(rk,gk,bk)、座標空間(X,Y)は(xk,yk)とする。kは間隔Sで配置した代表点の数をKとした時、0からK−1までの値をとる。i番目の画素の色空間(R,G,B)は(ri,gi,bi)、座標空間(X,Y)は(xi,yi)とする。iは入力画像内の画素位置を表すインデックスである。距離DSの計算式を式1に示す。
式1において、mは係数であり、係数mを間隔Sで除算した値を、色空間に加算する座標空間のユークリッド距離に乗じる重みのパラメータとする。式1でインデックス(i)が0からK−1番目の代表点において、これらに対応する画素と距離計算を行い、各画素において距離が最も近い代表点を選択する。選択された代表点のインデックスをラベル値としてラベルマップを出力する。以上がステップS202の処理である。
次に、ステップS203において、代表点の更新が行われる。この代表点の更新では、各代表点に属する画素から色平均(色の類似性)と平均座標が計算される。代表点が持つ色空間(R,G,B)には、各Superpixelに属する画素の色平均、そして座標空間(X,Y)には、各Superpixelに属する画素の集合の平均座標が格納される。
なお、本例では代表点の特徴を計算するのに単純な平均を用いているが、この他になんらかの尺度で重みづけ平均により算出したり、あるいは最頻値、中央値等、他の方法で求めたりしても構わない。
次に、ステップS204において、クラスタリング(画像分割処理)が収束したかどうかをチェックする。収束したかどうかは、例えば更新前の代表点と更新後の代表点とのユークリッド距離が所定の閾値以下かどうかで判定できる。ここでは、代表点間のユークリッド距離は座標空間の情報から計算する。
本実施形態の収束判定の距離計算は、他に色空間のユークリッド距離のみ計算してもよいし、座標空間と色空間を合わせたユークリッド距離で計算してもよい。また、距離計算はユークリッド距離に限らず例えばユークリッド距離の2乗、あるいはマンハッタン距離等で計算してもよい。
なお、以上では、簡便な方法として、RGB色空間のデータを用いた例を説明したが、他の色空間を用いても構わない。例えば、 CIE L*a*b*のような均等色空間を用いるように構成するならば、色空間の距離は色差となる。
また、収束の判定に距離を使うことに限らず、繰り返し回数を3回〜10回等の固定回数とするようにしてもよい。これは、固定回数の繰り返しで十分な収束が見込める場合に適用することができる。
ステップS204で収束していないと判断された場合は、Noのフローを通り、ステップS202のクラスタリングからの処理を繰り返す。ステップS204で収束したと判断された場合はYesのフローを通ってSuperpixel生成を終了する。これにより、クラスタリングからの処理が1回以上反復して実行される。
図4は、同一シーンに対応する画像、例えばステレオ画像の例を示す図である。
図4の401と411は、それぞれ同一シーンに対応する左目画像と右目画像に相当する。画像401と画像411には、円形オブジェクト402あるいは412、三角形オブジェクト403あるいは413がキャプチャーされている。図4の例は、例えば、円形のオブジェクトは撮影位置から比較的近くに存在したので、円形オブジェクト402と円形オブジェクト412は視差(d)がついている。一方、比較的遠くにあり、三角形オブジェクト403と413には視差が(ほとんど)ない。
図4の401と411は、それぞれ同一シーンに対応する左目画像と右目画像に相当する。画像401と画像411には、円形オブジェクト402あるいは412、三角形オブジェクト403あるいは413がキャプチャーされている。図4の例は、例えば、円形のオブジェクトは撮影位置から比較的近くに存在したので、円形オブジェクト402と円形オブジェクト412は視差(d)がついている。一方、比較的遠くにあり、三角形オブジェクト403と413には視差が(ほとんど)ない。
<独立してSuperpixel処理を行う場合>
まず、図4のステレオ画像に対し、従来のように画像401と画像411に対してそれぞれ独立にSuperpixel処理を行うことを考えてみる。
図5は、図4の画像401、画像411に対し、独立にSuperpixel処理の初期化した状態を示す図である。なお、図5において、図4と同じものについては同じ符号を付与し説明を省略する。
まず、図4のステレオ画像に対し、従来のように画像401と画像411に対してそれぞれ独立にSuperpixel処理を行うことを考えてみる。
図5は、図4の画像401、画像411に対し、独立にSuperpixel処理の初期化した状態を示す図である。なお、図5において、図4と同じものについては同じ符号を付与し説明を省略する。
図2のステップS201の説明で述べたように、均等に間隔Sで格子状に、画像401に対しては代表点(代表画素情報)5010〜5057を、画像411に対しては代表点(代表画素情報)5110〜5157を配置して初期化を行う。
画像401と画像411が画角、解像度が概略同等(通常のステレオ画像は概略同等である)であり、また、分割数が同じであれば、代表点5010と代表点5110の、それぞれの画像内での相対位置は同じである。他の代表点についても同様なので、代表点5010〜5057と代表点5110〜5157は対応づけて考えることができる。
しかしながら、先に述べたように、図4または図5の例においては、円形オブジェクト402と円形オブジェクト412には視差があるので、代表点との位置関係が異なっている。
しかしながら、先に述べたように、図4または図5の例においては、円形オブジェクト402と円形オブジェクト412には視差があるので、代表点との位置関係が異なっている。
説明の単純化のため、以下、画像401と画像411は円形オブジェクト402および円形オブジェクト412の視差による位置の違い以外は差異がないものとして説明する。
例えば、画像401の代表点5033は、円形オブジェクトの402の外にあるのに対し、それに対応する画像411の代表点5133は円形オブジェクト412の内側に位置する。したがって、画像401の代表点5033の色空間情報は背景を構成する画素の色に近いものになり、画像411のSuperpixel処理においては代表点5133の色空間情報は円形オブジェクト412を構成する画素の色に近いものになる。
その場合、画像401の代表点5033が含まれる矩形の中にある画素の大半(円形オブジェクト402を構成する画素以外の画素)は代表点5033と同じインデックスが付与される(代表点5033に対応するクラスタに属する)。
一方、画像411の代表点5133が含まれる矩形の中にある画素の大半は、円形オブジェクト412を構成する画素であり、これらは代表点5133と同じインデックスが付与される(代表点5133に対応するクラスタに属する)。
この時、画像411の代表点5133が含まれる矩形の中にある画素のうち、円形オブジェクト412の上にない画素は、周囲の代表点5123、5124、5134、5144、5143に対応するクラスタに属することになる。
簡単化のため、図4および図5では背景を描いていないが、実際には背景部分の画素も何らかの色情報を持っている。したがって、上記のように背景画像が周囲のクラスタに加わることで、画像411の代表点5123、5124、5134、5144のクラスタの色情報や空間情報が、対応する画像401の代表点5023、5024、5034、5044と異なる場合がある。
これは、各代表点が、最終的に形成されるべきクラスタと無関係な初期状態にあることに由来する。この後、図2で説明した反復処理を行うことにより、代表点近傍の各画素の色情報、配置、また他のクラスタとの関係による影響を受けて代表点情報を更新していくので、周囲の状況依存で結果が大きく変わるためである。したがって、先に述べたように、これらの代表点が割り当てられた矩形領域が画像401と411とで互いにほぼ同じであっても、代表点5033、5133のクラスタ情報に差ができることは、次々と隣接する代表点に影響を与える。加えて、その影響は、さらにその周囲の代表点情報に再帰的に影響を与え、最終的に画像401と411とでSuperpixel処理の結果(画像分割情報)が大きく異なる場合がある。これは、画像401と画像411とで、人間が認識する画像としてはほぼ同じ部分(例えば視差のない画像右半分)のSuperpixel処理結果が異なる場合があるということになる。
<第1の画像のSuperpixel処理結果を利用する場合 第2の画像の初期化>
このため、以下では、まず、画像401、画像411のいずれかに対して、Superpixel処理(第1の画像分割処理工程)を行い、得られた代表点情報を、もう一方の画像のSuperpixel処理(第二の画像分割処理工程)で参照して代表点の初期化を行う。これにより、画像401と画像411とで、視差の無い部分について概略同等なSuperpixel処理結果が得られるようになる。このため、後のSuperpixel処理における反復処理の収束を高速化させることができ、処理時間、消費電力を改善することができる。
このため、以下では、まず、画像401、画像411のいずれかに対して、Superpixel処理(第1の画像分割処理工程)を行い、得られた代表点情報を、もう一方の画像のSuperpixel処理(第二の画像分割処理工程)で参照して代表点の初期化を行う。これにより、画像401と画像411とで、視差の無い部分について概略同等なSuperpixel処理結果が得られるようになる。このため、後のSuperpixel処理における反復処理の収束を高速化させることができ、処理時間、消費電力を改善することができる。
図6は、この処理を説明する図である。なお、図6において、図4、図5と同じものについては、同じ符号を付与し説明を省略する。
図6中の画像401は、図5の画像401の状態に対し、Superpixel処理を行った結果の例を示している。図5で示した初期状態の代表点に対し、空間情報が更新された代表点の状態を表している。図5の代表点の位置からの変位を、図6中では矢印で示している。
図6中の画像401は、図5の画像401の状態に対し、Superpixel処理を行った結果の例を示している。図5で示した初期状態の代表点に対し、空間情報が更新された代表点の状態を表している。図5の代表点の位置からの変位を、図6中では矢印で示している。
図6中の画像411は、画像401の代表点情報(画像分割情報)を用いて、画像411のSuperpixel処理の初期化を行った状態を示している。図6中の代表点5110〜5157は、対応する図6の代表点5010〜5057の位置情報(座標情報)を使っている。また、この時、各代表点の色情報も5010〜5057から受け継ぐようにする。
<第1の画像のSuperpixel処理結果を利用する場合 第2の画像のSuperpixel処理>
図7は、図6に示すように初期化された画像411に対し、Superpixel処理を行った結果の例を示す図である。なお、図7において、図4〜図6と同じものについては、同じ符号を付与し説明を省略する。特に、図7において画像401は画像411との対比のために示したもので、図6の画像401と同じなので、詳細な説明は省略する。
図7は、図6に示すように初期化された画像411に対し、Superpixel処理を行った結果の例を示す図である。なお、図7において、図4〜図6と同じものについては、同じ符号を付与し説明を省略する。特に、図7において画像401は画像411との対比のために示したもので、図6の画像401と同じなので、詳細な説明は省略する。
図7中の画像411において、初期化終了時の図6の状態に比べて移動した代表点は、視差のある円形オブジェクト412の近辺の代表点だけにとどまっている。
先に述べた画像401と画像411とを独立に初期化した場合との違いは、図7に示すように画像401のSuperpixel処理結果の代表点情報を参照している点である。したがって、視差のない部分(例えば画像411の右半分)については、すでに概略同等の画像である画像401のSuperpixel処理で収束状態になった代表点である。このため、画像411を独立に初期化した場合に比べ、初期代表点は比較的安定した状態(色情報も空間情報も変わりにくい状態)である。したがって、図7の画像411のSuperpixel処理結果は、視差のない部分(画像411の右半分)については、おおよそ画像401と同様なSuperpixel処理結果が得られる。視差のある部分およびその周辺(画像411の左半分)は、視差による画素値の相違に応じたSuperpixel処理結果が得られる。
<データの流れ>
図3は、本実施形態におけるデータの流れの例を示すデータフロー図である。
301および302は、画像データを入力するデータ入力部で、例えば図1のデータ入力部101a, 101bに対応する。データ入力部101a, 101bはCCDやCMOS等の公知の画像センサーであるので、Superpixel処理の前に画像処理(いわゆる現像処理等)が必要な場合、301,302はそれらの処理部を含むものである。この画像処理は、図1の構成においては画像処理部109で行うように構成するか、あるいはCPU104内にソフトウェアを用いて行うように構成する。
図3は、本実施形態におけるデータの流れの例を示すデータフロー図である。
301および302は、画像データを入力するデータ入力部で、例えば図1のデータ入力部101a, 101bに対応する。データ入力部101a, 101bはCCDやCMOS等の公知の画像センサーであるので、Superpixel処理の前に画像処理(いわゆる現像処理等)が必要な場合、301,302はそれらの処理部を含むものである。この画像処理は、図1の構成においては画像処理部109で行うように構成するか、あるいはCPU104内にソフトウェアを用いて行うように構成する。
311および312はSuperpixel処理部(第一の画像分割処理部、第二の画像分割処理部)であり、図2のフローチャートで説明した処理(第一の画像分割処理工程、第二の画像分割処理工程)を行う。Superpixel処理部311,312は、図1の構成においては画像処理部109で行うように構成するか、あるいはCPU104内にソフトウェアを用いて行うように構成する。
データ入力部301,302は互いに視差のある画像(ステレオ画像[第一の画像、第二の画像])をキャプチャーし、それぞれSuperpixel処理部311,312に出力する。
データ入力部301とSuperpixel処理部311の間の画像データ受け渡しは、公知のバスにより接続するよう構成すればよい。あるいは、データ入力部301の出力画像を図1のRAM106もしくはデータ保存部102に一旦格納し、Superpixel処理部311がそれを参照して処理を行うように構成するのであってもよい。データ入力部302とSuperpixel処理部312の間の画像データ受け渡しについても同様である。
データ入力部301とSuperpixel処理部311の間の画像データ受け渡しは、公知のバスにより接続するよう構成すればよい。あるいは、データ入力部301の出力画像を図1のRAM106もしくはデータ保存部102に一旦格納し、Superpixel処理部311がそれを参照して処理を行うように構成するのであってもよい。データ入力部302とSuperpixel処理部312の間の画像データ受け渡しについても同様である。
説明の便宜上、データ入力部301が出力する画像を第一の画像、データ入力部302が出力する画像を第二の画像と呼ぶこととする。Superpixel処理部311が第一の画像に対してSuperpixel処理を行った結果を、第一のSuperpixel処理結果と呼ぶこととする。また、Superpixel処理部312が第二の画像に対してSuperpixel処理を行った結果を第二のSuperpixel処理結果と呼ぶこととする。
第一、第二のSuperpixel処理結果は、最低限ラベルマップの情報を含めばよいが、好ましくは代表点の情報も含むよう構成し、予め定めたフォーマットでRAM106やあるいはデータ保存部102に出力される。あるいは、通信部107に対して出力し、他の機器に送信するように変形してもよい。Superpixel処理結果を格納するフォーマットは、上記の出力すべき情報を格納できるものであれば任意の形式で構わない。
また、図3では、Superpixel処理部311からSuperpixel処理部312へデータが出力できるようになっている。これは、Superpixel処理部311が、第一の画像のSuperpixel処理を行う際に作成される代表点情報(画像分割情報)をSuperpixel処理部312に渡すためのものである。Superpixel処理部311からSuperpixel処理部312への代表点情報の受け渡しは公知のバスにより接続するよう構成すればよい。あるいは、Superpixel処理部311が出力する代表点情報を図1のRAM106もしくはデータ保存部102に一旦格納し、Superpixel処理部312がそれを参照して処理を行うように構成してもよい。
<Superpixel処理部の動作>
次に、Superpixel処理部311,312の動作について説明する。
Superpixel処理部311はデータ入力部301より第一の画像を受け取り、図2のフローチャートで説明した処理を行う。この時、初期化ステップS201では、先に説明したように、第一の画像に対し代表点を縦と横に間隔Sで格子状に配置し、座標空間(X,Y)の情報を設定し、その座標に対応する入力画像の画素値で色空間(R,G,B)の情報を初期化する。
次に、Superpixel処理部311,312の動作について説明する。
Superpixel処理部311はデータ入力部301より第一の画像を受け取り、図2のフローチャートで説明した処理を行う。この時、初期化ステップS201では、先に説明したように、第一の画像に対し代表点を縦と横に間隔Sで格子状に配置し、座標空間(X,Y)の情報を設定し、その座標に対応する入力画像の画素値で色空間(R,G,B)の情報を初期化する。
続くステップS202〜S204の処理を、ステップS204の条件満たすまで反復して行い、Superpixel処理を行う。Superpixel処理が終了したら(ステップS204の判定をYesで抜けたら)、Superpixel処理部311は処理結果を出力する。これは先に述べたように、予め定めたフォーマットに従い、RAM106、データ保存部102、通信部107のいずれか(あるいはその複数)に出力する。また、Superpixel処理部311は、代表点情報(画像分割情報)をSuperpixel処理部312に出力する。
Superpixel処理部312は、データ入力部302より第二の画像を受け取り、図2のフローチャートで説明した処理を行う。この時、初期化ステップS201では、Superpixel処理部311が出力した代表点情報を参照して初期化を行う。最も簡単には、Superpixel処理部311が出力した代表点情報を初期値として用いるようにすればよいし、あるいは、Superpixel処理部311が出力した代表点情報と第二の画像を参照して初期化するようにしてもよい。
続くステップS202〜S204の処理を、ステップS204の条件満たすまで反復して行い、Superpixel処理を行う。Superpixel処理が終了したら(ステップS204の判定をYesで抜けたら)、Superpixel処理部312は処理結果を出力する。これは先に述べたように、予め定めたフォーマットに従い、RAM106、データ保存部102、通信部107のいずれか(あるいはその複数)に出力するよう構成する。
なお、本実施形態では、説明を容易にするため、Superpixel処理部311とSuperpixel処理部312を、別個の処理部として説明したが、これらを1つの処理部として構成してもよい。
なお、本実施形態では、領域分割(画像分割処理)を行う際に、画素の色情報と空間情報を用いる例を示したが、これ以外にも、例えば画素のテクスチャ特徴量やエッジ強度等、特徴を数値化した特徴量を加えるようにしてもよい。その場合、色情報による距離と空間情報による距離を重みづけ加算して全体の距離を作成したのと同様に、追加した特徴量による距離も重みづけして加算するよう構成すればよい。
また、本実施形態では、領域分割手法として、SLIC手法(SLICアルゴリズム)を用いた例について説明したが、本発明による画像処理方法等を適用可能な領域分割手法(画像分割処理)は、これに限定されるものではない。例えばk−meansアルゴリズム等の手法によって画像分割処理を行ってもよい。
また、本実施形態では、第二の画像(図4〜7の画像411)のSuperpixel処理の初期化の際に、第一の画像(図4〜7の画像401)のSuperpixel処理結果の代表点情報をそのまま使うよう構成した。しかし、例えば第二の画像の対応位置の画素値を参照して第一の画像のSuperpixel処理結果を修正し、それを用いて初期化するような変形も可能である。
また、本実施形態では、ステレオ画像(一般には2入力)を用いて説明を行ったが、本発明による画像処理方法等はそれに限定されるものではなく、例えば3視点以上である場合にも適用可能である。その場合、複数視点のうちの1視点画像を第一の画像とし、その他の視点画像を第二の画像とすればよい。
さらに、上述の図1や図3の説明では簡単化のため、画像入力手段(センサー等)を2系統持つような構成として説明したが、本発明による画像処理方法は視差のある画像があればよいので、例えば公知のプレノプティックカメラ等にも適用可能である。
上述のように、本実施形態によれば、視差のある複数視点の画像に対し領域分割を行う場合に、ある視点画像の領域分割結果を用いて他の視点画像の領域分割処理の初期化を行うことにより、各視点画像の領域分割結果が概略同様になるようにすることができる。また、領域分割結果が概略同様なので、各視点画像のもつ領域間の対応づけが容易に行えるようになる。
[実施形態2]
実施形態1においては、第一の画像のSuperpixel処理結果より代表点情報を取り出し、その代表点情報を用いて第二の画像のSuperpixel処理の初期化を行う例を説明した。しかしながら、本発明による方式は、第二の画像の初期化に用いる第一の画像の代表点情報は、第一の画像の収束した代表点情報でなくても構わない。
実施形態1においては、第一の画像のSuperpixel処理結果より代表点情報を取り出し、その代表点情報を用いて第二の画像のSuperpixel処理の初期化を行う例を説明した。しかしながら、本発明による方式は、第二の画像の初期化に用いる第一の画像の代表点情報は、第一の画像の収束した代表点情報でなくても構わない。
第一の画像のSuperpixel処理の反復処理(図2のS202およびS203の処理)において、収束のN回前(N≧1)の代表点情報(画像分割情報)を第二の画像のSuperpixel処理に渡す。その後、第一の画像のSuperpixel処理は残るN回の反復処理を行って、画像分割処理結果を出力する。第二の画像のSuperpixel処理は収束のN回前の代表点情報を用いて初期化を行い、やはりN回の反復処理を行って、画像分割処理結果を出力する。このように構成することにより、第一の画像、第二の画像のSuperpixel処理の実質の反復回数が同等になる。
これは、例えば、先に述べたように、収束の判定として、反復処理の繰り返し回数を3回〜10回等の固定回数にした場合に有効である。一般化すると、繰り返し回数がM回(1≦N<M)とした場合、第一の画像のSuperpixel処理は(M−N)回目の繰り返しを行った時点で、代表点情報(画像分割情報)を第二の画像のSuperpixel処理に渡す。その後、第一の画像のSuperpixel処理、第二の画像のSuperpixel処理ともにN回の繰り返し処理を行って終了する。この場合、第一の画像に対しては実際にM回の反復処理が行われる。一方、第二の画像に対しては、実際にはN回の反復処理だが、実質的にM回の反復処理を行ったと同様の結果が得られる。これにより第二の画像に対する反復処理に関して、処理時間、消費電力を改善することができる。
[その他の実施例形態]
本発明の目的は、以下の処理を実行することによっても達成される。すなわち、上述した各実施形態の機能を実現するコンピュータプログラムを、システム或いは装置が備えるコンピュータ(又はCPUやMPU等)が記憶媒体等から読み出して実行する処理である。この場合、記憶媒体等から読み出されたコンピュータプログラム自体が、上述した実施形態の機能を実現することになり、そのコンピュータプログラムも本発明を構成することになる。
本発明の目的は、以下の処理を実行することによっても達成される。すなわち、上述した各実施形態の機能を実現するコンピュータプログラムを、システム或いは装置が備えるコンピュータ(又はCPUやMPU等)が記憶媒体等から読み出して実行する処理である。この場合、記憶媒体等から読み出されたコンピュータプログラム自体が、上述した実施形態の機能を実現することになり、そのコンピュータプログラムも本発明を構成することになる。
101a,101b データ入力部
102 データ保存部
104 CPU
109 画像処理部
301,302 データ入力部
311,312 Superpixel処理部
102 データ保存部
104 CPU
109 画像処理部
301,302 データ入力部
311,312 Superpixel処理部
Claims (9)
- 画素の位置関係と画素の特徴量の関係とに基づいて画像を複数の画素からなる領域に分割する画像分割処理を、互いに視差のある同一シーンに対応する複数の画像に対して行う画像処理方法であって、
前記互いに視差のある同一シーンに対応する複数の画像の1つである第一の画像に対し、前記画像分割処理を施して第一の画像に対する画像分割情報を出力する第一の画像分割処理工程と、
前記互いに視差のある同一シーンに対応する複数の画像の1つであって、前記第一の画像とは異なる第二の画像に対し、前記第一の画像分割処理工程が出力した第一の画像に対する画像分割情報を参照し、前記画像分割処理を施す第二の画像分割処理工程と、
を有することを特徴とする画像処理方法。 - 前記画像分割処理は、
各分割領域を構成する画素の集合に対して該集合を代表する代表画素と各画素との間の類似性に基づき各画素が属する分割領域を決定する処理と、
決定された分割領域の代表画素の画素情報を計算する処理とを、1回以上反復する処理であることを特徴とする請求項1記載の画像処理方法。 - 前記画像分割処理は、k−meansアルゴリズムを適用した処理であることを特徴とする請求項2記載の画像処理方法。
- 前記画像分割処理は、前記各画素が属する分割領域を決定する処理を全分割領域のサブセットに対して行い、該全分割領域のサブセットとは各画素の画像中での位置によって決定することを特徴とする請求項2記載の画像処理方法。
- 前記画像分割処理は、SLICアルゴリズムを適用した処理であることを特徴とする請求項4記載の画像処理方法。
- 前記第一の画像分割処理工程は、前記画像分割処理をM回(M≧2)反復する処理を含み、(M−N)回目(1≦N<M)の前記反復処理の結果の画像分割情報を出力するとともに、その後、N回の反復処理を行った画像分割処理結果を出力し、
前記第二の画像分割処理工程は、該(M−N)回目の画像分割情報を用いて画像分割処理の初期化を行い、N回の反復処理を行った画像分割処理結果を出力する
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理方法。 - 前記画像分割情報とは、少なくとも分割領域を構成する画素の集合を代表する代表画素の色情報と座標情報とを含む情報であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理方法
- 画素の位置関係と画素の特徴量の関係とに基づいて画像を複数の画素からなる領域に分割する画像分割処理を、互いに視差のある同一シーンに対応する複数の画像に対して行う画像処理装置であって、
前記互いに視差のある同一シーンに対応する複数の画像の1つである第一の画像に対し、前記画像分割処理を施して第一の画像に対する画像分割情報を出力する第一の画像分割処理手段と、
前記互いに視差のある同一シーンに対応する複数の画像の1つであって、前記第一の画像とは異なる第二の画像に対し、前記第一の画像分割処理工程が出力した第一の画像に対する画像分割情報を参照し、前記画像分割処理を施す第二の画像分割処理手段と、
を備えることを特徴とする画像処理装置。 - コンピュータを、請求項1乃至7の何れか1項に記載の画像処理方法が有する各工程の処理を実行させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014121005A JP2016001404A (ja) | 2014-06-11 | 2014-06-11 | 画像処理方法、画像処理装置およびコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014121005A JP2016001404A (ja) | 2014-06-11 | 2014-06-11 | 画像処理方法、画像処理装置およびコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016001404A true JP2016001404A (ja) | 2016-01-07 |
Family
ID=55076967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014121005A Pending JP2016001404A (ja) | 2014-06-11 | 2014-06-11 | 画像処理方法、画像処理装置およびコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016001404A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598726A (zh) * | 2018-10-26 | 2019-04-09 | 哈尔滨理工大学 | 一种基于slic的自适应图像目标区域分割方法 |
-
2014
- 2014-06-11 JP JP2014121005A patent/JP2016001404A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598726A (zh) * | 2018-10-26 | 2019-04-09 | 哈尔滨理工大学 | 一种基于slic的自适应图像目标区域分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112348958B (zh) | 关键帧图像的采集方法、装置、系统和三维重建方法 | |
JP6445775B2 (ja) | 画像処理装置、画像処理方法 | |
EP2700040B1 (en) | Color channels and optical markers | |
JP7152705B2 (ja) | 地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復 | |
KR101620933B1 (ko) | 제스쳐 인식 메커니즘을 제공하는 방법 및 장치 | |
CN107851321A (zh) | 图像处理方法和双摄像头系统 | |
JP2016509805A (ja) | 画像ストリームの高フレームレート化 | |
JP2016520897A (ja) | 画像アウトラインを記述するシステム及び方法 | |
CN111402412A (zh) | 数据采集方法及装置、设备、存储介质 | |
JP2013168048A (ja) | 画像修正装置及びそのプログラム | |
WO2013144418A1 (en) | Image segmentation | |
CN112711984A (zh) | 注视点定位方法、装置和电子设备 | |
JP6447521B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2012014535A (ja) | 物体領域抽出システム、方法、及び、プログラム | |
JP2016086245A (ja) | 画像処理装置、画像処理システム、画像処理装置の制御方法およびプログラム | |
JP2016001404A (ja) | 画像処理方法、画像処理装置およびコンピュータプログラム | |
JP6235860B2 (ja) | 情報処理装置及びその制御方法、プログラム | |
CN110089103B (zh) | 一种去马赛克方法及装置 | |
CN115984943A (zh) | 面部表情捕捉及模型训练方法、装置、设备、介质及产品 | |
JP6717049B2 (ja) | 画像解析装置、画像解析方法およびプログラム | |
JP2016071496A (ja) | 情報端末装置、方法及びプログラム | |
JP5970387B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP6182930B2 (ja) | 奥行き制作支援装置、奥行き制作方法、及びプログラム | |
JP5994320B2 (ja) | 奥行き制作支援装置、奥行き制作支援方法、及びプログラム | |
US11202000B2 (en) | Learning apparatus, image generation apparatus, learning method, image generation method, and program |