JP2024172398A - 画像処理装置、画像処理方法及び画像処理システム - Google Patents
画像処理装置、画像処理方法及び画像処理システム Download PDFInfo
- Publication number
- JP2024172398A JP2024172398A JP2023090096A JP2023090096A JP2024172398A JP 2024172398 A JP2024172398 A JP 2024172398A JP 2023090096 A JP2023090096 A JP 2023090096A JP 2023090096 A JP2023090096 A JP 2023090096A JP 2024172398 A JP2024172398 A JP 2024172398A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- unit
- regions
- image
- luminance value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像より特定の物体を検出する際に、障害物によるオクルージョンが物体を分断していても、複数個に分かれることなく検出を行う技術を提供する。
【解決手段】画像処理装置は、入力画像を受け付ける入力部と、入力画像から特徴量を抽出する特徴量抽出部と、上記特徴量を用いて画像内の物体領域を検出する物体領域検出部と、上記物体領域における物体の端点の座標を推定する物体端点推定部と、上記入力画像上で2つの物体領域における上記端点の間を補完する軌道を算出する物体架橋部と、上記軌道上の輝度値推移より、上記2つの物体領域が同一の物体に含まれるか判定する同一物体判定部と、上記物体領域検出部の出力した物体領域を上記同一物体判定部の出力した判定結果に基づき修正する物体領域修正部と、修正された上記物体領域を出力する出力部とを含む。
【選択図】図2
【解決手段】画像処理装置は、入力画像を受け付ける入力部と、入力画像から特徴量を抽出する特徴量抽出部と、上記特徴量を用いて画像内の物体領域を検出する物体領域検出部と、上記物体領域における物体の端点の座標を推定する物体端点推定部と、上記入力画像上で2つの物体領域における上記端点の間を補完する軌道を算出する物体架橋部と、上記軌道上の輝度値推移より、上記2つの物体領域が同一の物体に含まれるか判定する同一物体判定部と、上記物体領域検出部の出力した物体領域を上記同一物体判定部の出力した判定結果に基づき修正する物体領域修正部と、修正された上記物体領域を出力する出力部とを含む。
【選択図】図2
Description
本発明は画像中の特定の物体を検出する画像処理技術に関する。
近年、カメラ等で撮像された画像の解析において、特定の物体の検出が多く行われる。物体の検出においては、障害物による当該物体の遮蔽による検出精度の低下を防ぐため、例えば特開2021-056899(特許文献1)に記載の技術がある。この広報には、「画像から検出された動体領域の位置と、画像における所定領域とに基づき、当該所定領域の少なくとも一部の色を動体領域の色に基づき補正した補正画像を生成する」という記載がある。
特許文献1では、オクルージョンが発生し得るとして設定された所定領域を分割した小領域のうち、検出対象物体と隣接している部分のみ補正される。しかしオクルージョンが広範囲にわたる場合、対象物体と隣接しないオクルージョン小領域が存在してしまう。なおかつ当該物体がオクルージョンにより分断される場合、補正画像においても物体の分断は解消されず、物体は複数個に分かれて検出される事態が想定される。
そこで本発明では、オクルージョンにより分断された物体が複数個に分かれて検出されるという課題を抑制する技術を提供することを目的とする。
上記課題を解決するために、代表的な本発明の画像処理装置、方法及びシステムの一つは、検出された二つの物体領域について両領域間の輝度値の推移を解析し、両物体が障害物により分断された単一の物体であると判定された場合には、両物体領域を統合し、当該物体の検出結果を修正するものである。
本発明の他の態様は、画像中の特定の物体を検出する画像処理装置であって、入力画像を受け付ける入力部と、前記入力画像から特徴量を抽出する特徴量抽出部と、前記特徴量を用いて画像内の物体領域を検出する物体領域検出部と、前記物体領域における物体の端点の座標を推定する物体端点推定部と、前記入力画像上で2つの物体領域における前記端点の間を補完する軌道を算出する物体架橋部と、前記軌道上の輝度値推移より、前記2つの物体領域が同一の物体に含まれるか判定する同一物体判定部と、前記物体領域検出部の出力した物体領域を前記同一物体判定部の出力した判定結果に基づき修正する物体領域修正部と、修正された前記物体領域を出力する出力部と、を含む。
本発明の他の態様は、装置が画像中の特定の物体を検出する画像処理方法であって、装置が、入力画像より物体領域を検出し、前記装置が、検出された2つの物体領域間の輝度値推移を抽出し、前記装置が、前記輝度値推移より前記2つの物体領域が同一の物体の含まれるかを判定し、前記装置が、前記判定の結果に応じて前記物体領域を修正する、ことを含む。
本発明の一態様によれば、画像上で障害物によるオクルージョンが分断する物体であっても、複数に分かれることがなく、単一の物体として検出することのできる装置、方法及びシステムを提供可能となる。
以下、添付図面に従って実施例を説明する。本明細書の一実施例は、検出された二つの物体領域について両領域間の輝度値の推移を解析し、両物体が障害物により分断された単一の物体であると判定された場合には、両物体領域を統合し、当該物体の検出結果を修正する。これにより、画像上で障害物によるオクルージョンが分断する物体であっても、単一の物体として検出することができる。
実施例1は、画像中より特定物体の領域を検出し、さらに領域間の輝度値推移を参照することで、障害物によるオクルージョンが対象物体を分断している場合にその分断を判定し、検出された物体領域を修正する画像処理装置及びその方法を提供する。
より具体的には、画像上で、障害物のオクルージョンにより対象物体の領域が複数個に分かれて検出された場合に、分断された物体領域間を結ぶ線を算出し、その線上の輝度値推移からオクルージョンによる分断の有無を判定する。これにより同一の物体に由来する物体領域を統合することができ、物体の検出において過検出を抑制することが可能となる。様々な種類の対象物体の検出が可能であり、例えば、棒状の桿菌、ナノロッド(ナノスケール及び棒状の金属または半導体材料)、人体等を含む。
<画像処理装置のハードウェア構成>
<画像処理装置のハードウェア構成>
図1は、実施例1における画像処理装置のハードウェア構成の一例を示す図である。画像処理装置1は、インターフェース装置10と、演算装置11と、メモリ12と、バス13と、を備える。インターフェース装置10、演算装置11、メモリ12はバス13を介して情報の送受信を行う。
画像処理装置1の各部について説明する。インターフェース装置10は、画像処理装置1の外部にある装置と信号の送受信を行う通信装置である。インターフェース装置10と通信を行う装置としては、カメラ、顕微鏡等の撮像装置20、モニタ、プリンタ等の表示装置21がある。
演算装置11は、画像処理装置1内での各種処理を実行する装置であり、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等である。演算装置11によって実行される機能については、図2を用いて後述する。
メモリ12は、演算装置11が実行するプログラムや、その処理で使用するネットワークとその重み、処理結果等を記憶する装置であり、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)等である。
<画像処理装置の機能構成>
<画像処理装置の機能構成>
図2は、実施例1における画像処理装置の機能構成の一例を示すブロック図である。
画像処理装置1は、入力部100と、特徴量抽出部101と、物体領域検出部102と、物体端点推定部103と、物体架橋部104と、橋部輝度値抽出部105と、同一物体判定部106と、物体領域修正部107と、出力部108と、を備える。各機能部は、演算装置11上で動作するプログラムとして実現しても良いし、専用のハードウェアを有するモジュールとして実現しても良い。
入力部100は、インターフェース装置10より入力される、対象物体を検出する画像を受け付ける。特徴量抽出部101は、入力部100に入力された画像について特徴量を算出する。物体領域検出部102は、特徴量抽出部101が出力する特徴量を基に、画像内における対象物体の領域を当該物体に外接する矩形として算出する。また特徴量を基に、検出された各領域が示す物体の識別結果、及び識別結果の確からしさを示す尤度を算出する。
物体端点推定部103は、物体領域検出部102の出力する全ての物体領域について、各物体の2つの端点の座標値を算出する。物体架橋部104は、物体領域検出部102の出力する物体領域のうち2つの物体領域を選択した組み合わせについて、物体端点推定部103の出力する両領域の物体端点を結ぶ線を、入力画像における座標値の集合として算出する。
橋部輝度値抽出部105は、入力部100に入力された画像より、物体架橋部104の出力する線上の輝度値を抽出する。同一物体判定部106は、物体架橋部104により架橋された各物体領域の組み合わせについて、橋部輝度値抽出部105の出力する端点を結んだ線上の輝度値を入力とし、オクルージョンにより分断された同一の物体に由来する物体領域であるか否かを判定する。
物体領域修正部107は、物体領域検出部102の出力する対象物体領域を、同一物体判定部106の出力する判定結果に基づいて修正する。出力部108は、物体領域修正部107が修正した対象物体領域の検出結果を装置外部へ出力する。
<各部の構成と動作>
<各部の構成と動作>
以下、機能部の内、特徴量抽出部101、物体領域検出部102、物体端点推定部103、物体架橋部104、橋部輝度値抽出部105、同一物体判定部106、物体領域修正部107、出力部108の動作について詳細に説明する。
特徴量抽出部101は、入力部100に入力された画像について、特徴量を算出する。特徴量の算出にはCNN(Convolutional Neural Network)等の深層学習を使用する。
物体領域検出部102は、特徴量抽出部101が出力する特徴量を基に、画像内における対象物体の領域、検出された各領域が示す物体の識別結果、及び識別結果の確からしさを示す尤度を算出する。なお、物体領域、識別結果及び尤度の算出には、CNN等の深層学習を使用する。
学習は、入力する画像並びに正しい物体領域及び識別結果の多くの学習データセットを用意する。画像を特徴量抽出部101に入力し、物体領域検出部102からの出力と正解とを比較し、その比較結果により特徴量抽出部101と物体領域検出部102のパラメータを更新する。検出する対象が1種類の場合にも、検出された物体領域が対象の物体を示すことを識別結果として算出し、また対象の物体であることの尤度が計算されてよい。
物体端点推定部103は、物体領域検出部102の出力する全ての物体領域について、各物体の2つの端点の座標値を算出する。上記端点の推定にはCNN等の深層学習を使用する。学習は、検出された物体領域と正しい端点の座標値を示す多くの学習データセットを用意する。物体領域の画像を物体端点推定部103に入力し、物体端点推定部103からの出力と正解とを比較し、その比較結果により物体端点推定部103のパラメータを更新する。なお、端点の算出は、予め設定された条件に基づいて実行されてもよい。例えば、物体の重心を通る直線において最も長い線と物体の輪郭との交点を、端点としてもよい。
物体架橋部104は、物体領域検出部102の出力する物体領域のうち2つの同一識別結果の物体領域を選択した各組み合わせについて、物体端点推定部103の出力する両領域の物体端点を結ぶ線(軌道)を、入力画像における座標値の集合として算出する。架橋する線は両物体の近接する端点同士を直線で結んだ折れ線であっても良いし、対象物体の形状が湾曲する場合に備え、スプライン補間等の手法により両物体の端点間を補完した曲線であっても良い。
橋部輝度値抽出部105は、物体領域検出部102の出力する物体領域のうち2つの領域を選択した各組み合わせについて、入力部100に入力された画像より、物体架橋部104の出力する線上の座標の輝度値を抽出する。抽出した輝度値は1次元のベクトル(輝度値の配列)とし、同一物体判定部106へ出力する。なお抽出する輝度値は、上記入力画像の画素値を直接抽出しても良いし、ノイズを除去するために上記入力画像に平滑化処理を加えた画像の画素値を抽出しても良い。カラー画像において、画素の輝度は、R、G、Bの輝度値から所定の式により算出されてよい。
同一物体判定部106は、物体領域検出部102の出力する物体領域のうち2つの領域を選択した各組み合わせについて、橋部輝度値抽出部105の出力する架橋された線上の輝度値を入力とし、障害物により分断された同一の物体であるか否かを判定する。判定は上記線上の輝度値推移を予め設定した輝度値推移のパターンと比較しても良いし、SVM(Support Vector Machine)等の機械学習やCNN等の深層学習を使用しても良い。上記判定においては、架橋された両物体領域が分断された同一の物体に由来することの確からしさを示す尤度を算出する。算出された尤度が予めユーザにより設定された閾値以上である場合、両物体領域は同一の物体に由来するものと判定される。
同一物体判定部106のモデルの学習は、線上の輝度値推移を示す1次元ベクトルと、同一物体である又は異なる物体であることの正解を示す多くの学習データセットを用意する。正解の尤度は、例えば、同一物体であれば1であり、異なる物体であれば0であってもよい。線上の輝度値を示す1次元ベクトルをモデルに入力し、出力された尤度と正解とを比較し、その比較結果によりモデルのパラメータを更新する。上述のように、同一物体判定部106は、モデルを使用して同一物体であることの尤度を算出し、その値を予め設定された閾値と比較して判定してよい。
上述のように、同一物体判定部106は、線上の輝度値推移を予め設定した輝度値推移のパターンと比較し、その類似度に応じて、二つの物体領域が同一物体か否かの判定を行ってもよい。図5を参照して後述するように、障害物とその障害物により分断された同一の物体の輝度値推移は、特定の形状(パターン)を有し得る。
具体的には、障害物の影が背後の対象物体上に生じることで、輝度値推移上に図5に示すような谷状の輝度値低下部分が生じ得る。前面にある障害物が背面の物体に影を落とすとき、輝度値推移上では、前面障害物から影領域に差し掛かる点で輝度値は急激に落ち込み、前面障害物から離れるに伴い緩やかに影は薄まり輝度値は高まる。そのため、輝度値推移に前記輝度値低下のパターンが存在するとき、前面に障害物となる物体が存在していると判断できる。
障害物により分断された同一物体を示す1又は複数の輝度値推移のパターンを予め用意し、何れかのパターンとの類似度が閾値を超える場合、二つの物体領域は、障害物により分断された同一の物体の部分と判定されてもよい。または、二つの異なる物体を示す1又は複数の輝度値推移のパターンをさらに用意し、最も類似度が大きいパターンが示す状態が、現在の対象の状態であると判定してもよい。
物体領域修正部107は、物体領域検出部102の出力する物体領域のうち2つの領域を選択した各組み合わせについて、同一物体判定部106の出力する判定結果に基づいて物体領域を修正する。架橋された2つの物体領域が同一物体判定部106により同一の物体に由来すると判定された場合には、両物体領域を削除し、両物体領域に外接する矩形を新たな物体領域として作成する。また新たな物体領域の尤度は、物体領域検出部102により算出された修正前の両物体領域のいずれかの尤度を採用しても良いし、両物体領域の尤度の平均値等の新たな尤度を算出し採用しても良い。
出力部108は、物体領域検出部102が出力した対象物体領域、あるいは物体領域修正部107が修正した対象物体領域の検出結果、また検出された物体領域の識別結果及び尤度を装置外部へ出力する。出力の形式は、対象物体領域を示す座標値、識別結果及びその尤度を数値データとして出力しても良いし、入力画像上に矩形や文字として描画し画像として出力しても良い。
図3は、実施例1に係る画像処理方法の処理手順の例を示したフローチャートである。以下では、画像処理装置1の各機能部を動作主体として記述するが、演算装置11を動作主体とし、演算装置11がプログラムとしての各機能部を実行するように読み替えても良い。
入力部100は、対象物体を検出する画像を受け付け、特徴量抽出部101に入力する。(ステップ200)
特徴量抽出部101は、メモリ12に格納される特徴抽出器に係る情報を取得し、特徴抽出器を作成する。特徴抽出器に係る情報とは、例えばネットワークの構造式やネットワークにおける各レイヤーの重み係数等である。さらに当該特徴抽出器を用いて、入力された画像について特徴量を算出する。(ステップ201)
物体領域検出部102は、特徴量抽出部101で抽出された特徴量より、上記入力画像における対象物体の領域と、各領域の物体識別結果及び識別結果の確からしさを示す尤度を算出する。検出された上記物体領域は、物体端点推定部103及び物体領域修正部へ出力する。(ステップ202)
図4Aは、ステップ200において受け付ける入力画像上で生じ得る、障害物301によるオクルージョンが検出対象の物体300を分断する様子の一例を示した図であり、図4Bは、ステップ202が出力し得る、上記分断により領域302と領域303に分かれて検出される物体300の一例を示した図である。
物体端点推定部103は、物体領域検出部102で検出された各物体領域において、物体の持つ2つの端点の座標を算出する。(ステップ203)
図4Cは、図4Bにおける物体領域302及び物体領域303について、ステップ203が出力する各物体の端点座標推定結果の一例を示した図である。各物体領域からは2つの端点座標が推定されるため、物体領域302からは端点座標304及び端点座標305が、物体領域303からは端点座標306及び端点座標307が推定される。
物体架橋部104は、物体領域検出部102で検出された物体領域のうち、2つを選択した組み合わせについて、物体端点推定部103により算出された計4つの端点を繋ぐ一本の線を入力画像における座標値の集合として算出する。(ステップ204)
図4Dは、ステップ204の出力する、物体領域302中の物体端点304及び物体端点305と、物体領域303中の物体端点306及び物体端点307とを結ぶ線308の一例を示した図である。ここで、線308は、物体領域302と物体領域303が同一の物体に由来すると仮定した場合の、上記物体の中心を通る軌道とみなすことができ、この軌道上のオクルージョンの有無を判定することで、物体領域302と物体領域303について上記同一物体であることの判定が可能となる。
橋部輝度値抽出部105は、上記入力画像における、物体架橋部104の算出した線上の輝度値を抽出し、1次元のベクトルを作成する。(ステップ205)
図5は、ステップ205の抽出し得る、入力画像における線308上の輝度値推移309の一例を示した図である。輝度値推移309からは、例えば、輝度値推移中央の凸部から輝度値の高い障害物が存在していることや、上記凸部の両脇の凹部が中央から端部にかけて急激な輝度値低下と緩やかな輝度値上昇がみられることから上記障害物の影が存在していること、すなわち入力画像において物体300の前面にあること等が推定できる。
仮に前面にある障害物の輝度値が低い場合にも、中央から端部に掛けて緩やかに輝度値の上昇する凹部が存在することから推定できる。また上記の凹凸形状が複数存在する場合、前面に存在する障害物もまた複数存在すると推定できる。また、凸部の両脇に凹部が存在する場合にも、凹部が急激な輝度値低下と急激な輝度値上昇により生じている場合には、ふたつの別物体がそれぞれ背景に影を落としていると推定でき、状態は、同一物体の分断ではないとみなすことができる。
同一物体判定部106は、橋部輝度値抽出部105により算出されたベクトルを入力とし、上記物体領域の組み合わせが、オクルージョンにより分断された、同一の物体に由来するものであるかを判定する。(ステップ206)
物体領域修正部107は、物体領域検出部102で検出された物体領域のうち、2つを選択した組み合わせについて、上記物体領域の組み合わせについて同一物体判定部106が同一の物体に由来すると判定をした場合に、物体領域検出部102の出力した両物体領域を統合する。(ステップ207)
上記ステップ204、ステップ205、ステップ206、ステップ207は、2つの物体領域を選択した全ての組み合わせについて繰り返し行われる。
出力部108は、物体領域検出部102が検出し、同一物体判定部106の出力する判定に応じて物体領域修正部107が修正を施した物体領域を出力する。(ステップ208)
以上により、画像より対象の物体を検出し、オクルージョンにより分断された物体が複数に分かれて検出されることを抑制する画像処理装置及び方法が提供可能となる。
実施例2は、実施例1におけるステップ204、ステップ205、ステップ206、ステップ207の処理の繰り返し回数を減らし、スループットを向上する画像処理装置及びその方法を提供する。
図6は、実施例2における画像処理装置の機能構成を示すブロック図である。実施例2における画像処理装置1は、実施例1における画像処理装置1(図1参照)と同様の構成を多く含むが、新たな構成として物体候補選択部109を含む。以下では、実施例1と重複する点は省力し、異なる構成について主に説明する。
<各部の構成と動作>
<各部の構成と動作>
入力部100、特徴量抽出部101、物体領域検出部102、物体端点推定部103、出力部108の動作は、実施例1と同様である。そのため以下では物体候補選択部109、物体架橋部104、橋部輝度値抽出部105、同一物体判定部106、物体領域修正部107について説明する。
物体候補選択部109は、物体領域検出部102で検出された物体領域のうち、オクルージョンにより分断されている可能性のある領域の組み合わせを1つ、あるいは複数選択する。具体的には、物体端点推定部103により出力される各領域中の物体端点座標を用い、それら位置関係により上記組み合わせを選択する。物体端点座標の位置関係としては、例えば、2つの領域の最も近接する端点間の距離を算出して使用しても良いし、両領域の近接する端点同士を直線で結び、隣り合う直線のなす角度を算出して使用しても良い。
物体架橋部104は、物体候補選択部109で選択された物体領域の組み合わせについて、物体端点推定部103の出力する両領域の物体端点を結ぶ線を、入力画像における座標値の集合として算出する。その他の動作は実施例1と同様である。
橋部輝度値抽出部105は、物体候補選択部109で選択された物体領域の組み合わせについて、入力部100に入力された画像より、物体架橋部104の出力する線上の座標の輝度値を抽出する。その他の動作は実施例1と同様である。
同一物体判定部106は、物体候補選択部109で選択された物体領域の組み合わせについて、橋部輝度値抽出部105の出力する架橋された線上の輝度値を入力とし、障害物により分断された同一の物体であるか否かを判定する。その他の動作は実施例1と同様である。
物体領域修正部107は、物体候補選択部109で選択された物体領域の組み合わせについて、同一物体判定部106の出力する判定結果に基づいて物体領域検出部102の出力した物体領域を修正する。
図7は、実施例2に係る画像処理方法の処理手順の例を示したフローチャートである。以下では、画像処理装置1の各機能部を動作主体として記述するが、演算装置11を動作主体とし、演算装置11がプログラムとしての各機能部を実行するように読み替えても良い。また実施例2における画像処理方法は、実施例1における画像処理方法(図3参照)と同様のステップを多く含むが、新たなステップとしてステップ209を含む。以下では、図7に示す処理手順について、実施例1と重複する部分は省略し、異なるステップについて説明する。
実施例2におけるステップ200、ステップ201、ステップ202、ステップ208の処理は、実施例1における画像処理方法と同様である。
物体端点推定部103は、物体領域検出部102で検出された各物体領域において、物体の持つ2つの端点の座標を算出し、物体候補選択部109へと出力する。(ステップ203)
物体候補選択部109は、物体領域検出部102で検出された物体領域のうち、2つの領域を選んだ各組について、物体端点推定部103で算出された各物体の端点座標の位置関係を算出する。上記物体端点座標の位置関係とは、上記2つの物体領域の間で最も近接する端点座標間の距離や、両領域の近接する端点同士を直線で結んだときの、隣り合う直線のなす角度等である。(ステップ209)
さらに物体候補選択部109は、上記端点座標の位置関係より、同一の物体に由来し得る2つ物体領域の組み合わせの候補を選択する。例えば、2物体領域間で最も近接する端点座標が一定距離よりも離れている場合に、距離的に離れているという理由で同一の物体に由来し得ないと判断しても良いし、上記直線同士が一定の角度以下で交わる場合に、対象とする物体は極端に曲がらないという理由で同一の物体に由来し得ないと判断しても良い。(ステップ210)
図8Aから8Dは、ステップ209により算出された物体端点座標の位置関係の例を示した図である。また図8Aは両物体の近接する端点座標の距離402が短い例を示し、図8Bは上記距離405が長い例を示す。ステップ210は例えば、ユーザが対象物体に応じて予め設定した物体端点間距離の閾値が距離402よりも長く、距離405よりも短い場合には、領域400と領域401の組み合わせは同一物体に由来する可能性が高いとして選択し、領域403と領域404の組み合わせは同一物体に由来する可能性が低いとして選択せず、以降のステップへ出力する物体領域の組み合わせを絞り込む。
また図8Cは両物体の近接する端点同士を直線で結んだときの、隣り合う直線のなす角度408が大きい例を示し、図8Dは上記角度411が小さい例を示す。ステップ210は例えば、ユーザが対象物体に応じて予め設定した物体端点間を結んだ直線同士のなす角度の閾値が角度408より小さく、角度411よりも大きい場合には、領域406と領域407の組み合わせは同一物体に由来する可能性が高いとして選択し、領域409と領域410の組み合わせは同一物体に由来する可能性が低いとして選択せず、以降のステップへ出力する物体領域の組み合わせを絞り込む。
物体架橋部104、橋部輝度値抽出部105、同一物体判定部106、物体領域修正部107は、物体候補選択部109により同一物体に由来し得るとして選択された2つの物体領域の各組み合わせについて、実施例1における処理と同様に物体間の架橋(ステップ204)、架橋部分の輝度値の取得(ステップ205)、両物体領域が同一の物体に由来することの判定(ステップ206)、物体領域の修正(ステップ207)を行う。
上記ステップ204、ステップ205、ステップ206、ステップ207については、物体候補選択部の出力する全ての2物体領域の組み合わせについて、これを繰り返す。
以上により、実施例1における物体領域間の架橋(ステップ204)、架橋部分の輝度値の抽出(ステップ205)、両物体領域が同一の物体に由来することの判定(ステップ206)、物体領域の修正(ステップ207)の回数を削減し、スループットを向上する画像処理装置及び方法が提供可能となる。
実施例3は、実施例1における、同一物体に由来する物体領域の判定精度を向上する画像処理装置及びその方法を提供する。
図9は、本発明の実施例2における画像処理装置の機能構成の例を示すブロック図である。実施例3における画像処理装置1は、実施例1における画像処理装置1(図1参照)と同様の構成を多く含むが、新たな構成として物体形状抽出部110及び物体輝度値抽出部111のいずれか、または両方を含む。以下では、実施例1と重複する点は省力し、異なる構成について説明する。
<各部の構成と動作>
<各部の構成と動作>
入力部100、特徴量抽出部101、物体領域検出部102、物体端点推定部103、物体架橋部104、橋部輝度値抽出部105、物体領域修正部107、出力部108の動作は、実施例1と同様である。そのため以下では物体形状抽出部110、物体輝度値抽出部111、同一物体判定部106について説明する。
物体形状抽出部110は、物体領域検出部102で検出された各物体領域において、物体の形状に由来する特徴を抽出する。具体的に物体の形状に由来する特徴とは、物体幅の平均及び推移や、物体輪郭の凸凹の程度等である。凹凸の程度は、輪郭粗さを示し、例えば、輪郭線の長さと輪郭平均線との比で表してもよい。上記形状特徴は、画像処理によって物体の詳細な形状を抽出して算出しても良いし、また深層学習等により物体領域の画像を入力として、上記物体の形状に由来する特徴を推定して算出しても良い。
物体輝度値抽出部111は、物体領域検出部102で検出された各物体領域において、物体の輝度値に由来する特徴を抽出する。具体的に物体の輝度値に由来する特徴とは、各物体領域における平均輝度値や、物体端部間における輝度値の推移等である。上記物体の輝度値特徴は、上記物体領域及び上記物体端点から算出しても良いし、また画像処理や深層学習等により得られた詳細な物体形状を利用して算出しても良い。
同一物体判定部106は、物体候補選択部109で選択された物体領域の組み合わせについて、障害物により分断された同一の物体であるか否かを判定する。上記判定においては、橋部輝度値抽出部105の出力する架橋された線上の輝度値により物体領域間のオクルージョンの有無を判定する。
さらに、物体形状抽出部110の出力する物体の形状特徴及び物体輝度値抽出部111の出力する物体の輝度値特徴のいずれか、あるいは両方から、両物体における特徴の類似及び連続性を加味し、両物体領域が同一の物体に由来することを判定する。特徴の類似が閾値より高い場合や、特徴の連続性が閾値より高い場合、二つの物体領域が同一物体の部分を示すと判定される。類似は、例えば、差やコサイン類似度で計算できる。連続性は、例えば、隣接端点での特徴の差異から計算されてもよい。上記により同一物体判定部106は、障害物によるオクルージョンが別個の物体の間を覆うように存在する場合にも、両物体の諸特徴の類似及び連続性より、両物体が別個の物体であることを判定する。
図10は、実施例3に係る画像処理方法の処理手順の例を示したフローチャートである。以下では、画像処理装置1の各機能部を動作主体として記述するが、演算装置11を動作主体とし、演算装置11がプログラムとしての各機能部を実行するように読み替えても良い。また実施例3における画像処理方法は、実施例1における画像処理方法(図3参照)と同様のステップを多く含むが、新たなステップとしてステップ210、ステップ211のいずれか、またはその両方を含む。以下では、図7に示す処理手順について、実施例1と重複する部分は省略し、異なるステップについて説明する。
実施例3におけるステップ200、ステップ201、ステップ202、ステップ203、ステップ204、ステップ205、ステップ207、ステップ208の処理は、実施例1における画像処理方法と同様である。
物体形状抽出部110は、物体領域検出部102の出力した各物体領域について、上記物体の形状に由来する特徴量を抽出する。(ステップ211)
物体輝度値抽出部111は、物体領域検出部102の出力した各物体領域について、上記物体の輝度値に由来する特徴量を抽出する。(ステップ212)
同一物体判定部106は、橋部輝度値抽出部105により算出されたベクトル、物体形状抽出部110により出力された物体形状に由来する特徴量、及び物体輝度値抽出部111により出力された物体の輝度値に由来する特徴量を入力とし、上記物体領域の組み合わせが、オクルージョンにより分断された、同一の物体に由来するものであるかを判定する。(ステップ206)
以上により、実施例1におけるオクルージョンにより分断された同一の物体に由来する物体領域の判定精度を向上する、画像処理装置及び方法が提供可能となる。
実施例4は、実施例1に記載の画像処理装置を用いて対象物体の検出及びオクルージョンにより分断され検出された物体領域の修正を行う画像処理システムである。
図11は、本発明の実施例4における画像処理システムのハードウェア構成を示す図である。
画像処理システム1000は、撮像装置1001と、画像処理装置1と、記憶装置1002と、表示装置1003と、を備える。
撮像装置1001は、対象物体を検出する画像を撮像するための装置であり、例えばカメラや顕微鏡等である。
画像処理装置1は、実施例1に記載の画像処理装置であり、撮像装置1001により撮像された画像中から対象物体の領域、検出された各領域についての識別結果及びその尤度のいずれか、あるいは複数を算出する。
記憶装置1002は、ユーザにより予め設定された物体検出に係る情報を保持している。具体的に物体検出に係る情報は、物体名称等の検出対象物体についての情報や、画像処理装置1の出力する尤度に設定する閾値等を含む。
以上により、画像内の対象物体について、オクルージョンにより分断された物体であっても、単一のものとして検出することのできる画像処理システムが提供可能となる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成・機能・処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
1:画像処理装置、10:インターフェース部、12:メモリ、13:バス、100:入力部、101:特徴量抽出部、102:物体領域検出部、103:物体端点推定部、104:物体架橋部、105:橋部輝度値抽出部、106:同一物体判定部、107:物体領域修正部、108:出力部、109:物体候補選択部、110:物体形状抽出部、111:物体輝度値抽出部、1000:画像処理システム、1001:撮像装置、1002:記憶装置、1003:表示装置
Claims (14)
- 画像中の特定の物体を検出する画像処理装置であって、
入力画像を受け付ける入力部と、
前記入力画像から特徴量を抽出する特徴量抽出部と、
前記特徴量を用いて画像内の物体領域を検出する物体領域検出部と、
前記物体領域における物体の端点の座標を推定する物体端点推定部と、
前記入力画像上で2つの物体領域における前記端点の間を補完する軌道を算出する物体架橋部と、
前記軌道上の輝度値推移より、前記2つの物体領域が同一の物体に含まれるか判定する同一物体判定部と、
前記物体領域検出部の出力した物体領域を前記同一物体判定部の出力した判定結果に基づき修正する物体領域修正部と、
修正された前記物体領域を出力する出力部と、を含む画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記物体架橋部は、前記2つの物体領域における端点間をスプライン補間により補完し、前記2つの物体領域を架橋する曲線軌道を算出する、画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記物体領域検出部の出力する物体領域から、前記物体架橋部へ出力する2つの物体領域の組み合わせを、前記端点の座標の位置関係に基づき選択する物体候補選択部を含む、画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記物体領域検出部の出力する各物体領域について、物体の形状の特徴量を抽出する物体形状抽出部を含み、抽出した前記物体の形状の特徴量を前記同一物体判定部の入力として使用する、画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記物体領域検出部の出力する各物体領域について、物体の輝度値の特徴量を抽出する物体輝度値抽出部を含み、抽出した前記物体の輝度値の特徴量を前記同一物体判定部の入力として使用する、画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記同一物体判定部は、モデルを使用して前記2つの物体領域が同一の物体に含まれるか判定し、
前記モデルの入力は、前記軌道上の輝度値推移を含み、
前記モデルは、前記2つの物体領域が同一の物体に含まれることの確からしさを示す尤度を算出し、
前記モデルは、軌道上の輝度値推移と尤度の組み合わせを含む学習データセットにより学習済みである、画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記物体端点推定部は、モデルを使用して前記物体領域における物体の端点の座標を推定し、
前記モデルの入力は、検出された前記物体領域の画像を含み、
前記モデルは、入力された前記物体領域の端点の座標を出力し、
前記モデルは、物体領域の画像と前記物体領域の端点の座標の組み合わせを含む学習データセットにより学習済みである、画像処理装置。 - 装置が画像中の特定の物体を検出する画像処理方法であって、
前記装置が、入力画像より物体領域を検出し、
前記装置が、検出された2つの物体領域間の輝度値推移を抽出し、
前記装置が、前記輝度値推移より前記2つの物体領域が同一の物体の含まれるかを判定し、
前記装置が、前記判定の結果に応じて前記物体領域を修正する、ことを含む画像処理方法。 - 請求項8に記載の画像処理方法であって、
前記輝度値推移の抽出は、
検出された前記物体領域それぞれについて、物体の端点の座標を求め、
2つの前記物体領域の各組み合わせについて、前記端点間を補間して、軌道を算出し、
入力画像より前記軌道上の前記輝度値推移を抽出する、ことを含む、画像処理方法。 - 請求項9に記載の画像処理方法であって、
前記輝度値推移の抽出は、前記軌道が算出される2つの物体領域の組み合わせを、前記物体領域の前記端点の位置関係により絞り込む、画像処理方法。 - 請求項8に記載の画像処理方法であって、
さらに、検出された前記物体領域それぞれについて、物体の形状の特徴量及び/又は輝度値の特徴量を抽出することを含み、
前記2つの物体領域が同一の物体に含まれるかの判定は、前記輝度値推移に加え、前記形状の特徴量及び/又は輝度値の特徴量を用いる、画像処理方法。 - 画像中の特定の物体を検出する画像処理システムであって、
試料を撮像する撮像装置と、
請求項1に記載の画像処理装置と、
前記画像処理装置において使用する情報を保持する記憶装置と、
前記画像処理装置の出力する画像処理結果を表示する表示装置と、を含む画像処理システム。 - 請求項12に記載の画像処理システムであって、
前記画像処理装置は、前記記憶装置の保持する情報を取得し、処理に用いるモデルの作成を行う、画像処理システム。 - 請求項12に記載の画像処理システムであって、
前記画像処理装置は、前記撮像装置より画像が入力された場合、入力された前記画像における対象物体の検出結果を表示装置に送信し、
前記表示装置は、前記対象物体の検出結果を出力する、画像処理システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023090096A JP2024172398A (ja) | 2023-05-31 | 2023-05-31 | 画像処理装置、画像処理方法及び画像処理システム |
PCT/JP2024/015752 WO2024247546A1 (ja) | 2023-05-31 | 2024-04-22 | 画像処理装置、画像処理方法及び画像処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023090096A JP2024172398A (ja) | 2023-05-31 | 2023-05-31 | 画像処理装置、画像処理方法及び画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024172398A true JP2024172398A (ja) | 2024-12-12 |
Family
ID=93657823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023090096A Pending JP2024172398A (ja) | 2023-05-31 | 2023-05-31 | 画像処理装置、画像処理方法及び画像処理システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024172398A (ja) |
WO (1) | WO2024247546A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5371725B2 (ja) * | 2009-12-16 | 2013-12-18 | 富士重工業株式会社 | 物体検出装置 |
JP6013884B2 (ja) * | 2012-11-08 | 2016-10-25 | 日立オートモティブシステムズ株式会社 | 物体検出装置及び物体検出方法 |
JP6097150B2 (ja) * | 2013-05-24 | 2017-03-15 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、画像処理方法およびプログラム |
-
2023
- 2023-05-31 JP JP2023090096A patent/JP2024172398A/ja active Pending
-
2024
- 2024-04-22 WO PCT/JP2024/015752 patent/WO2024247546A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024247546A1 (ja) | 2024-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5258859B2 (ja) | 走路推定装置及びプログラム | |
JP7227145B2 (ja) | マッチムーブ用のハイブリッド追跡器のシステム及び方法 | |
CN112560684B (zh) | 车道线检测方法、装置、电子设备、存储介质以及车辆 | |
US8902053B2 (en) | Method and system for lane departure warning | |
JP2011134114A (ja) | パターン認識方法およびパターン認識装置 | |
CN112509003B (zh) | 解决目标跟踪框漂移的方法及系统 | |
JP4724638B2 (ja) | オブジェクト検出方法 | |
US11062174B2 (en) | Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium | |
KR20160124361A (ko) | 다양한 손 제스처 인식을 위한 곡률 분석 기반의 손 특징 추출 방법 | |
CN112437948A (zh) | 图像诊断支援系统及图像诊断支援装置 | |
JP4533849B2 (ja) | 画像処理装置及び画像処理プログラム | |
JP2015103249A (ja) | 画像中のゼブラクロッシングの検出装置及び方法 | |
KR102434397B1 (ko) | 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법 | |
US12217496B2 (en) | Hand gesture detection method involves acquiring initial depth image using backbone and apparatus, and non-transitory computer-readable storage medium | |
JPWO2019003709A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN107368826B (zh) | 用于文本检测的方法和装置 | |
US9531969B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6798609B2 (ja) | 映像解析装置、映像解析方法およびプログラム | |
JP2024172398A (ja) | 画像処理装置、画像処理方法及び画像処理システム | |
US11314968B2 (en) | Information processing apparatus, control method, and program | |
JP2013239011A (ja) | 移動物体上動きベクトル検出装置、移動物体上動きベクトル検出方法、およびプログラム | |
WO2020027282A1 (ja) | 候補領域推定装置、候補領域推定方法、及びプログラム | |
WO2023152983A1 (ja) | 人物相関判定装置、人物相関判定方法および人物相関判定プログラム | |
JP7279893B2 (ja) | 顔検出装置、顔検出方法、及びプログラム | |
JP2005242703A (ja) | 画像処理装置および画像処理方法 |