[go: up one dir, main page]

JP2005031789A - Object type shape discrimination method and system using RBF network using image information - Google Patents

Object type shape discrimination method and system using RBF network using image information Download PDF

Info

Publication number
JP2005031789A
JP2005031789A JP2003193579A JP2003193579A JP2005031789A JP 2005031789 A JP2005031789 A JP 2005031789A JP 2003193579 A JP2003193579 A JP 2003193579A JP 2003193579 A JP2003193579 A JP 2003193579A JP 2005031789 A JP2005031789 A JP 2005031789A
Authority
JP
Japan
Prior art keywords
image
image information
image data
object type
rbf network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003193579A
Other languages
Japanese (ja)
Inventor
Hiromitsu Ishii
弘允 石井
Yasuhiro Tsuchizawa
康弘 土澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon University
Original Assignee
Nihon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon University filed Critical Nihon University
Priority to JP2003193579A priority Critical patent/JP2005031789A/en
Publication of JP2005031789A publication Critical patent/JP2005031789A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、各種物体の種別を判別でき、応用範囲の広い画像情報を利用したRBFネットワークによる物体種別形状判別方法を提供すること。
【解決手段】本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法は、物体の画像情報を得る第1のステップ21と、前記物体の画像情報から画像に関する所定の特徴パラメータを抽出する第2のステップ22と、前記第2のステップ22で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる第3のステップ23とからなる。
【選択図】 図4
An object of the present invention is to provide an object type shape discrimination method using an RBF network that can discriminate the types of various objects and uses image information with a wide range of applications.
An object type shape discrimination method using an RBF network using image information according to the present invention includes a first step of obtaining image information of an object, and extracting a predetermined feature parameter relating to the image from the image information of the object. The second step 22 and the predetermined feature parameter relating to the image obtained in the second step 22 are taken into the RBF network, the probability of belonging to each object type is calculated by the RBF network, and the calculation result is assigned to the predetermined class. The third step 23 is capable of discriminating the types of various objects from the probability of belonging.
[Selection] Figure 4

Description

【0001】
【発明の属する技術分野】
本発明は、物体の画像情報から各種物体の種別や形状を判別できるところの画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムに関するものである。
【0002】
【従来技術】
一般に、電子カメラやTVカメラなどの撮像装置で撮像した物体の画像情報から当該物体の形状や種別が判別できれば、各種の技術分野に応用することができることは容易に考えられる。
例えば船舶の安全運行を支援する衝突回避システムの場合には、相手船の進路や運動性能を知ることの他に、上述したような相手船の形状や種別が判別ができるようにしてやれば、さらに有効に衝突回避をすることができる。
このようなシステム構成の衝突回避システムは、今日のように、船舶交通量の増加して船舶間の衝突事故の危険性が増大している状況には、極めて有効なシステムといえる。
ところで、本発明者らは、自船の進路や運動性能と相手船の進路や運動性能とを基にした船舶の衝突回避システムとして、遺伝的アルゴリズムによる船舶の衝突回避システムを提案した(例えば、特許文献1参照)。
【0003】
この従来の遺伝的アルゴリズムによる船舶の衝突回避システムは、移動物体の移動経路の評価となる適合度Aは、安全性S、目的経路からのずれD、経済性E、即死決定遺伝子Bにより、A=B×(S+D+E)で表し、かつ、安全性Sの数値は相対的に移動する移動物体間の間隔の狭まりに対して対数関数的に小さくなるとしたものである。
【特許文献1】特開2002−222500号公報。
【0004】
【発明が解決しようとする課題】
しかしながら、上述した従来の遺伝的アルゴリズムによる船舶の衝突回避システムは、自船の進路や運動性能と相手船の進路や運動性能とを基に衝突の可能性を求めるものであって、安全運行を支援する重要な要素である船種を判別するものではなかった。
本発明は、上述した課題を解消し、各種物体の種別を判別できるようにし、応用範囲の広い画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムを提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法は、物体の画像情報から物体種別を判別できる物体種別判別方法であって、物体の画像情報を得る第1のステップと、前記物体の画像情報から画像に関する所定の特徴パラメータを抽出する第2のステップと、前記第2のステップで求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる第3のステップと、を備えたことを特徴とする。
請求項2記載の発明では、請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法において、前記第2のステップは、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理ステップと、前記遺伝子処理ステップで抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理ステップと、前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理ステップと、前記物体の画像情報や前記強調処理ステップで求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理ステップとを備えたことを特徴とする。
請求項3記載の発明では、請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法において、前記第1のステップは、物体を撮像手段によって撮像することにより物体の画像情報を得ることを特徴とする。
請求項4記載の発明では、請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法において、前記第3のステップは、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークを用い、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別する。
上記目的を達成するために、請求項5記載の発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムは、物体の画像情報から物体種別を判別できる物体種別判別システムであって、物体の画像情報を得る撮像手段と、前記撮像手段からの物体の画像情報から画像に関する所定の特徴パラメータを抽出する特徴部抽出手段と、前記特徴部抽出手段で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる物体種別判別手段と、を備えたことを特徴とする。
請求項6記載の発明では、請求項5記載の画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記特徴部抽出手段は、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理手段と、前記遺伝子処理手段で抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理手段と、前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理手段と、前記物体の画像情報や前記強調処理手段で求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理手段とを備えたことを特徴とする。
請求項7記載の発明では、請求項5記載の画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記物体種別判別手段は、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークからなり、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別する。
【0006】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
図1ないし図22は本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及び画像情報を利用したRBFネットワークによる物体種別形状判別システムを説明するための図である。これらの図において、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法は、船舶の衝突回避システムに応用することができ、以下では、船舶の衝突回避システムに応用すした例について説明することにする。
【0007】
本発明では、物体の種別(船種)を判別するために、判別対象となる物体(この実施の形態では船舶)のアスペクト毎の物体像(船舶像)が必要となる。ここで、アスペクトとは、自分(自船)から見た相手の物体(船)の方位と相手の物体(船)の進路とのなす角のことをいう。しかしながら、全ての物体について(船舶)についてあらゆるアスペクトの物体像(船舶像)を得ることは難しい。
【0008】
そこで、本実施の形態では、所定の物体像で代用する。本実施の形態では、所定の物体像として、衝突事故の約69%を占める船種の中で標準的な船型を持つ船舶(「コンテナ船」、「タンカー」、「ばら積み船」、「漁船」、「自動車運搬船」)についてコンピュータグラフィックにより船舶モデルを作成し、これらの船舶像からアスペクト10[度]毎の特徴パラメータの算出を行い、ついで、この算出した特徴パラメータの中でアスペクトの影響を受けずに船種を良好に分類できるものを選択するために、アスペクト10[度]毎にRBFネットーワクによる分析を行い、物体の種別(船種)の決定を行うようにしたものである。以下、具体的に説明する。
【0009】
図1は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムを示すブロック図である。この図1において、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システム1は、大別すると、コンピュータ装置3と、入力装置としてのキーボード5及びマウス7と、出力装置としてのディスプレイ9及びプリンタ11と、撮像手段として赤外線デジタルカメラ13とから構成されている。前記コンピュータ装置3には、キーボード5と、マウス7と、ディスプレイ9と、プリンタ11と、赤外線デジタルカメラ13とが接続されている。
【0010】
なお、前記赤外線デジタルカメラ13は、常時、コンピュータ装置3に接続されているのではなくて、処理しようとする画像をコンピュータ装置3内に取り込むときに例えばUSB接続にてコンピュータ装置3に接続するようにしたものである。 また、前記実施の形態においては、撮像手段として赤外線デジタルカメラ13を使用しているが、これは夜間などでも撮像できることから採用しただけであり、昼間時に撮影した画像情報のみを利用するだけでよい場合には、通常のデジタルカメラを使用してもよいことはいうまでもない。
また、赤外線デジタルカメラ13で取り込んだ船舶画像は、後述の2値化処理の後、特徴パラメータの算出を行ってRBFネットワークにより船種判定を行うものである。
【0011】
図2は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムの一部を構成するコンピュータ装置を説明するためのブロック図である。
前記コンピュータ装置3は、各種画像情報を利用したRBFネットワークによる物体種別形状判別処理やその他の処理や制御を実行する制御処理部31と、オペレーティングシステムや画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムやその他必要なデータを記憶する主メモリ32と、オペレーティングシステムや当該画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムや船舶画像データベースやその他必要なデータやデータベースを格納しておくハードディスク装置33と、入力用インターフェース(I/F)34と、表示用I/F35と、プリンタI/F36と、USBボード37と、これらを接続するバスライン38とから構成されている。
【0012】
また、前記制御処理部31は、各種演算処理を実行するCPU31aと、イニシャル時に所定の処理を前記CPU31aに実行させるプログラムが記憶されたROM31bと、前記CPU31aが演算処理を実行する際に、必要なデータを一時格納するRAM31cとから構成されており、これらはバスライン38で接続されている。
【0013】
また、入力用I/F34にはキーボード5及びマウス7が接続されており、これにより、当該コンピュータ装置3の制御処理部31に各種データや指令を与えられるようになっている。前記表示用I/F35にはディスプレイ9が接続されており、これにより、当該コンピュータ装置3における制御処理部31で処理した結果をディスプレイ9に表示させることができるようになっている。プリンタI/F36にはプリンタ11が接続されており、これにより、当該コンピュータ装置3の制御処理部31で処理した結果のうち、印刷するデータをプリンタ11に与えて印刷できるようになっている。USBボード37には赤外線デジタルカメラ13が着脱可能に接続されており、前記赤外線デジタルカメラ13で撮り溜めた画像データを必要に応じて当該コンピュータ装置3の制御処理部31の制御の下に当該コンピュータ装置3のハードディスク装置33の所定のエリアに格納できるようになっている。
【0014】
図3は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるハードディスク装置に格納されているプログラムやデータを説明するための図である。この図3において、前記ハードディスク装置33には、オペレーティングシステムのOS格納領域10と、画像情報を利用したRBFネットワークによる物体種別形状判別方法を実現する画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムのAP格納領域12と、データベース領域14,16とが設けられている。
【0015】
なお、当該コンピュータ装置3の電源が投入されて動作を開始すると、制御処理部31のCPU31aがROM31bのイニシャルプログラムにより動作し、ハードディスク装置33のOS格納領域10に格納されているオペレーティングシステムを主メモリ32の所定の記憶領域に記憶させ、ついで、この主メモリ32の所定の記憶領域上のオペレーティングシステムを制御処理部31のCPU31aが処理することにより、オペレーティングシステムが動作する。また、このオペレーティングシステムが動作すると、予め当該オペレーティングシステムに登録されているところの画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムは起動可能な状態とされる。
【0016】
また、画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムに対してマウス7などで起動をかけることにより、コンピュータ装置3における制御処理部31のCPU31aがハードディスク装置33のAP格納領域12に格納されている画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムを主メモリ32の所定の記憶領域に記憶させて、次に、この主メモリ32の所定の記憶領域に記憶されている画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムを制御処理部31のCPU31aが処理することにより、画像情報を利用したRBFネットワークによる物体種別形状判別システム1が実現される。
【0017】
このような構成等をした画像情報を利用したRBFネットワークによる物体種別形状判別システム1の動作について説明する。まず、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法を実現するアプリケーションプログラムについて図4を参照して説明する。
図4は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおける画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムの構成例を示す図である。
【0018】
この図4において、画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラム20は、物体の画像情報を得る第1のステップ21と、前記第1のステップ21で得た物体の画像情報から画像に関する所定の特徴パラメータを抽出する第2のステップ22と、前記第2のステップ22で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別する第3のステップ23とからなる。
【0019】
ここで、前記第2のステップ22は、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理ステップ221と、前記遺伝子処理ステップ221で抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理ステップ222と、前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る構造物強調処理ステップ223と、前記第1のステップ21で求めた物体の画像情報や前記構造物強調処理ステップで求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理ステップ224とから構成されている。
【0020】
また、前記第3のステップ23は、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークを用い、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別するようしたものである。
【0021】
このような画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラム20がコンピュータ装置3の制御処理部31で処理されることにより、前記コンピュータ装置3の制御処理部31には、物体の画像情報を得る撮像手段と、前記撮像手段からの物体の画像情報から画像に関する所定の特徴パラメータを抽出する特徴部抽出手段と、前記特徴部抽出手段で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる物体種別判別手段とを備えたことを特徴とする画像情報を利用したRBFネットワークによる物体種別形状判別システム1が実現されている。
【0022】
ここで、画像情報を利用したRBFネットワークによる物体種別形状判別システム1における前記特徴部抽出手段は、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理手段と、前記遺伝子処理手段で抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理手段と、前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理手段と、前記物体の画像情報や前記強調処理手段で求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理手段とを備えている。
【0023】
さらに、前記制御処理部31で実現されている前記物体種別判別手段は、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークからなり、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別するようしたものである。
【0024】
次に、前記画像情報を利用したRBFネットワークによる物体種別形状判別システム1の具体的な動作を、図1ないし図3を基に、図4ないし図22を参照しながら説明する。
ここで、図5は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるコンピュータ装置で処理する遺伝子処理ステップの具体的な処理フローチャートである。
【0025】
図6は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるコンピュータ装置で処理する遺伝子処理ステップで適応度が変化してゆく様子を示す特性図であって、横軸に世代を、縦軸に適応度を、それぞれとったものである。
図7は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線デジタルカメラからコンピュータ装置に取り込んだ自動車運搬船の画像データの例を示す図である。この図7において、船舶と赤外線デジタルカメラ13との距離は2004[m]で、画角が8.2×6.2[度]で、検知素子がSOIダイオードである。なお、図7では、実線で自動車運搬船の船影を記載してあるが、具体的な写真画像では不鮮明に表示されている。
【0026】
図8は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線デジタルカメラからコンピュータ装置に取り込んだタンカーの画像データの例を示す図である。この図8において、船舶と赤外線デジタルカメラ13との距離は452.2[m]で、画角が26×20[度]で、検知素子がSOIダイオードである。なお、図8では、実線でタンカーの船影を記載してあるが、具体的な写真画像では不鮮明に表示されている。
【0027】
図9は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムで処理される遺伝子処理ステップにおいて船舶画像データを横方向の遺伝子配列と縦方向に遺伝子配列に区分けした図であって、図9(a)は画像データに対する遺伝子配列を、図9(b)は横方向の遺伝子配列と縦方向の遺伝子配列とつなげた状態を、それぞれ示したものである。
【0028】
図10は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、遺伝子処理ステップにおける最大適応度を算出した遺伝子配列に基づく分割領域をコンテナ船の赤外画像データに適用し、かつ遺伝子処理した後の結果の抽出画像データを示す図であって、図10(a)はコンテナ船の赤外画像データに対して遺伝子配列を適応した状態の写真像を、図10(a’)はコンテナ船の赤外画像データに対して遺伝子配列を適応した写真像について点線で表示した画像を、図10(b)は遺伝子処理をした結果の抽出画像データを、それぞれ示したものである。なお、図10(a’)では、コンテナの船影を点線で示してあるが、実際の写真では図10(a)に示すように不鮮明に表示されている。
【0029】
図11は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、遺伝子処理ステップにおける最大適応度を算出した遺伝子配列に基づく分割領域をタンカーの赤外画像データに適用し、かつ遺伝子処理した後の結果の抽出画像データを示す図であって、図11(a)はタンカーの赤外画像データに対して遺伝子配列を適応した状態の写真像を、図11(a’)はタンカーの赤外画像データに対して遺伝子配列を適応した状態の写真像について点線で示した画像を、図11(b)は遺伝子処理をした結果の抽出画像データを、それぞれ示したものである。なお、図11(a’)では、タンカーの船影を点線で示してあるが、実際の写真では図11(a)に示すように不鮮明に表示されている。
【0030】
図12は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線画像データを遺伝子処理ステップで処理した結果の画像データを示す図であり、図12(a)はコンテナ船の赤外線画像データの写真像を、図12(a’)はコンテナ船の赤外線画像データの写真像を点線で示した像として示した図を、図12(b)は処理後のコンテナ船の画像データを、それぞれ示すものである。なお、図12(a’)では、コンテナ船の船影を点線で示してあるが、実際の写真では図12(a)に示すように不鮮明に表示されている。
【0031】
図13は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線画像データを遺伝子処理ステップで処理した結果の画像データを示す図であり、図13(a)はタンカーの赤外線画像データを、図13(a’)はタンカーの赤外線画像データについて点線で示した図を、図13(b)は処理後のタンカーの画像データを、それぞれ示すものである。なお、図13(a’)ではタンカーの船影を点線で示してあるが、実際の写真では図13(a)に示すように不鮮明に表示されている。
【0032】
図14は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、基準線算出処理ステップにおける基準線について説明するための図である。
図15は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、基準線算出処理ステップの動作を説明するための説明図であって、図15(a)は実際の写真像の画像データを、図15(a’)は実際の写真像を点線で示した図を、それぞれ示している。
【0033】
図16は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、強調処理ステップによって強調処理した場合の画像データを示す図であって、図16(a)は前記遺伝子処理ステップで得たコンテナ船の画像データを、図16(b)は物強調処理ステップで強調処理後のコンテナ船の画像データを、それぞれ示したものである。
【0034】
図17は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、強調処理ステップによって強調処理した場合の画像データを示す図であって、図17(a)は前記遺伝子処理ステップで得た自動車運搬船の画像データを、図17(b)は物強調処理ステップで強調処理後の自動車運搬船の画像データを、それぞれ示したものである。
【0035】
図18は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、物強調処理ステップによって強調処理した場合の画像データを示す図であって、図18(a)は前記遺伝子処理ステップで得たばら積み船の画像データを、図18(b)は強調処理ステップで強調処理後のばら積み船の画像データを、それぞれ示したものである。
【0036】
図19は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図であって、図19(a)は前記遺伝子処理ステップで得たタンカーの画像データを、図19(b)は強調処理ステップで強調処理後のタンカーの画像データを、それぞれ示したものである。
【0037】
図20は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、5種類の船舶を第1主成分と第2主成分にプロットした図であって、横軸に第1主成分が、縦軸に第2主成分がとられている。また、この図20では、○印が自動車運搬船を、△印がタンカーを、□印がコンテナ船を、×印がばら積み船を、□を二つ重ね合わせた形状が漁船を、それぞれ表している。
【0038】
図21は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、2種類の船舶を第1主成分と第2主成分にプロットした図であって、横軸に第1主成分が、縦軸に第2主成分がとられている。また、この図21では、△印がタンカーを、□印が漁船を、それぞれ表している。
図22は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて使用するRBF(Radial Basis Function)ネットワークを示す説明図である。
【0039】
次に、具体的動作について説明する。まず、タンカー、コンテナ船、漁船、自動車運搬線などの画像データを撮り溜めた前記赤外線デジタルカメラ13を前記コンピュータ装置3のUSBボード37に接続する。
ついで、前記画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムを実行している前記コンピュータ装置3の制御処理部31に対して例えばマウス7から画像取り入れ指令を与える。これにより、前記制御処理部31では第1のステップ21が実行されて、前記赤外線デジタルカメラ13内の船舶画像データをコンピュータ装置3のハードディスク装置33のデータベース領域14に格納する。
【0040】
ここで、赤外線デジタルカメラ13からコンピュータ装置3のハードディスク装置33に格納される画像データは、例えば図7に示す自動車運搬船の画像データ300や、例えば図8に示すタンカーの画像データ310である。
ついで、前記コンピュータ装置3の制御処理部31に対してマウス7などを使用して次の段階に処理を移すよう指令する。これにより、前記コンピュータ装置3の制御処理部31のCPU31aは、第2のステップ22を実行する。
【0041】
まず、前記コンピュータ装置3の制御処理部31のCPU31aは、図4に示す第2のステップ22の詳細を処理してゆくことになる。ここで、第2のステップ22は、既に説明したように、遺伝子処理ステップ221と、基準線算出処理ステップ222と、強調処理ステップ223と、特徴パラメータ処理ステップ224とからなる。
【0042】
第2のステップ22の処理がコンピュータ装置3の制御処理部31によって開始されると、まず、遺伝子処理ステップ221が制御処理部31によって実行される。遺伝子処理ステップ221では、例えば図9(a)に示すように、画像データ320に対して遺伝的配列に基づいて画像データを横方向の遺伝子配列「00・・・00100・・・00100・・・010・・00」とし、縦方向の遺伝子配列「010・・・010・・・010」とする領域分割をし、これを図9(b)に示すような遺伝子配列「00・・・00100・・・00100・・・010・・00」「010・・・010・・・010」につなげ、当該領域分割した画像データ(「00・・・00100・・・00100・・・010・・00」「010・・・010・・・010」)に対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求め、求めた分割画像データの領域毎に判別分析して二値化して船舶画像データを抽出することになる。
【0043】
この一連の遺伝的処理を行うと、図10(a)及び図10(a’)の自動車運搬船の画像データ330aは図10(b)に示す自動車運搬船の画像データ330bに抽出され、図11(a)及び図11(a’)のタンカーの画像データ340aは図11(b)に示すタイカーの画像データ340bに抽出され、図12(a)及び図12(a’)に示す自動車運搬船の画像データ350aは図12(b)に示す自動車運搬船の画像データ350bに抽出され、図13(a)及び図13(a’)の画像データ360aは図13(b)に示す画像データ360bに抽出される。この処理の具体的な処理ステップについて、図5を参照して説明する。
【0044】
すなわち、コンピュータ装置3の制御処理部31のCPU31aによって画像取得処理ステップ22の遺伝子処理ステップ221が実行されると、図5のフローチャートが実行される。まず、コンピュータ装置3の制御処理部31のCPU31aは、ハードディスク装置33のデータベース領域14の所定のエリアから、例えば図12(a)及び図12(a’)に示す自動車運搬船の画像データ350aを取込み、当該画像データ350aの初期遺伝子の生成を行う(ステップ(S)221)。
【0045】
具体的には、コンピュータ装置3の制御処理部31のCPU31aにより実行されている遺伝子処理ステップ221は、図12(a)に示すように画像データ350aを例えば図9あるいは図10(a)及び図10(a’)に示すように領域分割して横方向の遺伝子と縦方向の遺伝子とを求め、これを図9(b)に示すようにつなげた初期遺伝子の生成(この実施の形態では個体数50個)を実行する(S221)。もちろん、図11(a)及び図11(a’)に示すように領域分割して横方向の遺伝子と縦方向の遺伝子とを求め、これを図9(b)に示すようにつなげた初期遺伝子の生成を実行してもよい(S2211)。
次に、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、生成された当該初期遺伝子について数式1を適用して適用度を算出する(S2212)。
【0046】
【数1】

Figure 2005031789
【0047】
なお、数式1では、分子の「画像データの一次微分(prewittオペレータ)」は輪郭の強さと方向を表すため、船舶の画像データ中の船舶の輪郭を中心に強調させるためのものである。また、分母の「画像データの二次微分(laplacisnオペレータ)は、輪郭の強さのみを表すため、船舶の画像データ中の船舶の輪郭以外に背景や船舶像の中の点状のノイズ成分も同時に強調するためのものである。
【0048】
ついで、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、選択、淘汰(この実施の形態では、上位50%存続:個体数25個)の遺伝的処理を実行する(S2213)。
次に、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、交差(この実施の形態では、二点交差法:個体数50個)といった遺伝的処理を実行する(S2214)。
さらに、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、突然変異(この実施の形態では、確立0.1[%]といった遺伝的処理を実行する(S2215)。
【0049】
また、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、前述した遺伝的処理を施した後のデータを基に、再び数式1による適応度を求める(S2216)。
また、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、適応度が所定の世代(この実施の形態では、例えば10世代(図6参照))に渡って一定値に達していなければ(S2217;NO、)、ステップ2213に戻って再び上記ステップ2213、2214、2215、2216を繰り返し処理する。
【0050】
なお、上記処理ステップの処理がされることにより、この実施の形態では、図6に示すように、実線は個体数30個の場合の10世代の適応度の変化を示し、点線は個体数50個の場合の10世代の適応度の変化を示し、一点鎖線は個体数70個の場合の10世代の適応度の変化を示している。
一方、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、選択、淘汰、交差、突然変異といった遺伝的処理を行い(S2213〜2215)、再び数式1による適応度を求める操作を行い(S2216)、図6に示すように、適応度が所定の世代(この実施の形態では、例えば10世代)に渡って一定値に達したときに(S2217;YES)、最も適応度の高い遺伝子配列が得られたことになる。
【0051】
前記コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、前記ステップにおいて得られた最大適応度による遺伝子配列に基づく二値化をする(S2218)。上述したようにコンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221により処理された結果、前述したように例えば図12(b)に示すように自動車運搬船が鮮明に表示できるし、同様に、例えば図13(b)に示すようにタンカーが鮮明に表示できるようになる。
【0052】
このような遺伝子処理ステップ221が終了すると、コンピュータ装置3の制御処理部31のCPU31aは、基準線算出処理ステップ222に移行する。前記制御処理部31は、基準線算出処理ステップ222に処理を開始すると、例えば図14に示すタンカーの画像データに対して、例えば図15に示す処理を実行して、前記遺伝子処理ステップ221で抽出した船舶画像データに対して上甲板線を求める処理を行う。
【0053】
すなわち、コンピュータ装置3の制御処理部31のCPU31aで処理される基準線算出処理ステップ222では、図14に示すタンカーの画像データ370における上甲板線(基準線)SLを求めることになる。この上甲板線の検出を行う理由は、船体と上部構造物を分離するために必要だからである。
このCPU31aで処理されている基準線算出処理ステップ222では、通常、船舶像を水平方向に投射した投射の最大値を示す位置を上甲板線(基準線)SLとする処理をおこなう。
【0054】
しかし、上甲板線SLが、前述した位置よりも下に存在する船種に対しては、前記基準線算出処理ステップ222は、図5(a)及び図5(a’)に示すように、水平方向に投射した射影の最大値を示す位置MPから喫水位置WPの範囲で、prewittオペレータによりエッジを検出し(図15(a)及び図15(a’)のS261)、これによりエッジ画像380bを得て、その得たエッジ画像380bに対して細線化処理を施し(図15(a)及び図15(a’)のS262)、これにより細線化画像380cを得て、さらに、前記細線化画像380cに対してHouh変換を施すことにより求めた画像380dに示す直線部分を上甲板線SLとした(図15(a)及び図15(a’)のS263)。
【0055】
このように前記基準線算出処理ステップ222において求めた上甲板線(基準線)SLを基に、コンピュータ装置3の制御処理部31のCPU31aによって実行されている強調処理ステップ223は、上甲板線上の構造物を強調する。この基準線算出処理ステップ222によって処理された結果、図16(a)に示すコンテナ船の画像データ380aについては、図16(b)に示すようにコンテナ船に引かれた上甲板線(基準線)SL線の上側が強調された画像データ380bになる。
【0056】
同様に、図17(a)に示す自動車運搬船の画像データ390aについては、図17(b)に示すように自動車運搬船に引かれた上甲板線(基準線)SL線の上側が強調された画像データ390bになる。同様に、図18(a)に示すばら積み船の画像データ400aについては、図18(b)に示すようにばら積み船に引かれた上甲板線(基準線)SL線の上側が強調された画像データ400bになる。同様に、図19(a)に示すタンカーの画像データ410aについては、図19(b)に示すようにタンカーに引かれた上甲板線(基準線)SL線の上側が強調された画像データ410bになる。
【0057】
ついで、コンピュータ装置3の制御処理部31のCPU31aは、次のステップである特徴パラメータ処理ステップ224の処理に移行する。制御処理部31のCPU31aで処理されている特徴パラメータ処理ステップ224は、前記船舶全体画像データと、前記強調処理ステップ223で求めた上部構造物の画像データとを基に、船舶全体と上部構造物の面積比R、円形度C及び図形重心の高さHなどの特徴パラメータを求める。
【0058】
上記強調処理ステップ223で算出する特徴パラメータとは、船舶全体と上部構造物の面積比R、円形度C、図形重心の高さHなどである。
まず、特徴パラメータの一つである船舶全体と上部構造物の面積比Rは、
R=Su/Sa …[2]
Su:上部構造物の面積
Sa:船舶全体の面積
で与えられる。
また、特徴パラメータの他の一つである円形度Cは、
C=4πSc/L …[3]
Sc:重み付け後の船舶像の面積
L:重み付け後の船舶像の輪郭長
で与えられる。
【0059】
また、特徴パラメータのさらに他の一つである図形重心の高さHは、
H=(2RY/W)tan(φ/2) …[4]
R:相手船までの距離
Y:重み付け後の垂直方向の図形重心
W:画像の垂直方向の全画素数
φ:カメラの角度
で与えられる。
【0060】
また、特徴パラメータのさらに他の一つである水平方向の図形重心Dは、
D=X/Y
X:重み付け後の水平方向の図形重心
Y:船舶の水平方向の画素数
で与えられる。
このようにして特徴パラメータ処理ステップ224で求めた特徴パラメータを用い、コンピュータ装置3の制御処理部31のCPU31aにおいて第3のステップ23を処理することにより、次のようにして物体(船舶)の種別や形状を判定する。
【0061】
前記コンピュータ装置3の制御処理部31のCPU31aにおいて処理されてる第3のステップ23は、図22に示すRBF(RadialBasisFunction)ネットワーク50を使用し、前記船舶全体画像データと前記強調処理ステップ223で求めた上部構造物の画像データとを基に、船舶全体と上部構造物の面積比R、円形度C及び図形重心の高さHの特徴パラメータを入力要素とし、当該入力要素をRBFネットワークに取込み、当該RBFネットワーク50によって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別(船舶の種別)を分類している。
【0062】
なお、RBFネットワーク50は、通常、上述した属性から各種物体の種別(船舶の種別)を判別することができるが、例えば図20に示すようにコンテナ船と、漁船とが同一特徴範囲に分類されたときには、さらに、別の入力要素を基にして確率を計算することにより、図21に示すように、タンカーと、漁船とを分類することができる。
【0063】
このような処理ステップを説明するために、RBFネットワーク50は、図22に示すように、第1分類52において所定の特徴パラメータ(R、C、H)を用いて物体の種別(船種)を分類し、第1分類52で同一範疇に分類されたもの(タンカー、漁船)を、さらに別な特徴パラメータ(H、D)を用いて第2分類54で同一分類る分類されたものをさらに他の物体(船種(タンカーと、漁船とに分類)として分類している。
しかし、上記RBFネットワーク50は、当該ネットワーク50による確率計算で物体の形状が判別できるときには、この第1分類52と、第2の分類54とは必須の要件ではない。
【0064】
なお、上述した船舶全体と上部構造物の面積比Rと、円形度Cと、図形重心の高さHを特徴パラメータを第1主成分と第2主成分に分けて5種類の船舶をプロットしたものが主成分得点の散布図(図20)である。この図20からもわかるようにタンカーと漁船は、得点分布の一部が重複していることがわかる。
そこで、第一段階での船種の判別では両者を同一カテゴリーとして扱うことにして処理を進めることとして説明をしてゆく。
【0065】
次に、この同一カテゴリー内の分類を行うために、図形の重心の高さHと水平方向の図形重心Dの2つの特徴パラメータを用いて主成分分析を行った結果が図21に示す散布図である。この図21の散布図からもわかるようにタンカーと漁船が明らかに分類されていることがわかる。
この遺伝的アルゴリズムによる船種判別システム1では、コンピュータ装置3で実行されている第3のステップ23においてRBFネットワーク50を用い、RBFネットワーク50による確率計算によって、物体の種別(船種)の判別を行っている。
【0066】
なお、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システム1では、RBFネットワーク50は、前述した主成分分析の結果を基に作成し、図22に示すように、第一分類52において船舶全体と上部構造物の面積比R、円形度C、図形重心の高さHの3つの特徴パラメータを入力要素として、「自動車運搬船」、「コンテナ船」、「バラ積み船」の他、「タンカー」と「漁船」を同一カテゴリーとして判別をおこない、第二分類54において図形重心の高さHと水平方向の図形重心Dの特徴パラメータを入力要素として「タンカー」と「漁船」の判別を行う二段階構成としてある。また、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムでは、学習はアスペクト10度ごとの船舶モデルの船舶像から算出した特徴パラメータを用いて行っている。
【0067】
さらに、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システム1では、船舶判別は上述した数式2〜数式5に示すように、相手船までの距離、アスペクトなど、それぞれ条件の異なる船舶の赤外画像を用いて行っている。
このように画像情報を利用したRBFネットワークによる物体種別形状判別システム1において、コンピュータ装置3の制御処理部31のCPU31aが画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラム20を処理した結果、表1のようなデータが得られた。
【0068】
【表1】
Figure 2005031789
【0069】
この表1に示すように、自動車運搬船については試験画像数11枚に対して100[%]の判別率であり、コンテナ船については試験画像4枚に対して75[%]の判別率であり、ばら積み船については試験画像数6枚に対して100[%]の判別率であり、タンカーについては試験画像13枚に対して100[%]の判別率であり、漁船については試験画像5枚に対して80[%]の判別率であった。
【0070】
なお、画像情報を利用したRBFネットワークによる物体種別形状判別システム1において、コンピュータ装置3の制御処理部31のCPU31aで処理した結果は、ハードディスク装置33のデータベース領域16に格納しておく。
本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステム1では、ほぼ全ての船種において、良好な結果を得ることができた。また、誤判別を生じた船舶について検討した結果、船舶の判別精度は2値化の処理結果に大きく依存することがわかった。
【0071】
以上説明したように本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステム1は、RBFネットワーク50を用いた物体種別(船種)判別により、ほぼ全ての物体の種別(船種)において、良好な結果を得ることができ、かつ運動性能の収集もできる。このような物体の種別を判別することが可能であれば、例えば船舶の安全運行を支援する重要な要素である船種を確実に判別することができるという利点がある。
【0072】
以上説明したように本発明では、画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステム1の好適な実施の形態として、物体として船舶を例に挙げて説明したが、この物体としては船舶に限定されるものではなく、本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムによれば、自動車、戦車、人、その他、あらゆる物体の種別や形状を判別することがかものであることはいうまでもない。
また、本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムでは、物体の画像として赤外線画像を使用したが、これに限定されることなく、物体を通常の昼光色で撮像した画像であっても、その他の光による物体を撮像手段によって撮像した画像であってもよい。
【0073】
【発明の効果】
以上説明したように本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムによれば、遺伝的アルゴリズムにより物体像を抽出し、その抽出した物体像を所定の基準線を基に構造物の強調をし、その強調した画像から特徴パラメータを求め、その特徴パラメータをRBFネットワークに入力して物体の種別や形状の判別を行うことができる。
また、本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムでは、物体の種別を判別した結果をいろいろな技術分野(例えば、衝突回避システムなど)に応用することができるという利点がある。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムを示すブロック図である。
【図2】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムの一部を構成するコンピュータ装置を説明するためのブロック図である。
【図3】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるハードディスク装置に格納されているプログラムやデータを説明するための図である。
【図4】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムによる画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムの構成例を示す図である。
【図5】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるコンピュータ装置で処理する遺伝子処理ステップの具体的な処理フローチャートである。
【図6】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるコンピュータ装置で処理する遺伝子処理ステップで適応度が変化してゆく様子を示す特性図である。
【図7】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線デジタルカメラからコンピュータ装置に取り込んだ自動車運搬船の画像データの例を示す図である。
【図8】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線デジタルカメラからコンピュータ装置に取り込んだタンカーの画像データの例を示す図である。
【図9】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、船舶画像データを横方向の遺伝子配列と縦方向に遺伝子配列に区分けした図である。
【図10】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、遺伝子処理ステップにおける最大適応度を算出した遺伝子配列に基づく分割領域をコンテナ船の赤外画像データに適用し、かつ遺伝子処理した後の結果の抽出画像データを示す図である。
【図11】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、遺伝子処理ステップにおける最大適応度を算出した遺伝子配列に基づく分割領域をタンカーの赤外画像データに適用し、かつ遺伝子処理した後の結果の抽出画像データを示す図である。
【図12】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線画像データを遺伝子処理ステップで処理した結果の画像データを示す図である。
【図13】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線画像データを遺伝子処理ステップで処理した結果の画像データを示す図である。
【図14】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、基準線算出処理ステップにおける基準線について説明するための図である。
【図15】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、基準線算出処理ステップの動作を説明するための説明図である。
【図16】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図である。
【図17】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図である。
【図18】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図である。
【図19】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図である。
【図20】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、5種類の船舶を第1主成分と第2主成分にプロットした図である。
【図21】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、2種類の船舶を第1主成分と第2主成分にプロットした図である。
【図22】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて使用するRBF(RadialBasisFunction)ネットワークを示す説明図である。
【符号の説明】
1 遺伝的アルゴリズムによる船種判別システム
3 コンピュータ装置
5 キーボード(入力装置)
7 マウス(入力装置)
9 ディスプレイ(出力装置)
10 OS格納領域
11 プリンタ(出力装置)
12 AP格納領域
13 赤外線デジタルカメラ(撮像手段)
14,16 データベース領域
22 画像取得処理ステップ
24 船舶画像データ抽出処理ステップ
26 基準線算出処理ステップ
28 構造物強調処理ステップ
30 船種判別処理ステップ
31 制御処理部
31a CPU
31b ROM
31c RAM
32 主メモリ
33 ハードディスク装置
34 入力用I/F
35 表示用I/F
36 プリンタI/F
37 USBボード
38 バスライン[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object type shape discriminating method by an RBF network using image information where the type and shape of various objects can be discriminated from image information of the object, and a system thereof.
[0002]
[Prior art]
In general, if the shape and type of an object can be determined from image information of the object captured by an imaging device such as an electronic camera or a TV camera, it can be easily applied to various technical fields.
For example, in the case of a collision avoidance system that supports safe operation of a ship, in addition to knowing the course and movement performance of the other ship, if the shape and type of the other ship can be determined, It is possible to avoid collision effectively.
The collision avoidance system having such a system configuration can be said to be an extremely effective system in a situation where the risk of a collision accident between ships is increasing due to an increase in the amount of ship traffic as in today's present day.
By the way, the present inventors have proposed a ship collision avoidance system based on a genetic algorithm as a ship collision avoidance system based on the course and movement performance of the own ship and the course and movement performance of the other ship (for example, Patent Document 1).
[0003]
In this conventional collision avoidance system using a genetic algorithm, the fitness A, which is an evaluation of the moving path of a moving object, is determined by the safety S, the deviation D from the target path, the economic efficiency E, and the immediate death determining gene B. = B × (S + D + E), and the numerical value of safety S is logarithmically smaller with respect to the narrowing of the interval between moving objects that move relatively.
Japanese Patent Laid-Open No. 2002-222500.
[0004]
[Problems to be solved by the invention]
However, the above-described conventional collision avoidance system of a genetic algorithm seeks the possibility of a collision based on the course and movement performance of the own ship and the course and movement performance of the other ship, and provides safe operation. It did not identify the ship type, which is an important element to support.
SUMMARY OF THE INVENTION An object of the present invention is to provide an object type shape discrimination method and system using an RBF network that solves the above-described problems, makes it possible to discriminate the types of various objects, and uses image information with a wide application range.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, an object type shape discrimination method by an RBF network using image information according to claim 1 is an object type discrimination method capable of discriminating an object type from image information of an object. A first step of obtaining the image information, a second step of extracting a predetermined feature parameter relating to the image from the image information of the object, and a predetermined feature parameter relating to the image obtained in the second step to the RBF network And a third step of calculating the probability of belonging to each object type by the RBF network and determining the type of various objects from the probability that the calculation result belongs to a predetermined class.
According to a second aspect of the present invention, in the object type shape discrimination method by the RBF network using the image information according to the first aspect, the second step is based on a genetic sequence for the image information of the object. The image information is segmented into image data, and the genetic sequence having the highest fitness is obtained while exploring genetic processing on the image data to obtain segmented image data, and for each segment of the segmented image data. A gene processing step for extracting object binarized image data by discriminating and analyzing the data, and a reference line for obtaining a reference line for the object image with respect to the object binarized image data extracted in the gene processing step A calculation processing step, and an enhancement processing step for obtaining emphasized image data by emphasizing a predetermined structure based on the reference line in the object binarized image data. And flop, characterized in that a characteristic parameter processing step for calculating a feature parameter concerning the image on the basis of the weighted image data obtained by the image information and the enhancement processing step of said object.
According to a third aspect of the present invention, in the object type shape discrimination method by the RBF network using the image information according to the first aspect, the first step obtains image information of the object by imaging the object with an imaging means. It is characterized by that.
According to a fourth aspect of the present invention, in the object type shape discrimination method by the RBF network using the image information according to the first aspect, the third step includes a feature parameter relating to an image obtained from the image information of the object and the image. An RFB network that calculates a probability that a feature parameter related to an input image belongs to a predetermined class based on a difference between learning data of feature parameters related to the parameter and a parameter that determines an allowable range is used. A feature parameter is input, and the probability is calculated by the RFB network to determine the type of the object.
In order to achieve the above object, an object type shape determination system using an RBF network using image information according to claim 5 is an object type determination system capable of determining an object type from image information of an object. Imaging means for obtaining the image information, feature extraction means for extracting a predetermined feature parameter for the image from the image information of the object from the imaging means, and a predetermined feature parameter for the image obtained by the feature extraction means And an object type discriminating unit which can take in the network, calculate the probability of belonging to each object type by the RBF network, and discriminate the type of various objects from the probability that the calculation result belongs to a predetermined class.
According to a sixth aspect of the invention, in the object type shape discriminating system using the RBF network using the image information according to the fifth aspect, the feature extracting unit is configured to perform the processing based on a genetic sequence with respect to the image information of the object. The image information is segmented into image data, and the genetic sequence having the highest fitness is obtained while exploring genetic processing on the image data to obtain segmented image data, and for each segment of the segmented image data. Gene processing means for extracting object binarized image data by discriminating analysis and binarization, and a reference line for obtaining a reference line for the object image for the object binarized image data extracted by the gene processing means Calculation processing means, enhancement processing means for obtaining emphasized image data by emphasizing a predetermined structure based on the reference line in the object binarized image data, and Characterized in that a characteristic parameter processing means for calculating a feature parameter relating to image the enhanced image data obtained by the image information and the enhancement processing unit body based.
According to a seventh aspect of the invention, in the object type shape discriminating system using the RBF network using the image information according to the fifth aspect, the object type discriminating means includes a feature parameter relating to an image obtained from the image information of the object and the image. And an RFB network that calculates a probability that a feature parameter related to an input image belongs to a predetermined class based on a difference between learning data of feature parameters related to the parameter and a parameter that determines an allowable range. A feature parameter is input, and the probability is calculated by the RFB network to determine the type of the object.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1 to 22 are diagrams for explaining an object type shape discrimination method using an RBF network using image information and an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. In these drawings, the object type shape discrimination method by the RBF network using the image information according to the embodiment of the present invention can be applied to a ship collision avoidance system. Hereinafter, it is applied to a ship collision avoidance system. An example will be described.
[0007]
In the present invention, in order to discriminate the type (ship type) of an object, an object image (ship image) for each aspect of an object to be discriminated (a ship in this embodiment) is required. Here, the aspect is an angle formed by the direction of the opponent's object (ship) and the course of the opponent's object (ship) as viewed from yourself (your ship). However, it is difficult to obtain object images (ship images) of all aspects for all objects (ships).
[0008]
Therefore, in the present embodiment, a predetermined object image is substituted. In the present embodiment, as a predetermined object image, a ship having a standard hull form among ship types that occupy about 69% of collision accidents (“container ship”, “tanker”, “bulk ship”, “fishing ship”). , “Automobile carrier”), a ship model is created by computer graphics, feature parameters for each aspect 10 [degree] are calculated from these ship images, and then, the calculated feature parameters are affected by the aspect. In order to select a ship type that can be classified well, an analysis using an RBF network is performed for each aspect 10 [degree], and the type of the object (ship type) is determined. This will be specifically described below.
[0009]
FIG. 1 is a block diagram showing an object type shape discrimination system by an RBF network using image information according to an embodiment of the present invention. In FIG. 1, an object type shape discrimination system 1 by an RBF network using image information according to an embodiment of the present invention is roughly divided into a computer device 3, a keyboard 5 and a mouse 7 as input devices, and an output. The apparatus includes a display 9 and a printer 11 as apparatuses, and an infrared digital camera 13 as an imaging unit. A keyboard 5, a mouse 7, a display 9, a printer 11, and an infrared digital camera 13 are connected to the computer device 3.
[0010]
The infrared digital camera 13 is not always connected to the computer apparatus 3 but is connected to the computer apparatus 3 by, for example, USB connection when an image to be processed is taken into the computer apparatus 3. It is a thing. In the above embodiment, the infrared digital camera 13 is used as the imaging means. However, this is only adopted because it can capture images even at night, and only image information captured during the daytime may be used. Needless to say, an ordinary digital camera may be used.
Further, the ship image captured by the infrared digital camera 13 is obtained by performing a binarization process described later, calculating a feature parameter, and determining a ship type by the RBF network.
[0011]
FIG. 2 is a block diagram for explaining a computer device that constitutes a part of an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
The computer 3 includes a control processing unit 31 that executes object type shape determination processing by the RBF network using various image information and other processing and control, and object type shape determination by the RBF network using the operating system and image information. A main memory 32 for storing processing programs and other necessary data, and a hard disk for storing an object type shape discrimination processing program, a ship image database, and other necessary data and databases by an RBF network using the operating system and the image information The apparatus 33 includes an input interface (I / F) 34, a display I / F 35, a printer I / F 36, a USB board 37, and a bus line 38 for connecting them.
[0012]
The control processing unit 31 includes a CPU 31a that executes various arithmetic processes, a ROM 31b that stores a program that causes the CPU 31a to execute a predetermined process at the time of initializing, and a CPU 31a that is necessary when the CPU 31a executes arithmetic processes. The RAM 31c temporarily stores data, and these are connected by a bus line 38.
[0013]
In addition, a keyboard 5 and a mouse 7 are connected to the input I / F 34, whereby various data and commands can be given to the control processing unit 31 of the computer device 3. A display 9 is connected to the display I / F 35, so that the result processed by the control processing unit 31 in the computer device 3 can be displayed on the display 9. A printer 11 is connected to the printer I / F 36, so that data to be printed out of the results processed by the control processing unit 31 of the computer apparatus 3 can be given to the printer 11 for printing. An infrared digital camera 13 is detachably connected to the USB board 37, and image data collected by the infrared digital camera 13 is controlled by the control processing unit 31 of the computer device 3 as necessary. The hard disk device 33 of the device 3 can be stored in a predetermined area.
[0014]
FIG. 3 is a diagram for explaining programs and data stored in the hard disk device in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention. In FIG. 3, the hard disk device 33 includes an OS storage area 10 of an operating system and an object type shape discrimination process by an RBF network using image information that realizes an object type shape discrimination method by an RBF network using image information. A program AP storage area 12 and database areas 14 and 16 are provided.
[0015]
When the computer device 3 is turned on and starts operating, the CPU 31a of the control processing unit 31 operates according to the initial program in the ROM 31b, and the operating system stored in the OS storage area 10 of the hard disk device 33 is stored in the main memory. The CPU 31a of the control processing unit 31 operates the operating system on the predetermined storage area of the main memory 32, and the operating system operates. Further, when this operating system is operated, the object type shape discrimination processing program by the RBF network using the image information registered in the operating system in advance is brought into a startable state.
[0016]
In addition, the CPU 31a of the control processing unit 31 in the computer device 3 stores the program in the AP storage area 12 of the hard disk device 33 by activating the object type shape discrimination processing program by the RBF network using the image information with the mouse 7 or the like. The object type shape discrimination processing program by the RBF network using the image information being stored is stored in a predetermined storage area of the main memory 32, and then the image information stored in the predetermined storage area of the main memory 32 When the CPU 31a of the control processing unit 31 processes the object type shape discrimination processing program using the RBF network using the RBF network, the object type shape discrimination system 1 using the RBF network using the image information is realized.
[0017]
An operation of the object type shape discrimination system 1 by the RBF network using the image information having such a configuration will be described. First, an application program for realizing an object type shape discrimination method using an RBF network using image information according to an embodiment of the present invention will be described with reference to FIG.
FIG. 4 is a diagram showing a configuration example of an object type shape discrimination processing program using an RBF network using image information in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
[0018]
In FIG. 4, the object type shape discrimination processing program 20 by the RBF network using image information includes a first step 21 for obtaining object image information, and an image from the object image information obtained in the first step 21. A second step 22 for extracting a predetermined feature parameter relating to the image, a predetermined feature parameter relating to the image obtained in the second step 22 is taken into the RBF network, and the probability belonging to each object type is calculated by the RBF network And a third step 23 for discriminating the types of various objects from the probability that the calculation result belongs to a predetermined class.
[0019]
Here, in the second step 22, the image information of the object is divided into regions based on the genetic sequence to obtain image data, and the image processing is repeated while repeating the genetic processing. Gene processing step 221 that obtains divided image data by exploring a gene sequence with high fitness and extracts object binarized image data by discriminating and analyzing for each region of the divided image data. A reference line calculation processing step 222 for obtaining a reference line for the object image with respect to the object binarized image data extracted in the gene processing step 221, and a structure in the object binarized image data is represented by the reference line. Structure emphasis processing step 223 that obtains emphasized image data by emphasizing a predetermined basis, and object image information obtained in the first step 21 and the structure emphasis The enhanced image data obtained in physical step and a feature parameter processing step 224. for calculating a feature parameter relating to image based.
[0020]
In addition, the third step 23 is configured to input an image based on a difference between a feature parameter relating to an image obtained from the image information of the object, a difference between learning data of the feature parameter relating to the image, and a parameter for determining an allowable range. Using an RFB network that calculates the probability that a feature parameter belongs to a predetermined class, the feature parameter related to the image is input to the RFB network, and the probability is calculated by the RFB network to determine the type of the object It is.
[0021]
The object type shape discrimination processing program 20 by the RBF network using such image information is processed by the control processing unit 31 of the computer apparatus 3, so that the image processing information of the object is stored in the control processing unit 31 of the computer apparatus 3. An image capturing unit for obtaining the image, a feature extraction unit for extracting a predetermined feature parameter for the image from the image information of the object from the image capturing unit, and a predetermined feature parameter for the image obtained by the feature extraction unit is incorporated into the RBF network. Using image information characterized by comprising object type discrimination means for calculating the probability of belonging to each object type by the RBF network and discriminating the type of various objects from the probability that the calculation result belongs to a predetermined class. An object type shape discrimination system 1 using an RBF network is realized.
[0022]
Here, the feature extraction means in the object type shape discriminating system 1 by the RBF network using image information divides the image information into regions based on a genetic sequence for the image information of the object to obtain image data. In addition to obtaining the divided image data by exploring the gene sequence with the highest fitness while repeating the genetic processing on the image data, and discriminating and binarizing each divided image data region Gene processing means for extracting the object binarized image data by means of, a reference line calculation processing means for obtaining a reference line for the object image with respect to the object binarized image data extracted by the gene processing means, and the object binarization Emphasis processing means for obtaining emphasized image data by emphasizing predetermined structures on the basis of the reference line, image information of the object, and the emphasis processing procedure And a feature parameter processing means for calculating feature parameters in an image based on the enhanced image data determined.
[0023]
Further, the object type discrimination means realized by the control processing unit 31 is a parameter for determining a difference between a feature parameter relating to an image obtained from image information of the object and learning data of the feature parameter relating to the image, and an allowable range. Based on the above, an RFB network that calculates the probability that a feature parameter related to an input image belongs to a predetermined class is input. The feature parameter related to the image is input to the RFB network, and the probability is calculated by the RFB network. The type of the object is discriminated.
[0024]
Next, a specific operation of the object type shape discrimination system 1 by the RBF network using the image information will be described with reference to FIGS. 4 to 22 based on FIGS.
Here, FIG. 5 is a specific processing flowchart of the gene processing step processed by the computer device in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention.
[0025]
FIG. 6 is a characteristic diagram showing how fitness changes in a gene processing step processed by a computer device in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. The horizontal axis represents the generation, and the vertical axis represents the fitness.
FIG. 7 is a diagram showing an example of image data of an automobile carrier ship taken into the computer apparatus from the infrared digital camera in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. In FIG. 7, the distance between the ship and the infrared digital camera 13 is 2004 [m], the angle of view is 8.2 × 6.2 [degrees], and the sensing element is an SOI diode. In FIG. 7, the shadow of the car carrier is shown by a solid line, but it is unclearly displayed in a specific photographic image.
[0026]
FIG. 8 is a diagram showing an example of tanker image data taken into the computer apparatus from the infrared digital camera in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention. In FIG. 8, the distance between the ship and the infrared digital camera 13 is 452.2 [m], the angle of view is 26 × 20 [degrees], and the sensing element is an SOI diode. In FIG. 8, the tanker's shadow is shown by a solid line, but it is unclearly displayed in a specific photographic image.
[0027]
FIG. 9 shows the classification of ship image data into a horizontal gene array and a vertical gene array in a gene processing step processed by an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. FIG. 9A shows a gene sequence corresponding to image data, and FIG. 9B shows a state where a horizontal gene sequence and a vertical gene sequence are connected to each other.
[0028]
FIG. 10 shows an infrared image of a container ship representing a divided region based on a gene sequence in which a maximum fitness is calculated in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. FIG. 10 is a diagram showing extracted image data as a result after being applied to data and subjected to gene processing, and FIG. 10A shows a photographic image in a state in which a gene sequence is adapted to infrared image data of a container ship, FIG. 10 (a ′) shows an image displayed by a dotted line for a photographic image in which the gene sequence is adapted to the infrared image data of the container ship, and FIG. 10 (b) shows the extracted image data as a result of the gene processing. It is shown. In FIG. 10 (a '), the shadow of the container is indicated by a dotted line, but in an actual photograph, it is unclearly displayed as shown in FIG. 10 (a).
[0029]
FIG. 11 shows an infrared image data of a tanker representing a divided region based on a gene sequence in which a maximum fitness is calculated in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. FIG. 11A is a diagram showing the extracted image data obtained after applying the gene processing and the gene processing, and FIG. 11A shows a photographic image in which the gene sequence is adapted to the infrared image data of the tanker. (A ′) shows an image indicated by a dotted line for a photographic image in which the gene sequence is adapted to the infrared image data of the tanker, and FIG. 11 (b) shows extracted image data obtained as a result of the gene processing. It is a thing. In FIG. 11 (a '), the tanker's shadow is shown by a dotted line, but in an actual photograph, it is displayed unclearly as shown in FIG. 11 (a).
[0030]
FIG. 12 is a diagram showing image data as a result of processing infrared image data in the gene processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. a) is a photographic image of the infrared image data of the container ship, FIG. 12A is a diagram showing the photographic image of the infrared image data of the container ship as an image indicated by a dotted line, and FIG. The image data of the container ship is shown respectively. In FIG. 12 (a '), the shadow of the container ship is indicated by a dotted line, but in an actual photograph, it is unclearly displayed as shown in FIG. 12 (a).
[0031]
FIG. 13 is a diagram showing image data obtained as a result of processing infrared image data in the gene processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG. 13A shows the tanker infrared image data, FIG. 13A ′ shows the tanker infrared image data in dotted lines, and FIG. 13B shows the processed tanker image data. . In FIG. 13 (a '), the tanker's shadow is shown by a dotted line, but in an actual photograph, it is displayed unclearly as shown in FIG. 13 (a).
[0032]
FIG. 14 is a diagram for explaining the reference line in the reference line calculation processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention.
FIG. 15 is an explanatory diagram for explaining the operation of the reference line calculation processing step in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention. Shows the image data of the actual photographic image, and FIG. 15 (a ′) shows the diagram showing the actual photographic image with dotted lines.
[0033]
FIG. 16 shows image data when the image data obtained in the gene processing step is enhanced by the enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG. 16A shows the container ship image data obtained in the gene processing step, and FIG. 16B shows the container ship image data after the enhancement process in the object enhancement process step. It is a thing.
[0034]
FIG. 17 shows image data when the image data obtained in the gene processing step is enhanced by the enhancement processing step in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention. FIG. 17A shows the image data of the car carrier obtained in the gene processing step, and FIG. 17B shows the image data of the car carrier after the emphasis processing in the object emphasis processing step. It is a thing.
[0035]
FIG. 18 shows image data when the image data obtained in the gene processing step is enhanced by the object enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. 18 (a) shows the image data of the bulk carrier obtained at the gene processing step, and FIG. 18 (b) shows the image data of the bulk carrier after the enhancement processing at the enhancement processing step. It is a thing.
[0036]
FIG. 19 shows image data when the image data obtained in the gene processing step is emphasized in the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. 19 (a) shows the tanker image data obtained in the gene processing step, and FIG. 19 (b) shows the tanker image data after the enhancement processing in the enhancement processing step. It is.
[0037]
FIG. 20 is a diagram in which five types of ships are plotted on the first principal component and the second principal component in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. The first principal component is taken on the axis, and the second principal component is taken on the vertical axis. Further, in FIG. 20, a circle mark represents a car carrier, a triangle mark represents a tanker, a square mark represents a container ship, a cross mark represents a bulk carrier, and a shape obtained by overlapping two squares represents a fishing boat. .
[0038]
FIG. 21 is a diagram in which two types of ships are plotted on the first principal component and the second principal component in the object type shape discrimination system using the RBF network using image information according to the embodiment of the present invention. The first principal component is taken on the axis, and the second principal component is taken on the vertical axis. Further, in FIG. 21, Δ marks represent tankers and □ marks represent fishing boats.
FIG. 22 is an explanatory diagram showing an RBF (Radial Basis Function) network used in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
[0039]
Next, a specific operation will be described. First, the infrared digital camera 13 in which image data such as a tanker, a container ship, a fishing boat, and an automobile transportation line is collected is connected to the USB board 37 of the computer device 3.
Next, an image take-in command is given from, for example, the mouse 7 to the control processing unit 31 of the computer device 3 executing the object type shape discrimination processing program by the RBF network using the image information. As a result, the control processing unit 31 executes the first step 21 and stores the ship image data in the infrared digital camera 13 in the database area 14 of the hard disk device 33 of the computer device 3.
[0040]
Here, the image data stored in the hard disk device 33 of the computer apparatus 3 from the infrared digital camera 13 is, for example, the image data 300 of the car carrier shown in FIG. 7 or the image data 310 of the tanker shown in FIG.
Next, the control processing unit 31 of the computer apparatus 3 is instructed to move the processing to the next stage using the mouse 7 or the like. Thereby, the CPU 31a of the control processing unit 31 of the computer apparatus 3 executes the second step 22.
[0041]
First, the CPU 31a of the control processing unit 31 of the computer device 3 processes the details of the second step 22 shown in FIG. Here, as described above, the second step 22 includes a gene processing step 221, a reference line calculation processing step 222, an enhancement processing step 223, and a feature parameter processing step 224.
[0042]
When the processing of the second step 22 is started by the control processing unit 31 of the computer device 3, first, the gene processing step 221 is executed by the control processing unit 31. In the gene processing step 221, for example, as shown in FIG. 9A, the image data is converted into the gene sequence “00... 00100... 00100. 010... 00 ”, and the vertical gene sequence“ 010... 010... 010 ”is divided into regions, and this is divided into gene sequences“ 00. ······································································· Connected to “010 ... 010 ... 010” and the divided image data (“00 ... 00100 ... 00100 ... 010 ... “010... 010... 010”), the genetic sequence with the highest fitness is obtained by exploration while repeating the genetic processing, and discriminated and analyzed for each area of the obtained divided image data. The It is to be extracted the 舶 image data.
[0043]
When this series of genetic processing is performed, the image data 330a of the car carrier shown in FIG. 10 (a) and FIG. 10 (a ′) is extracted into the image data 330b of the car carrier shown in FIG. 10 (b). The tanker image data 340a of a) and FIG. 11 (a ′) is extracted into the image data 340b of the tyker shown in FIG. 11 (b), and the image of the automobile carrier shown in FIGS. 12 (a) and 12 (a ′). The data 350a is extracted into the image data 350b of the car carrier shown in FIG. 12B, and the image data 360a in FIGS. 13A and 13A ′ is extracted into the image data 360b shown in FIG. The Specific processing steps of this processing will be described with reference to FIG.
[0044]
That is, when the gene processing step 221 of the image acquisition processing step 22 is executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3, the flowchart of FIG. 5 is executed. First, the CPU 31a of the control processing unit 31 of the computer apparatus 3 takes in, for example, the image data 350a of the car carrier shown in FIGS. 12 (a) and 12 (a ′) from a predetermined area of the database area 14 of the hard disk device 33. Then, the initial gene of the image data 350a is generated (step (S) 221).
[0045]
Specifically, the gene processing step 221 executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 is performed by converting the image data 350a into, for example, FIG. 9 or FIG. 10 (a) and FIG. As shown in Fig. 9 (a '), the region is divided to obtain the horizontal gene and the vertical gene, and these are connected to generate an initial gene as shown in Fig. 9 (b). (Several 50) is executed (S221). Of course, as shown in FIG. 11 (a) and FIG. 11 (a ′), the initial gene is obtained by dividing the region to obtain the horizontal gene and the vertical gene and connecting them as shown in FIG. 9 (b). May be executed (S2211).
Next, the gene processing step 221 executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 calculates the degree of applicability by applying Equation 1 to the generated initial gene (S2212).
[0046]
[Expression 1]
Figure 2005031789
[0047]
In Equation 1, the numerator “primary derivative of image data (prewitt operator)” expresses the strength and direction of the contour, and is intended to emphasize the contour of the ship in the image data of the ship. In addition, since the second derivative of the image data (laplacism operator) represents only the strength of the contour, in addition to the contour of the vessel in the image data of the vessel, the noise components in the background and the vessel image are also included. At the same time for emphasis.
[0048]
Next, the gene processing step 221 executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 executes genetic processing of selection and selection (in this embodiment, surviving the top 50%: 25 individuals). (S2213).
Next, the gene processing step 221 executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 executes genetic processing such as crossing (in this embodiment, the two-point crossing method: 50 individuals) ( S2214).
Furthermore, the gene processing step 221 being executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 executes a genetic process such as mutation (in this embodiment, establishment 0.1 [%] (S2215).
[0049]
Further, the gene processing step 221 executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 obtains the fitness according to the mathematical formula 1 again based on the data after the above-described genetic processing (S2216).
Further, in the gene processing step 221 executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3, the fitness is a constant value over a predetermined generation (for example, 10 generations (see FIG. 6) in this embodiment). If not reached (S2217; NO), the process returns to step 2213 to repeat the above steps 2213, 2214, 2215, and 2216 again.
[0050]
By performing the above processing steps, in this embodiment, as shown in FIG. 6, the solid line indicates the change in fitness of 10 generations when the number of individuals is 30, and the dotted line indicates the number of individuals 50. The change in fitness of 10 generations in the case of individual is shown, and the alternate long and short dash line shows the change in fitness of 10 generations in the case of 70 individuals.
On the other hand, the gene processing step 221 executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 performs genetic processing such as selection, selection, crossing, and mutation (S2213 to 2215), and the fitness according to Equation 1 is again obtained. When the desired operation is performed (S2216) and the fitness level reaches a certain value over a predetermined generation (for example, 10 generations in this embodiment) (S2217; YES), as shown in FIG. A highly gene sequence is obtained.
[0051]
The gene processing step 221 being executed by the CPU 31a of the control processing unit 31 of the computer device 3 performs binarization based on the gene sequence based on the maximum fitness obtained in the step (S2218). As described above, as a result of the processing performed by the gene processing step 221 being executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3, for example, as shown in FIG. 12B, the car carrier can be clearly displayed. Similarly, for example, as shown in FIG. 13B, the tanker can be clearly displayed.
[0052]
When such a gene processing step 221 is completed, the CPU 31a of the control processing unit 31 of the computer apparatus 3 proceeds to the reference line calculation processing step 222. When the control processing unit 31 starts processing at the reference line calculation processing step 222, for example, the processing shown in FIG. 15 is executed on the image data of the tanker shown in FIG. A process for obtaining the upper deck line is performed on the ship image data.
[0053]
That is, in the reference line calculation processing step 222 processed by the CPU 31a of the control processing unit 31 of the computer apparatus 3, the upper deck line (reference line) SL in the tanker image data 370 shown in FIG. 14 is obtained. The reason for detecting this upper deck line is that it is necessary to separate the hull from the superstructure.
In the reference line calculation processing step 222 processed by the CPU 31a, normally, the position indicating the maximum projection value obtained by projecting the ship image in the horizontal direction is set as the upper deck line (reference line) SL.
[0054]
However, for ship types in which the upper deck line SL exists below the position described above, the reference line calculation processing step 222 is performed as shown in FIGS. 5 (a) and 5 (a ′). An edge is detected by the prewitt operator in the range from the position MP indicating the maximum value of the projection projected in the horizontal direction to the draft position WP (S261 in FIGS. 15A and 15A ′), and thereby the edge image 380b. And thinning processing is performed on the obtained edge image 380b (S262 in FIG. 15A and FIG. 15A ′), thereby obtaining a thinned image 380c. The straight line portion shown in the image 380d obtained by performing the Houh transform on the image 380c is defined as the upper deck line SL (S263 in FIGS. 15A and 15A ′).
[0055]
Thus, based on the upper deck line (reference line) SL obtained in the reference line calculation processing step 222, the emphasis processing step 223 executed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 is performed on the upper deck line. Emphasize the structure. As a result of the processing by the reference line calculation processing step 222, for the container ship image data 380a shown in FIG. 16A, the upper deck line drawn by the container ship (reference line) as shown in FIG. ) The image data 380b is emphasized on the upper side of the SL line.
[0056]
Similarly, for the image data 390a of the car carrier shown in FIG. 17 (a), the upper side of the upper deck line (reference line) SL line drawn on the car carrier is emphasized as shown in FIG. 17 (b). Data 390b is obtained. Similarly, the image data 400a of the bulk carrier shown in FIG. 18A is an image in which the upper side of the upper deck line (reference line) SL line drawn on the bulk carrier is emphasized as shown in FIG. 18B. It becomes data 400b. Similarly, for the tanker image data 410a shown in FIG. 19A, the upper side of the upper deck line (reference line) SL line drawn by the tanker is emphasized as shown in FIG. 19B. become.
[0057]
Next, the CPU 31a of the control processing unit 31 of the computer apparatus 3 proceeds to the process of the feature parameter processing step 224 which is the next step. The characteristic parameter processing step 224 processed by the CPU 31a of the control processing unit 31 is based on the entire ship image data and the image data of the upper structure obtained in the enhancement processing step 223. Characteristic parameters such as the area ratio R, the circularity C, and the height H of the figure centroid.
[0058]
The characteristic parameters calculated in the emphasis processing step 223 are the area ratio R between the entire ship and the superstructure, the circularity C, the height H of the figure center of gravity, and the like.
First, the area ratio R between the entire ship and the superstructure, which is one of the characteristic parameters,
R = Su / Sa ... [2]
Su: Area of superstructure
Sa: Total area of the ship
Given in.
The circularity C, which is another feature parameter, is
C = 4πSc / L2       ... [3]
Sc: Area of ship image after weighting
L: Contour length of ship image after weighting
Given in.
[0059]
Further, the height H of the figure centroid, which is still another feature parameter,
H = (2RY / W) tan (φ / 2) [4]
R: Distance to the other ship
Y: Figure center of gravity in the vertical direction after weighting
W: Total number of pixels in the vertical direction of the image
φ: Camera angle
Given in.
[0060]
In addition, the graphic centroid D in the horizontal direction, which is still another feature parameter,
D = X / Y
X: Weighted figure center of gravity in the horizontal direction
Y: Number of pixels in the horizontal direction of the ship
Given in.
By using the feature parameter obtained in the feature parameter processing step 224 in this manner and processing the third step 23 in the CPU 31a of the control processing unit 31 of the computer apparatus 3, the type of the object (ship) is as follows. And determine the shape.
[0061]
The third step 23 being processed by the CPU 31a of the control processing unit 31 of the computer apparatus 3 is obtained by using the RBF (Radial Basis Function) network 50 shown in FIG. Based on the image data of the superstructure, the area parameters R of the entire ship and the superstructure, the circularity C, and the characteristic parameters of the height H of the figure center of gravity are used as input elements, and the input elements are imported into the RBF network. The RBF network 50 calculates the probability of belonging to each object type, and classifies the types of various objects (ship types) from the probability that the calculation result belongs to a predetermined class.
[0062]
The RBF network 50 can usually determine the types of various objects (ship types) from the attributes described above. For example, as shown in FIG. 20, the container ship and the fishing boat are classified into the same feature range. Further, by calculating the probability based on another input element, the tanker and the fishing boat can be classified as shown in FIG.
[0063]
In order to explain such processing steps, the RBF network 50 uses the predetermined feature parameters (R, C, H) in the first classification 52 to classify the object type (ship type) as shown in FIG. What is classified and classified into the same category in the first classification 52 (tankers, fishing boats), and further classified into the same classification in the second classification 54 using further characteristic parameters (H, D) As an object (classified as a ship type (classified as a tanker or a fishing boat).
However, in the RBF network 50, when the shape of the object can be determined by the probability calculation by the network 50, the first classification 52 and the second classification 54 are not essential requirements.
[0064]
In addition, the area ratio R of the whole ship and the upper structure, the circularity C, and the height H of the graphic center of gravity described above were plotted with five types of ships divided into the first principal component and the second principal component. The thing is a scatter diagram of the main component scores (FIG. 20). As can be seen from FIG. 20, it can be seen that the tankers and fishing boats have a part of the score distribution overlapping.
Therefore, in the discrimination of the ship type in the first stage, it will be explained that both are treated as the same category and the processing proceeds.
[0065]
Next, in order to perform the classification within the same category, the result of the principal component analysis using two characteristic parameters of the height H of the graphic centroid and the horizontal graphic centroid D is shown in FIG. It is. As can be seen from the scatter diagram of FIG. 21, it can be seen that tankers and fishing boats are clearly classified.
In the ship type discriminating system 1 based on this genetic algorithm, the RBF network 50 is used in the third step 23 executed by the computer device 3, and the object type (ship type) is discriminated by the probability calculation by the RBF network 50. Is going.
[0066]
In the object type shape discrimination system 1 by the RBF network using the image information according to the embodiment of the present invention, the RBF network 50 is created based on the result of the principal component analysis described above, as shown in FIG. In the first classification 52, “car carrier ship”, “container ship”, “unloading” are input elements with three characteristic parameters of the area ratio R of the whole ship and the superstructure, the circularity C, and the height H of the center of gravity of the figure. In addition to “ship”, “tanker” and “fishing boat” are classified as the same category, and in the second classification 54, “tanker” and “ It has a two-stage configuration that identifies “fishing boats”. Further, in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention, learning is performed using the feature parameter calculated from the ship image of the ship model for each aspect of 10 degrees.
[0067]
Further, in the object type shape discrimination system 1 by the RBF network using the image information according to the embodiment of the present invention, the vessel discrimination is performed as shown in Equations 2 to 5 described above, such as the distance to the other vessel, the aspect, etc. This is done using infrared images of ships with different conditions.
As described above, in the object type shape discrimination system 1 using the RBF network using image information, the CPU 31a of the control processing unit 31 of the computer apparatus 3 processes the object type shape discrimination processing program 20 using the RBF network using image information. Data as shown in Table 1 was obtained.
[0068]
[Table 1]
Figure 2005031789
[0069]
As shown in Table 1, the discrimination rate is 100 [%] for 11 test images for a car carrier and 75 [%] for 4 test images for a container ship. For bulk carriers, the discrimination rate is 100% for 6 test images, for tankers, the discrimination rate is 100% for 13 test images, and 5 test images for fishing boats. The discrimination rate was 80%.
[0070]
In the object type shape discrimination system 1 using the RBF network using image information, the result processed by the CPU 31a of the control processing unit 31 of the computer device 3 is stored in the database area 16 of the hard disk device 33.
In the object type shape discrimination method by the RBF network using the image information according to the present invention and the system 1 thereof, good results can be obtained for almost all ship types. Moreover, as a result of examining the ship which produced the misclassification, it turned out that the discrimination | determination precision of a ship greatly depends on the processing result of binarization.
[0071]
As described above, the object type shape discrimination method by the RBF network using the image information and the system 1 thereof according to the present invention, the object type (ship type) discrimination using the RBF network 50, almost all object types ( In the ship type), good results can be obtained and athletic performance can be collected. If it is possible to determine the type of such an object, for example, there is an advantage that it is possible to reliably determine the ship type, which is an important element for supporting the safe operation of the ship.
[0072]
As described above, in the present invention, as a preferred embodiment of the object type shape discrimination method by the RBF network using the image information and the system 1 thereof, the ship has been described as an example, but as this object, According to the object type shape discrimination method and system using the RBF network using image information according to the present invention, not limited to a ship, the type and shape of any object such as a car, a tank, a person, etc. are discriminated. Needless to say, that is true.
In the object type shape discrimination method and system using the RBF network using image information according to the present invention, an infrared image is used as an object image. However, the present invention is not limited to this. Even an image obtained by picking up an object by other light using an image pickup means may be used.
[0073]
【The invention's effect】
As described above, according to the object type shape discriminating method and system using the RBF network using the image information according to the present invention, an object image is extracted by a genetic algorithm, and the extracted object image is set to a predetermined reference line. Based on the emphasis of the structure, a feature parameter can be obtained from the emphasized image, and the feature parameter can be input to the RBF network to determine the type and shape of the object.
Further, in the object type shape discrimination method and system using the RBF network using image information according to the present invention, the result of discrimination of the object type can be applied to various technical fields (for example, a collision avoidance system). There is an advantage.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 2 is a block diagram for explaining a computer device constituting a part of an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining programs and data stored in a hard disk device in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 4 is a diagram showing a configuration example of an object type shape discrimination processing program by an RBF network using image information by an object type shape discrimination system by an RBF network using image information according to an embodiment of the present invention.
FIG. 5 is a specific processing flowchart of gene processing steps processed by a computer device in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 6 is a characteristic diagram showing how fitness changes in a gene processing step processed by a computer device in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 7 is a diagram showing an example of image data of an automobile carrier ship taken into a computer device from an infrared digital camera in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 8 is a diagram showing an example of tanker image data taken into a computer device from an infrared digital camera in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention;
FIG. 9 is a diagram in which ship image data is divided into a gene array in the horizontal direction and a gene array in the vertical direction in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention.
FIG. 10 shows an infrared image of a container ship representing a divided region based on a gene sequence in which a maximum fitness is calculated in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. It is a figure which shows the extracted image data of the result after applying to data and carrying out gene processing.
FIG. 11 is a diagram illustrating an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention; It is a figure which shows extraction image data of the result after applying to and carrying out gene processing.
FIG. 12 is a diagram showing image data obtained as a result of processing infrared image data in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 13 is a diagram showing image data as a result of processing infrared image data in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 14 is a diagram for describing a reference line in a reference line calculation processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 15 is an explanatory diagram for explaining the operation of the reference line calculation processing step in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention.
FIG. 16 is an image data when the image data obtained in the gene processing step is emphasized in the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention; FIG.
FIG. 17 shows image data when the image data obtained in the gene processing step is emphasized by the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG.
FIG. 18 shows image data when the image data obtained in the gene processing step is emphasized in the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG.
FIG. 19 shows image data when the image data obtained in the gene processing step is emphasized in the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG.
FIG. 20 is a diagram in which five types of ships are plotted on a first principal component and a second principal component in the object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 21 is a diagram in which two types of ships are plotted on a first principal component and a second principal component in the object type shape discrimination system using the RBF network using image information according to the embodiment of the present invention.
FIG. 22 is an explanatory diagram showing an RBF (Radial Basis Function) network used in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
[Explanation of symbols]
1 Ship classification system using genetic algorithm
3 Computer equipment
5 Keyboard (input device)
7 Mouse (input device)
9 Display (output device)
10 OS storage area
11 Printer (output device)
12 AP storage area
13 Infrared digital camera (imaging means)
14,16 Database area
22 Image acquisition processing steps
24 Ship Image Data Extraction Processing Step
26 Baseline calculation processing step
28 Structure enhancement processing steps
30 Ship type discrimination processing step
31 Control processing unit
31a CPU
31b ROM
31c RAM
32 Main memory
33 Hard disk device
34 I / F for input
35 Display I / F
36 Printer I / F
37 USB board
38 bus line

Claims (7)

物体の画像情報から物体種別を判別できる物体種別判別方法であって、
物体の画像情報を得る第1のステップと、
前記物体の画像情報から画像に関する所定の特徴パラメータを抽出する第2のステップと、
前記第2のステップで求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる第3のステップと、を備えたことを特徴とする画像情報を利用したRBFネットワークによる物体種別形状判別方法。
An object type determination method capable of determining an object type from image information of an object,
A first step of obtaining image information of the object;
A second step of extracting predetermined feature parameters relating to an image from image information of the object;
Predetermined feature parameters relating to the image obtained in the second step are taken into the RBF network, the probability that each of the object types belongs to the RBF network is calculated, and the type of each object is determined from the probability that the calculation result belongs to the predetermined class. And an object type shape discrimination method using an RBF network using image information.
前記第2のステップは、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理ステップと、
前記遺伝子処理ステップで抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理ステップと、
前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理ステップと、
前記物体の画像情報や前記強調処理ステップで求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理ステップと
を備えたことを特徴とする請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法。
In the second step, the image information of the object is divided into regions based on a genetic sequence to obtain image data, and the highest fitness is achieved while repeating genetic processing on the image data. Gene processing step to obtain the segmented image data by exploring the gene sequence, and to extract the object binarized image data by discriminating and binarizing for each region of the segmented image data,
A reference line calculation processing step for obtaining a reference line for the object image with respect to the object binarized image data extracted in the gene processing step;
An emphasis processing step of emphasizing a predetermined structure based on the reference line in the object binarized image data to obtain emphasized image data;
The image information according to claim 1, further comprising: a feature parameter processing step that calculates a feature parameter related to the image based on the image information of the object and the enhanced image data obtained in the enhancement processing step. Object type shape discrimination method by RBF network.
前記第1のステップは、物体を撮像手段によって撮像することにより物体の画像情報を得ることを特徴とする請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法。2. The object type shape discrimination method using an RBF network using image information according to claim 1, wherein the first step obtains image information of the object by imaging the object with an imaging means. 前記第3のステップは、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークを用い、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別する請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法。In the third step, the feature parameter related to the input image based on the feature parameter related to the image obtained from the image information of the object, the difference between the learning data of the feature parameter related to the image, and the parameter for determining the allowable range The image according to claim 1, wherein an RFB network that calculates a probability that belongs to a predetermined class is used, a feature parameter related to the image is input to the RFB network, and the probability is calculated by the RFB network to determine the type of the object. Object type shape discrimination method by RBF network using information. 物体の画像情報から物体種別を判別できる物体種別判別システムであって、
物体の画像情報を得る撮像手段と、
前記撮像手段からの物体の画像情報から画像に関する所定の特徴パラメータを抽出する特徴部抽出手段と、
前記特徴部抽出手段で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる物体種別判別手段と、を備えたことを特徴とする画像情報を利用したRBFネットワークによる物体種別形状判別システム。
An object type discrimination system capable of discriminating an object type from image information of an object,
Imaging means for obtaining image information of the object;
Feature extraction means for extracting predetermined feature parameters relating to the image from the image information of the object from the imaging means;
Predetermined feature parameters relating to the image obtained by the feature extraction means are taken into the RBF network, the probability of belonging to each object type is calculated by the RBF network, and the types of various objects are determined from the probability that the calculation result belongs to a predetermined class. An object type shape discriminating system using an RBF network using image information characterized by comprising an object type discriminating means.
前記特徴部抽出手段は、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理手段と、
前記遺伝子処理手段で抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理手段と、
前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理手段と、
前記物体の画像情報や前記強調処理手段で求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理手段とを備えたことを特徴とする請求項5記載の画像情報を利用したRBFネットワークによる物体種別形状判別システム。
The feature extraction unit is configured to segment the image information into image data based on a genetic sequence with respect to the image information of the object, and has the highest fitness while repeating the genetic processing on the image data Gene processing means for exploring gene sequences to obtain divided image data, and a gene processing means for extracting object binarized image data by discriminating and binarizing for each region of the divided image data,
Reference line calculation processing means for obtaining a reference line for the object image with respect to the object binarized image data extracted by the gene processing means,
Enhancement processing means for emphasizing a predetermined structure based on the reference line in the object binarized image data to obtain enhanced image data;
6. The image information according to claim 5, further comprising: feature parameter processing means for calculating a feature parameter relating to an image based on the image information of the object and the enhanced image data obtained by the enhancement processing means. Object type shape discrimination system by RBF network.
前記物体種別判別手段は、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークからなり、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別する請求項5記載の画像情報を利用したRBFネットワークによる物体種別形状判別システム。The object type discriminating means includes a feature parameter relating to an input image based on a feature parameter relating to an image obtained from image information of the object, a difference between feature parameter learning data relating to the image, and a parameter for determining an allowable range. 6. The image according to claim 5, comprising an RFB network that calculates a probability belonging to a predetermined class, wherein a feature parameter relating to the image is input to the RFB network, and the probability is calculated by the RFB network to determine the type of the object. Object type shape discrimination system based on RBF network using information.
JP2003193579A 2003-07-08 2003-07-08 Object type shape discrimination method and system using RBF network using image information Pending JP2005031789A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003193579A JP2005031789A (en) 2003-07-08 2003-07-08 Object type shape discrimination method and system using RBF network using image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003193579A JP2005031789A (en) 2003-07-08 2003-07-08 Object type shape discrimination method and system using RBF network using image information

Publications (1)

Publication Number Publication Date
JP2005031789A true JP2005031789A (en) 2005-02-03

Family

ID=34205012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003193579A Pending JP2005031789A (en) 2003-07-08 2003-07-08 Object type shape discrimination method and system using RBF network using image information

Country Status (1)

Country Link
JP (1) JP2005031789A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215947A (en) * 2016-05-05 2017-12-07 ブランスウィック コーポレイションBrunswick Corporation Human detection in marine environment
CN108594639A (en) * 2018-03-28 2018-09-28 哈尔滨工程大学 A kind of air cushion vehicle Track In Track control method based on intensified learning
JP2021077202A (en) * 2019-11-12 2021-05-20 ジャパンマリンユナイテッド株式会社 Information processor, ship, and information processing method
CN113177557A (en) * 2021-03-15 2021-07-27 福建电子口岸股份有限公司 Bowling prevention method and system based on machine vision and deep learning

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215947A (en) * 2016-05-05 2017-12-07 ブランスウィック コーポレイションBrunswick Corporation Human detection in marine environment
US10372976B2 (en) 2016-05-05 2019-08-06 Brunswick Corporation Person detection in a marine environment
CN108594639A (en) * 2018-03-28 2018-09-28 哈尔滨工程大学 A kind of air cushion vehicle Track In Track control method based on intensified learning
CN108594639B (en) * 2018-03-28 2020-12-22 哈尔滨工程大学 A Reinforcement Learning-Based Track Tracking Control Method for a Cushioned Hovercraft
JP2021077202A (en) * 2019-11-12 2021-05-20 ジャパンマリンユナイテッド株式会社 Information processor, ship, and information processing method
JP7270528B2 (en) 2019-11-12 2023-05-10 ジャパンマリンユナイテッド株式会社 Information processing device, ship and information processing method
CN113177557A (en) * 2021-03-15 2021-07-27 福建电子口岸股份有限公司 Bowling prevention method and system based on machine vision and deep learning
CN113177557B (en) * 2021-03-15 2023-11-14 福建电子口岸股份有限公司 Bowling prevention method and system based on machine vision and deep learning

Similar Documents

Publication Publication Date Title
JP7113657B2 (en) Information processing device, information processing method, and program
CN112287860B (en) Training method and device of object recognition model, and object recognition method and system
US20210311169A1 (en) Radar data processing device, object determination device, radar data processing method, and object determination method
US10997465B2 (en) Information processing device, information processing method, and storage medium
JP4171501B2 (en) Vehicle periphery monitoring device
US9147105B2 (en) Image recognizing apparatus, image recognizing method, and program
JP5950441B2 (en) Image recognition apparatus, image recognition method, and image recognition program
CN113408324A (en) Target detection method, device and system and advanced driving assistance system
CN106934795A (en) The automatic testing method and Forecasting Methodology of a kind of glue into concrete beam cracks
EP2587451A1 (en) Moving-object detection device
JP2012527664A (en) Image classification method, apparatus, program product, and storage medium
Lim et al. Vision‐based Lane‐Vehicle Detection and Tracking
CN109506628A (en) Object distance measuring method under a kind of truck environment based on deep learning
KR101302944B1 (en) Vehicle recognition method and device
JP2005190400A (en) Face image detection method, face image detection system, and face image detection program
CN116152863B (en) Personnel information identification method and device, electronic equipment and storage medium
US20160005161A1 (en) Robot system
CN116494253B (en) Target object grabbing pose acquisition method and robot grabbing system
JP2007310805A (en) Object recognition device
JP2018055199A (en) Image processing program, image processing apparatus, and image processing method
KR102131387B1 (en) Method for clustering Data of Multi-layer of Lidar
JP2005134966A (en) Face image candidate area search method, search system, and search program
JP2005031789A (en) Object type shape discrimination method and system using RBF network using image information
CN113408429B (en) Target detection method and system with rotation adaptability
JP5201184B2 (en) Image processing apparatus and program