JP2005031789A - Object type shape discrimination method and system using RBF network using image information - Google Patents
Object type shape discrimination method and system using RBF network using image information Download PDFInfo
- Publication number
- JP2005031789A JP2005031789A JP2003193579A JP2003193579A JP2005031789A JP 2005031789 A JP2005031789 A JP 2005031789A JP 2003193579 A JP2003193579 A JP 2003193579A JP 2003193579 A JP2003193579 A JP 2003193579A JP 2005031789 A JP2005031789 A JP 2005031789A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image information
- image data
- object type
- rbf network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】本発明は、各種物体の種別を判別でき、応用範囲の広い画像情報を利用したRBFネットワークによる物体種別形状判別方法を提供すること。
【解決手段】本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法は、物体の画像情報を得る第1のステップ21と、前記物体の画像情報から画像に関する所定の特徴パラメータを抽出する第2のステップ22と、前記第2のステップ22で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる第3のステップ23とからなる。
【選択図】 図4An object of the present invention is to provide an object type shape discrimination method using an RBF network that can discriminate the types of various objects and uses image information with a wide range of applications.
An object type shape discrimination method using an RBF network using image information according to the present invention includes a first step of obtaining image information of an object, and extracting a predetermined feature parameter relating to the image from the image information of the object. The second step 22 and the predetermined feature parameter relating to the image obtained in the second step 22 are taken into the RBF network, the probability of belonging to each object type is calculated by the RBF network, and the calculation result is assigned to the predetermined class. The third step 23 is capable of discriminating the types of various objects from the probability of belonging.
[Selection] Figure 4
Description
【0001】
【発明の属する技術分野】
本発明は、物体の画像情報から各種物体の種別や形状を判別できるところの画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムに関するものである。
【0002】
【従来技術】
一般に、電子カメラやTVカメラなどの撮像装置で撮像した物体の画像情報から当該物体の形状や種別が判別できれば、各種の技術分野に応用することができることは容易に考えられる。
例えば船舶の安全運行を支援する衝突回避システムの場合には、相手船の進路や運動性能を知ることの他に、上述したような相手船の形状や種別が判別ができるようにしてやれば、さらに有効に衝突回避をすることができる。
このようなシステム構成の衝突回避システムは、今日のように、船舶交通量の増加して船舶間の衝突事故の危険性が増大している状況には、極めて有効なシステムといえる。
ところで、本発明者らは、自船の進路や運動性能と相手船の進路や運動性能とを基にした船舶の衝突回避システムとして、遺伝的アルゴリズムによる船舶の衝突回避システムを提案した(例えば、特許文献1参照)。
【0003】
この従来の遺伝的アルゴリズムによる船舶の衝突回避システムは、移動物体の移動経路の評価となる適合度Aは、安全性S、目的経路からのずれD、経済性E、即死決定遺伝子Bにより、A=B×(S+D+E)で表し、かつ、安全性Sの数値は相対的に移動する移動物体間の間隔の狭まりに対して対数関数的に小さくなるとしたものである。
【特許文献1】特開2002−222500号公報。
【0004】
【発明が解決しようとする課題】
しかしながら、上述した従来の遺伝的アルゴリズムによる船舶の衝突回避システムは、自船の進路や運動性能と相手船の進路や運動性能とを基に衝突の可能性を求めるものであって、安全運行を支援する重要な要素である船種を判別するものではなかった。
本発明は、上述した課題を解消し、各種物体の種別を判別できるようにし、応用範囲の広い画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムを提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法は、物体の画像情報から物体種別を判別できる物体種別判別方法であって、物体の画像情報を得る第1のステップと、前記物体の画像情報から画像に関する所定の特徴パラメータを抽出する第2のステップと、前記第2のステップで求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる第3のステップと、を備えたことを特徴とする。
請求項2記載の発明では、請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法において、前記第2のステップは、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理ステップと、前記遺伝子処理ステップで抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理ステップと、前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理ステップと、前記物体の画像情報や前記強調処理ステップで求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理ステップとを備えたことを特徴とする。
請求項3記載の発明では、請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法において、前記第1のステップは、物体を撮像手段によって撮像することにより物体の画像情報を得ることを特徴とする。
請求項4記載の発明では、請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法において、前記第3のステップは、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークを用い、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別する。
上記目的を達成するために、請求項5記載の発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムは、物体の画像情報から物体種別を判別できる物体種別判別システムであって、物体の画像情報を得る撮像手段と、前記撮像手段からの物体の画像情報から画像に関する所定の特徴パラメータを抽出する特徴部抽出手段と、前記特徴部抽出手段で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる物体種別判別手段と、を備えたことを特徴とする。
請求項6記載の発明では、請求項5記載の画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記特徴部抽出手段は、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理手段と、前記遺伝子処理手段で抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理手段と、前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理手段と、前記物体の画像情報や前記強調処理手段で求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理手段とを備えたことを特徴とする。
請求項7記載の発明では、請求項5記載の画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記物体種別判別手段は、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークからなり、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別する。
【0006】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
図1ないし図22は本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及び画像情報を利用したRBFネットワークによる物体種別形状判別システムを説明するための図である。これらの図において、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法は、船舶の衝突回避システムに応用することができ、以下では、船舶の衝突回避システムに応用すした例について説明することにする。
【0007】
本発明では、物体の種別(船種)を判別するために、判別対象となる物体(この実施の形態では船舶)のアスペクト毎の物体像(船舶像)が必要となる。ここで、アスペクトとは、自分(自船)から見た相手の物体(船)の方位と相手の物体(船)の進路とのなす角のことをいう。しかしながら、全ての物体について(船舶)についてあらゆるアスペクトの物体像(船舶像)を得ることは難しい。
【0008】
そこで、本実施の形態では、所定の物体像で代用する。本実施の形態では、所定の物体像として、衝突事故の約69%を占める船種の中で標準的な船型を持つ船舶(「コンテナ船」、「タンカー」、「ばら積み船」、「漁船」、「自動車運搬船」)についてコンピュータグラフィックにより船舶モデルを作成し、これらの船舶像からアスペクト10[度]毎の特徴パラメータの算出を行い、ついで、この算出した特徴パラメータの中でアスペクトの影響を受けずに船種を良好に分類できるものを選択するために、アスペクト10[度]毎にRBFネットーワクによる分析を行い、物体の種別(船種)の決定を行うようにしたものである。以下、具体的に説明する。
【0009】
図1は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムを示すブロック図である。この図1において、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システム1は、大別すると、コンピュータ装置3と、入力装置としてのキーボード5及びマウス7と、出力装置としてのディスプレイ9及びプリンタ11と、撮像手段として赤外線デジタルカメラ13とから構成されている。前記コンピュータ装置3には、キーボード5と、マウス7と、ディスプレイ9と、プリンタ11と、赤外線デジタルカメラ13とが接続されている。
【0010】
なお、前記赤外線デジタルカメラ13は、常時、コンピュータ装置3に接続されているのではなくて、処理しようとする画像をコンピュータ装置3内に取り込むときに例えばUSB接続にてコンピュータ装置3に接続するようにしたものである。 また、前記実施の形態においては、撮像手段として赤外線デジタルカメラ13を使用しているが、これは夜間などでも撮像できることから採用しただけであり、昼間時に撮影した画像情報のみを利用するだけでよい場合には、通常のデジタルカメラを使用してもよいことはいうまでもない。
また、赤外線デジタルカメラ13で取り込んだ船舶画像は、後述の2値化処理の後、特徴パラメータの算出を行ってRBFネットワークにより船種判定を行うものである。
【0011】
図2は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムの一部を構成するコンピュータ装置を説明するためのブロック図である。
前記コンピュータ装置3は、各種画像情報を利用したRBFネットワークによる物体種別形状判別処理やその他の処理や制御を実行する制御処理部31と、オペレーティングシステムや画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムやその他必要なデータを記憶する主メモリ32と、オペレーティングシステムや当該画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムや船舶画像データベースやその他必要なデータやデータベースを格納しておくハードディスク装置33と、入力用インターフェース(I/F)34と、表示用I/F35と、プリンタI/F36と、USBボード37と、これらを接続するバスライン38とから構成されている。
【0012】
また、前記制御処理部31は、各種演算処理を実行するCPU31aと、イニシャル時に所定の処理を前記CPU31aに実行させるプログラムが記憶されたROM31bと、前記CPU31aが演算処理を実行する際に、必要なデータを一時格納するRAM31cとから構成されており、これらはバスライン38で接続されている。
【0013】
また、入力用I/F34にはキーボード5及びマウス7が接続されており、これにより、当該コンピュータ装置3の制御処理部31に各種データや指令を与えられるようになっている。前記表示用I/F35にはディスプレイ9が接続されており、これにより、当該コンピュータ装置3における制御処理部31で処理した結果をディスプレイ9に表示させることができるようになっている。プリンタI/F36にはプリンタ11が接続されており、これにより、当該コンピュータ装置3の制御処理部31で処理した結果のうち、印刷するデータをプリンタ11に与えて印刷できるようになっている。USBボード37には赤外線デジタルカメラ13が着脱可能に接続されており、前記赤外線デジタルカメラ13で撮り溜めた画像データを必要に応じて当該コンピュータ装置3の制御処理部31の制御の下に当該コンピュータ装置3のハードディスク装置33の所定のエリアに格納できるようになっている。
【0014】
図3は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるハードディスク装置に格納されているプログラムやデータを説明するための図である。この図3において、前記ハードディスク装置33には、オペレーティングシステムのOS格納領域10と、画像情報を利用したRBFネットワークによる物体種別形状判別方法を実現する画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムのAP格納領域12と、データベース領域14,16とが設けられている。
【0015】
なお、当該コンピュータ装置3の電源が投入されて動作を開始すると、制御処理部31のCPU31aがROM31bのイニシャルプログラムにより動作し、ハードディスク装置33のOS格納領域10に格納されているオペレーティングシステムを主メモリ32の所定の記憶領域に記憶させ、ついで、この主メモリ32の所定の記憶領域上のオペレーティングシステムを制御処理部31のCPU31aが処理することにより、オペレーティングシステムが動作する。また、このオペレーティングシステムが動作すると、予め当該オペレーティングシステムに登録されているところの画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムは起動可能な状態とされる。
【0016】
また、画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムに対してマウス7などで起動をかけることにより、コンピュータ装置3における制御処理部31のCPU31aがハードディスク装置33のAP格納領域12に格納されている画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムを主メモリ32の所定の記憶領域に記憶させて、次に、この主メモリ32の所定の記憶領域に記憶されている画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムを制御処理部31のCPU31aが処理することにより、画像情報を利用したRBFネットワークによる物体種別形状判別システム1が実現される。
【0017】
このような構成等をした画像情報を利用したRBFネットワークによる物体種別形状判別システム1の動作について説明する。まず、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法を実現するアプリケーションプログラムについて図4を参照して説明する。
図4は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおける画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムの構成例を示す図である。
【0018】
この図4において、画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラム20は、物体の画像情報を得る第1のステップ21と、前記第1のステップ21で得た物体の画像情報から画像に関する所定の特徴パラメータを抽出する第2のステップ22と、前記第2のステップ22で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別する第3のステップ23とからなる。
【0019】
ここで、前記第2のステップ22は、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理ステップ221と、前記遺伝子処理ステップ221で抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理ステップ222と、前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る構造物強調処理ステップ223と、前記第1のステップ21で求めた物体の画像情報や前記構造物強調処理ステップで求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理ステップ224とから構成されている。
【0020】
また、前記第3のステップ23は、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークを用い、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別するようしたものである。
【0021】
このような画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラム20がコンピュータ装置3の制御処理部31で処理されることにより、前記コンピュータ装置3の制御処理部31には、物体の画像情報を得る撮像手段と、前記撮像手段からの物体の画像情報から画像に関する所定の特徴パラメータを抽出する特徴部抽出手段と、前記特徴部抽出手段で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる物体種別判別手段とを備えたことを特徴とする画像情報を利用したRBFネットワークによる物体種別形状判別システム1が実現されている。
【0022】
ここで、画像情報を利用したRBFネットワークによる物体種別形状判別システム1における前記特徴部抽出手段は、前記物体の画像情報に対して遺伝的配列に基づいて当該画像情報を領域分割して画像データとし、当該画像データに対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求めて分割画像データを得るとともに、当該分割画像データの領域毎に判別分析して二値化することにより物体二値化画像データを抽出する遺伝子処理手段と、前記遺伝子処理手段で抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理手段と、前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理手段と、前記物体の画像情報や前記強調処理手段で求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理手段とを備えている。
【0023】
さらに、前記制御処理部31で実現されている前記物体種別判別手段は、前記物体の画像情報から得た画像に関する特徴パラメータ及び当該画像に関する特徴パラメータの学習データの差と、許容範囲を決定するパラメータとを基に、入力された画像に関する特徴パラメータが所定のクラスに属する確率を演算するRFBネットワークからなり、当該RFBネットワークに当該画像に関する特徴パラメータを入力し、前記RFBネットワークによって前記確率を演算して物体の種別を判別するようしたものである。
【0024】
次に、前記画像情報を利用したRBFネットワークによる物体種別形状判別システム1の具体的な動作を、図1ないし図3を基に、図4ないし図22を参照しながら説明する。
ここで、図5は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるコンピュータ装置で処理する遺伝子処理ステップの具体的な処理フローチャートである。
【0025】
図6は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるコンピュータ装置で処理する遺伝子処理ステップで適応度が変化してゆく様子を示す特性図であって、横軸に世代を、縦軸に適応度を、それぞれとったものである。
図7は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線デジタルカメラからコンピュータ装置に取り込んだ自動車運搬船の画像データの例を示す図である。この図7において、船舶と赤外線デジタルカメラ13との距離は2004[m]で、画角が8.2×6.2[度]で、検知素子がSOIダイオードである。なお、図7では、実線で自動車運搬船の船影を記載してあるが、具体的な写真画像では不鮮明に表示されている。
【0026】
図8は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線デジタルカメラからコンピュータ装置に取り込んだタンカーの画像データの例を示す図である。この図8において、船舶と赤外線デジタルカメラ13との距離は452.2[m]で、画角が26×20[度]で、検知素子がSOIダイオードである。なお、図8では、実線でタンカーの船影を記載してあるが、具体的な写真画像では不鮮明に表示されている。
【0027】
図9は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムで処理される遺伝子処理ステップにおいて船舶画像データを横方向の遺伝子配列と縦方向に遺伝子配列に区分けした図であって、図9(a)は画像データに対する遺伝子配列を、図9(b)は横方向の遺伝子配列と縦方向の遺伝子配列とつなげた状態を、それぞれ示したものである。
【0028】
図10は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、遺伝子処理ステップにおける最大適応度を算出した遺伝子配列に基づく分割領域をコンテナ船の赤外画像データに適用し、かつ遺伝子処理した後の結果の抽出画像データを示す図であって、図10(a)はコンテナ船の赤外画像データに対して遺伝子配列を適応した状態の写真像を、図10(a’)はコンテナ船の赤外画像データに対して遺伝子配列を適応した写真像について点線で表示した画像を、図10(b)は遺伝子処理をした結果の抽出画像データを、それぞれ示したものである。なお、図10(a’)では、コンテナの船影を点線で示してあるが、実際の写真では図10(a)に示すように不鮮明に表示されている。
【0029】
図11は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、遺伝子処理ステップにおける最大適応度を算出した遺伝子配列に基づく分割領域をタンカーの赤外画像データに適用し、かつ遺伝子処理した後の結果の抽出画像データを示す図であって、図11(a)はタンカーの赤外画像データに対して遺伝子配列を適応した状態の写真像を、図11(a’)はタンカーの赤外画像データに対して遺伝子配列を適応した状態の写真像について点線で示した画像を、図11(b)は遺伝子処理をした結果の抽出画像データを、それぞれ示したものである。なお、図11(a’)では、タンカーの船影を点線で示してあるが、実際の写真では図11(a)に示すように不鮮明に表示されている。
【0030】
図12は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線画像データを遺伝子処理ステップで処理した結果の画像データを示す図であり、図12(a)はコンテナ船の赤外線画像データの写真像を、図12(a’)はコンテナ船の赤外線画像データの写真像を点線で示した像として示した図を、図12(b)は処理後のコンテナ船の画像データを、それぞれ示すものである。なお、図12(a’)では、コンテナ船の船影を点線で示してあるが、実際の写真では図12(a)に示すように不鮮明に表示されている。
【0031】
図13は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線画像データを遺伝子処理ステップで処理した結果の画像データを示す図であり、図13(a)はタンカーの赤外線画像データを、図13(a’)はタンカーの赤外線画像データについて点線で示した図を、図13(b)は処理後のタンカーの画像データを、それぞれ示すものである。なお、図13(a’)ではタンカーの船影を点線で示してあるが、実際の写真では図13(a)に示すように不鮮明に表示されている。
【0032】
図14は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、基準線算出処理ステップにおける基準線について説明するための図である。
図15は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、基準線算出処理ステップの動作を説明するための説明図であって、図15(a)は実際の写真像の画像データを、図15(a’)は実際の写真像を点線で示した図を、それぞれ示している。
【0033】
図16は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、強調処理ステップによって強調処理した場合の画像データを示す図であって、図16(a)は前記遺伝子処理ステップで得たコンテナ船の画像データを、図16(b)は物強調処理ステップで強調処理後のコンテナ船の画像データを、それぞれ示したものである。
【0034】
図17は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、強調処理ステップによって強調処理した場合の画像データを示す図であって、図17(a)は前記遺伝子処理ステップで得た自動車運搬船の画像データを、図17(b)は物強調処理ステップで強調処理後の自動車運搬船の画像データを、それぞれ示したものである。
【0035】
図18は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、物強調処理ステップによって強調処理した場合の画像データを示す図であって、図18(a)は前記遺伝子処理ステップで得たばら積み船の画像データを、図18(b)は強調処理ステップで強調処理後のばら積み船の画像データを、それぞれ示したものである。
【0036】
図19は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図であって、図19(a)は前記遺伝子処理ステップで得たタンカーの画像データを、図19(b)は強調処理ステップで強調処理後のタンカーの画像データを、それぞれ示したものである。
【0037】
図20は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、5種類の船舶を第1主成分と第2主成分にプロットした図であって、横軸に第1主成分が、縦軸に第2主成分がとられている。また、この図20では、○印が自動車運搬船を、△印がタンカーを、□印がコンテナ船を、×印がばら積み船を、□を二つ重ね合わせた形状が漁船を、それぞれ表している。
【0038】
図21は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、2種類の船舶を第1主成分と第2主成分にプロットした図であって、横軸に第1主成分が、縦軸に第2主成分がとられている。また、この図21では、△印がタンカーを、□印が漁船を、それぞれ表している。
図22は、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて使用するRBF(Radial Basis Function)ネットワークを示す説明図である。
【0039】
次に、具体的動作について説明する。まず、タンカー、コンテナ船、漁船、自動車運搬線などの画像データを撮り溜めた前記赤外線デジタルカメラ13を前記コンピュータ装置3のUSBボード37に接続する。
ついで、前記画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムを実行している前記コンピュータ装置3の制御処理部31に対して例えばマウス7から画像取り入れ指令を与える。これにより、前記制御処理部31では第1のステップ21が実行されて、前記赤外線デジタルカメラ13内の船舶画像データをコンピュータ装置3のハードディスク装置33のデータベース領域14に格納する。
【0040】
ここで、赤外線デジタルカメラ13からコンピュータ装置3のハードディスク装置33に格納される画像データは、例えば図7に示す自動車運搬船の画像データ300や、例えば図8に示すタンカーの画像データ310である。
ついで、前記コンピュータ装置3の制御処理部31に対してマウス7などを使用して次の段階に処理を移すよう指令する。これにより、前記コンピュータ装置3の制御処理部31のCPU31aは、第2のステップ22を実行する。
【0041】
まず、前記コンピュータ装置3の制御処理部31のCPU31aは、図4に示す第2のステップ22の詳細を処理してゆくことになる。ここで、第2のステップ22は、既に説明したように、遺伝子処理ステップ221と、基準線算出処理ステップ222と、強調処理ステップ223と、特徴パラメータ処理ステップ224とからなる。
【0042】
第2のステップ22の処理がコンピュータ装置3の制御処理部31によって開始されると、まず、遺伝子処理ステップ221が制御処理部31によって実行される。遺伝子処理ステップ221では、例えば図9(a)に示すように、画像データ320に対して遺伝的配列に基づいて画像データを横方向の遺伝子配列「00・・・00100・・・00100・・・010・・00」とし、縦方向の遺伝子配列「010・・・010・・・010」とする領域分割をし、これを図9(b)に示すような遺伝子配列「00・・・00100・・・00100・・・010・・00」「010・・・010・・・010」につなげ、当該領域分割した画像データ(「00・・・00100・・・00100・・・010・・00」「010・・・010・・・010」)に対して遺伝的処理を繰り返しながら最も適応度の高い遺伝子配列を探査的に求め、求めた分割画像データの領域毎に判別分析して二値化して船舶画像データを抽出することになる。
【0043】
この一連の遺伝的処理を行うと、図10(a)及び図10(a’)の自動車運搬船の画像データ330aは図10(b)に示す自動車運搬船の画像データ330bに抽出され、図11(a)及び図11(a’)のタンカーの画像データ340aは図11(b)に示すタイカーの画像データ340bに抽出され、図12(a)及び図12(a’)に示す自動車運搬船の画像データ350aは図12(b)に示す自動車運搬船の画像データ350bに抽出され、図13(a)及び図13(a’)の画像データ360aは図13(b)に示す画像データ360bに抽出される。この処理の具体的な処理ステップについて、図5を参照して説明する。
【0044】
すなわち、コンピュータ装置3の制御処理部31のCPU31aによって画像取得処理ステップ22の遺伝子処理ステップ221が実行されると、図5のフローチャートが実行される。まず、コンピュータ装置3の制御処理部31のCPU31aは、ハードディスク装置33のデータベース領域14の所定のエリアから、例えば図12(a)及び図12(a’)に示す自動車運搬船の画像データ350aを取込み、当該画像データ350aの初期遺伝子の生成を行う(ステップ(S)221)。
【0045】
具体的には、コンピュータ装置3の制御処理部31のCPU31aにより実行されている遺伝子処理ステップ221は、図12(a)に示すように画像データ350aを例えば図9あるいは図10(a)及び図10(a’)に示すように領域分割して横方向の遺伝子と縦方向の遺伝子とを求め、これを図9(b)に示すようにつなげた初期遺伝子の生成(この実施の形態では個体数50個)を実行する(S221)。もちろん、図11(a)及び図11(a’)に示すように領域分割して横方向の遺伝子と縦方向の遺伝子とを求め、これを図9(b)に示すようにつなげた初期遺伝子の生成を実行してもよい(S2211)。
次に、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、生成された当該初期遺伝子について数式1を適用して適用度を算出する(S2212)。
【0046】
【数1】
【0047】
なお、数式1では、分子の「画像データの一次微分(prewittオペレータ)」は輪郭の強さと方向を表すため、船舶の画像データ中の船舶の輪郭を中心に強調させるためのものである。また、分母の「画像データの二次微分(laplacisnオペレータ)は、輪郭の強さのみを表すため、船舶の画像データ中の船舶の輪郭以外に背景や船舶像の中の点状のノイズ成分も同時に強調するためのものである。
【0048】
ついで、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、選択、淘汰(この実施の形態では、上位50%存続:個体数25個)の遺伝的処理を実行する(S2213)。
次に、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、交差(この実施の形態では、二点交差法:個体数50個)といった遺伝的処理を実行する(S2214)。
さらに、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、突然変異(この実施の形態では、確立0.1[%]といった遺伝的処理を実行する(S2215)。
【0049】
また、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、前述した遺伝的処理を施した後のデータを基に、再び数式1による適応度を求める(S2216)。
また、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、適応度が所定の世代(この実施の形態では、例えば10世代(図6参照))に渡って一定値に達していなければ(S2217;NO、)、ステップ2213に戻って再び上記ステップ2213、2214、2215、2216を繰り返し処理する。
【0050】
なお、上記処理ステップの処理がされることにより、この実施の形態では、図6に示すように、実線は個体数30個の場合の10世代の適応度の変化を示し、点線は個体数50個の場合の10世代の適応度の変化を示し、一点鎖線は個体数70個の場合の10世代の適応度の変化を示している。
一方、コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、選択、淘汰、交差、突然変異といった遺伝的処理を行い(S2213〜2215)、再び数式1による適応度を求める操作を行い(S2216)、図6に示すように、適応度が所定の世代(この実施の形態では、例えば10世代)に渡って一定値に達したときに(S2217;YES)、最も適応度の高い遺伝子配列が得られたことになる。
【0051】
前記コンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221は、前記ステップにおいて得られた最大適応度による遺伝子配列に基づく二値化をする(S2218)。上述したようにコンピュータ装置3の制御処理部31のCPU31aで実行されている遺伝子処理ステップ221により処理された結果、前述したように例えば図12(b)に示すように自動車運搬船が鮮明に表示できるし、同様に、例えば図13(b)に示すようにタンカーが鮮明に表示できるようになる。
【0052】
このような遺伝子処理ステップ221が終了すると、コンピュータ装置3の制御処理部31のCPU31aは、基準線算出処理ステップ222に移行する。前記制御処理部31は、基準線算出処理ステップ222に処理を開始すると、例えば図14に示すタンカーの画像データに対して、例えば図15に示す処理を実行して、前記遺伝子処理ステップ221で抽出した船舶画像データに対して上甲板線を求める処理を行う。
【0053】
すなわち、コンピュータ装置3の制御処理部31のCPU31aで処理される基準線算出処理ステップ222では、図14に示すタンカーの画像データ370における上甲板線(基準線)SLを求めることになる。この上甲板線の検出を行う理由は、船体と上部構造物を分離するために必要だからである。
このCPU31aで処理されている基準線算出処理ステップ222では、通常、船舶像を水平方向に投射した投射の最大値を示す位置を上甲板線(基準線)SLとする処理をおこなう。
【0054】
しかし、上甲板線SLが、前述した位置よりも下に存在する船種に対しては、前記基準線算出処理ステップ222は、図5(a)及び図5(a’)に示すように、水平方向に投射した射影の最大値を示す位置MPから喫水位置WPの範囲で、prewittオペレータによりエッジを検出し(図15(a)及び図15(a’)のS261)、これによりエッジ画像380bを得て、その得たエッジ画像380bに対して細線化処理を施し(図15(a)及び図15(a’)のS262)、これにより細線化画像380cを得て、さらに、前記細線化画像380cに対してHouh変換を施すことにより求めた画像380dに示す直線部分を上甲板線SLとした(図15(a)及び図15(a’)のS263)。
【0055】
このように前記基準線算出処理ステップ222において求めた上甲板線(基準線)SLを基に、コンピュータ装置3の制御処理部31のCPU31aによって実行されている強調処理ステップ223は、上甲板線上の構造物を強調する。この基準線算出処理ステップ222によって処理された結果、図16(a)に示すコンテナ船の画像データ380aについては、図16(b)に示すようにコンテナ船に引かれた上甲板線(基準線)SL線の上側が強調された画像データ380bになる。
【0056】
同様に、図17(a)に示す自動車運搬船の画像データ390aについては、図17(b)に示すように自動車運搬船に引かれた上甲板線(基準線)SL線の上側が強調された画像データ390bになる。同様に、図18(a)に示すばら積み船の画像データ400aについては、図18(b)に示すようにばら積み船に引かれた上甲板線(基準線)SL線の上側が強調された画像データ400bになる。同様に、図19(a)に示すタンカーの画像データ410aについては、図19(b)に示すようにタンカーに引かれた上甲板線(基準線)SL線の上側が強調された画像データ410bになる。
【0057】
ついで、コンピュータ装置3の制御処理部31のCPU31aは、次のステップである特徴パラメータ処理ステップ224の処理に移行する。制御処理部31のCPU31aで処理されている特徴パラメータ処理ステップ224は、前記船舶全体画像データと、前記強調処理ステップ223で求めた上部構造物の画像データとを基に、船舶全体と上部構造物の面積比R、円形度C及び図形重心の高さHなどの特徴パラメータを求める。
【0058】
上記強調処理ステップ223で算出する特徴パラメータとは、船舶全体と上部構造物の面積比R、円形度C、図形重心の高さHなどである。
まず、特徴パラメータの一つである船舶全体と上部構造物の面積比Rは、
R=Su/Sa …[2]
Su:上部構造物の面積
Sa:船舶全体の面積
で与えられる。
また、特徴パラメータの他の一つである円形度Cは、
C=4πSc/L2 …[3]
Sc:重み付け後の船舶像の面積
L:重み付け後の船舶像の輪郭長
で与えられる。
【0059】
また、特徴パラメータのさらに他の一つである図形重心の高さHは、
H=(2RY/W)tan(φ/2) …[4]
R:相手船までの距離
Y:重み付け後の垂直方向の図形重心
W:画像の垂直方向の全画素数
φ:カメラの角度
で与えられる。
【0060】
また、特徴パラメータのさらに他の一つである水平方向の図形重心Dは、
D=X/Y
X:重み付け後の水平方向の図形重心
Y:船舶の水平方向の画素数
で与えられる。
このようにして特徴パラメータ処理ステップ224で求めた特徴パラメータを用い、コンピュータ装置3の制御処理部31のCPU31aにおいて第3のステップ23を処理することにより、次のようにして物体(船舶)の種別や形状を判定する。
【0061】
前記コンピュータ装置3の制御処理部31のCPU31aにおいて処理されてる第3のステップ23は、図22に示すRBF(RadialBasisFunction)ネットワーク50を使用し、前記船舶全体画像データと前記強調処理ステップ223で求めた上部構造物の画像データとを基に、船舶全体と上部構造物の面積比R、円形度C及び図形重心の高さHの特徴パラメータを入力要素とし、当該入力要素をRBFネットワークに取込み、当該RBFネットワーク50によって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別(船舶の種別)を分類している。
【0062】
なお、RBFネットワーク50は、通常、上述した属性から各種物体の種別(船舶の種別)を判別することができるが、例えば図20に示すようにコンテナ船と、漁船とが同一特徴範囲に分類されたときには、さらに、別の入力要素を基にして確率を計算することにより、図21に示すように、タンカーと、漁船とを分類することができる。
【0063】
このような処理ステップを説明するために、RBFネットワーク50は、図22に示すように、第1分類52において所定の特徴パラメータ(R、C、H)を用いて物体の種別(船種)を分類し、第1分類52で同一範疇に分類されたもの(タンカー、漁船)を、さらに別な特徴パラメータ(H、D)を用いて第2分類54で同一分類る分類されたものをさらに他の物体(船種(タンカーと、漁船とに分類)として分類している。
しかし、上記RBFネットワーク50は、当該ネットワーク50による確率計算で物体の形状が判別できるときには、この第1分類52と、第2の分類54とは必須の要件ではない。
【0064】
なお、上述した船舶全体と上部構造物の面積比Rと、円形度Cと、図形重心の高さHを特徴パラメータを第1主成分と第2主成分に分けて5種類の船舶をプロットしたものが主成分得点の散布図(図20)である。この図20からもわかるようにタンカーと漁船は、得点分布の一部が重複していることがわかる。
そこで、第一段階での船種の判別では両者を同一カテゴリーとして扱うことにして処理を進めることとして説明をしてゆく。
【0065】
次に、この同一カテゴリー内の分類を行うために、図形の重心の高さHと水平方向の図形重心Dの2つの特徴パラメータを用いて主成分分析を行った結果が図21に示す散布図である。この図21の散布図からもわかるようにタンカーと漁船が明らかに分類されていることがわかる。
この遺伝的アルゴリズムによる船種判別システム1では、コンピュータ装置3で実行されている第3のステップ23においてRBFネットワーク50を用い、RBFネットワーク50による確率計算によって、物体の種別(船種)の判別を行っている。
【0066】
なお、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システム1では、RBFネットワーク50は、前述した主成分分析の結果を基に作成し、図22に示すように、第一分類52において船舶全体と上部構造物の面積比R、円形度C、図形重心の高さHの3つの特徴パラメータを入力要素として、「自動車運搬船」、「コンテナ船」、「バラ積み船」の他、「タンカー」と「漁船」を同一カテゴリーとして判別をおこない、第二分類54において図形重心の高さHと水平方向の図形重心Dの特徴パラメータを入力要素として「タンカー」と「漁船」の判別を行う二段階構成としてある。また、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムでは、学習はアスペクト10度ごとの船舶モデルの船舶像から算出した特徴パラメータを用いて行っている。
【0067】
さらに、本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システム1では、船舶判別は上述した数式2〜数式5に示すように、相手船までの距離、アスペクトなど、それぞれ条件の異なる船舶の赤外画像を用いて行っている。
このように画像情報を利用したRBFネットワークによる物体種別形状判別システム1において、コンピュータ装置3の制御処理部31のCPU31aが画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラム20を処理した結果、表1のようなデータが得られた。
【0068】
【表1】
【0069】
この表1に示すように、自動車運搬船については試験画像数11枚に対して100[%]の判別率であり、コンテナ船については試験画像4枚に対して75[%]の判別率であり、ばら積み船については試験画像数6枚に対して100[%]の判別率であり、タンカーについては試験画像13枚に対して100[%]の判別率であり、漁船については試験画像5枚に対して80[%]の判別率であった。
【0070】
なお、画像情報を利用したRBFネットワークによる物体種別形状判別システム1において、コンピュータ装置3の制御処理部31のCPU31aで処理した結果は、ハードディスク装置33のデータベース領域16に格納しておく。
本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステム1では、ほぼ全ての船種において、良好な結果を得ることができた。また、誤判別を生じた船舶について検討した結果、船舶の判別精度は2値化の処理結果に大きく依存することがわかった。
【0071】
以上説明したように本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステム1は、RBFネットワーク50を用いた物体種別(船種)判別により、ほぼ全ての物体の種別(船種)において、良好な結果を得ることができ、かつ運動性能の収集もできる。このような物体の種別を判別することが可能であれば、例えば船舶の安全運行を支援する重要な要素である船種を確実に判別することができるという利点がある。
【0072】
以上説明したように本発明では、画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステム1の好適な実施の形態として、物体として船舶を例に挙げて説明したが、この物体としては船舶に限定されるものではなく、本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムによれば、自動車、戦車、人、その他、あらゆる物体の種別や形状を判別することがかものであることはいうまでもない。
また、本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムでは、物体の画像として赤外線画像を使用したが、これに限定されることなく、物体を通常の昼光色で撮像した画像であっても、その他の光による物体を撮像手段によって撮像した画像であってもよい。
【0073】
【発明の効果】
以上説明したように本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムによれば、遺伝的アルゴリズムにより物体像を抽出し、その抽出した物体像を所定の基準線を基に構造物の強調をし、その強調した画像から特徴パラメータを求め、その特徴パラメータをRBFネットワークに入力して物体の種別や形状の判別を行うことができる。
また、本発明に係る画像情報を利用したRBFネットワークによる物体種別形状判別方法及びそのシステムでは、物体の種別を判別した結果をいろいろな技術分野(例えば、衝突回避システムなど)に応用することができるという利点がある。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムを示すブロック図である。
【図2】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムの一部を構成するコンピュータ装置を説明するためのブロック図である。
【図3】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるハードディスク装置に格納されているプログラムやデータを説明するための図である。
【図4】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムによる画像情報を利用したRBFネットワークによる物体種別形状判別処理プログラムの構成例を示す図である。
【図5】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるコンピュータ装置で処理する遺伝子処理ステップの具体的な処理フローチャートである。
【図6】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおけるコンピュータ装置で処理する遺伝子処理ステップで適応度が変化してゆく様子を示す特性図である。
【図7】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線デジタルカメラからコンピュータ装置に取り込んだ自動車運搬船の画像データの例を示す図である。
【図8】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線デジタルカメラからコンピュータ装置に取り込んだタンカーの画像データの例を示す図である。
【図9】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、船舶画像データを横方向の遺伝子配列と縦方向に遺伝子配列に区分けした図である。
【図10】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、遺伝子処理ステップにおける最大適応度を算出した遺伝子配列に基づく分割領域をコンテナ船の赤外画像データに適用し、かつ遺伝子処理した後の結果の抽出画像データを示す図である。
【図11】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、遺伝子処理ステップにおける最大適応度を算出した遺伝子配列に基づく分割領域をタンカーの赤外画像データに適用し、かつ遺伝子処理した後の結果の抽出画像データを示す図である。
【図12】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線画像データを遺伝子処理ステップで処理した結果の画像データを示す図である。
【図13】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、赤外線画像データを遺伝子処理ステップで処理した結果の画像データを示す図である。
【図14】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、基準線算出処理ステップにおける基準線について説明するための図である。
【図15】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、基準線算出処理ステップの動作を説明するための説明図である。
【図16】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図である。
【図17】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図である。
【図18】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図である。
【図19】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、前記遺伝子処理ステップで得た画像データを、構造物強調処理ステップによって強調した場合の画像データを示す図である。
【図20】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、5種類の船舶を第1主成分と第2主成分にプロットした図である。
【図21】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて、2種類の船舶を第1主成分と第2主成分にプロットした図である。
【図22】本発明の実施の形態に係る画像情報を利用したRBFネットワークによる物体種別形状判別システムにおいて使用するRBF(RadialBasisFunction)ネットワークを示す説明図である。
【符号の説明】
1 遺伝的アルゴリズムによる船種判別システム
3 コンピュータ装置
5 キーボード(入力装置)
7 マウス(入力装置)
9 ディスプレイ(出力装置)
10 OS格納領域
11 プリンタ(出力装置)
12 AP格納領域
13 赤外線デジタルカメラ(撮像手段)
14,16 データベース領域
22 画像取得処理ステップ
24 船舶画像データ抽出処理ステップ
26 基準線算出処理ステップ
28 構造物強調処理ステップ
30 船種判別処理ステップ
31 制御処理部
31a CPU
31b ROM
31c RAM
32 主メモリ
33 ハードディスク装置
34 入力用I/F
35 表示用I/F
36 プリンタI/F
37 USBボード
38 バスライン[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object type shape discriminating method by an RBF network using image information where the type and shape of various objects can be discriminated from image information of the object, and a system thereof.
[0002]
[Prior art]
In general, if the shape and type of an object can be determined from image information of the object captured by an imaging device such as an electronic camera or a TV camera, it can be easily applied to various technical fields.
For example, in the case of a collision avoidance system that supports safe operation of a ship, in addition to knowing the course and movement performance of the other ship, if the shape and type of the other ship can be determined, It is possible to avoid collision effectively.
The collision avoidance system having such a system configuration can be said to be an extremely effective system in a situation where the risk of a collision accident between ships is increasing due to an increase in the amount of ship traffic as in today's present day.
By the way, the present inventors have proposed a ship collision avoidance system based on a genetic algorithm as a ship collision avoidance system based on the course and movement performance of the own ship and the course and movement performance of the other ship (for example, Patent Document 1).
[0003]
In this conventional collision avoidance system using a genetic algorithm, the fitness A, which is an evaluation of the moving path of a moving object, is determined by the safety S, the deviation D from the target path, the economic efficiency E, and the immediate death determining gene B. = B × (S + D + E), and the numerical value of safety S is logarithmically smaller with respect to the narrowing of the interval between moving objects that move relatively.
Japanese Patent Laid-Open No. 2002-222500.
[0004]
[Problems to be solved by the invention]
However, the above-described conventional collision avoidance system of a genetic algorithm seeks the possibility of a collision based on the course and movement performance of the own ship and the course and movement performance of the other ship, and provides safe operation. It did not identify the ship type, which is an important element to support.
SUMMARY OF THE INVENTION An object of the present invention is to provide an object type shape discrimination method and system using an RBF network that solves the above-described problems, makes it possible to discriminate the types of various objects, and uses image information with a wide application range.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, an object type shape discrimination method by an RBF network using image information according to
According to a second aspect of the present invention, in the object type shape discrimination method by the RBF network using the image information according to the first aspect, the second step is based on a genetic sequence for the image information of the object. The image information is segmented into image data, and the genetic sequence having the highest fitness is obtained while exploring genetic processing on the image data to obtain segmented image data, and for each segment of the segmented image data. A gene processing step for extracting object binarized image data by discriminating and analyzing the data, and a reference line for obtaining a reference line for the object image with respect to the object binarized image data extracted in the gene processing step A calculation processing step, and an enhancement processing step for obtaining emphasized image data by emphasizing a predetermined structure based on the reference line in the object binarized image data. And flop, characterized in that a characteristic parameter processing step for calculating a feature parameter concerning the image on the basis of the weighted image data obtained by the image information and the enhancement processing step of said object.
According to a third aspect of the present invention, in the object type shape discrimination method by the RBF network using the image information according to the first aspect, the first step obtains image information of the object by imaging the object with an imaging means. It is characterized by that.
According to a fourth aspect of the present invention, in the object type shape discrimination method by the RBF network using the image information according to the first aspect, the third step includes a feature parameter relating to an image obtained from the image information of the object and the image. An RFB network that calculates a probability that a feature parameter related to an input image belongs to a predetermined class based on a difference between learning data of feature parameters related to the parameter and a parameter that determines an allowable range is used. A feature parameter is input, and the probability is calculated by the RFB network to determine the type of the object.
In order to achieve the above object, an object type shape determination system using an RBF network using image information according to
According to a sixth aspect of the invention, in the object type shape discriminating system using the RBF network using the image information according to the fifth aspect, the feature extracting unit is configured to perform the processing based on a genetic sequence with respect to the image information of the object. The image information is segmented into image data, and the genetic sequence having the highest fitness is obtained while exploring genetic processing on the image data to obtain segmented image data, and for each segment of the segmented image data. Gene processing means for extracting object binarized image data by discriminating analysis and binarization, and a reference line for obtaining a reference line for the object image for the object binarized image data extracted by the gene processing means Calculation processing means, enhancement processing means for obtaining emphasized image data by emphasizing a predetermined structure based on the reference line in the object binarized image data, and Characterized in that a characteristic parameter processing means for calculating a feature parameter relating to image the enhanced image data obtained by the image information and the enhancement processing unit body based.
According to a seventh aspect of the invention, in the object type shape discriminating system using the RBF network using the image information according to the fifth aspect, the object type discriminating means includes a feature parameter relating to an image obtained from the image information of the object and the image. And an RFB network that calculates a probability that a feature parameter related to an input image belongs to a predetermined class based on a difference between learning data of feature parameters related to the parameter and a parameter that determines an allowable range. A feature parameter is input, and the probability is calculated by the RFB network to determine the type of the object.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1 to 22 are diagrams for explaining an object type shape discrimination method using an RBF network using image information and an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. In these drawings, the object type shape discrimination method by the RBF network using the image information according to the embodiment of the present invention can be applied to a ship collision avoidance system. Hereinafter, it is applied to a ship collision avoidance system. An example will be described.
[0007]
In the present invention, in order to discriminate the type (ship type) of an object, an object image (ship image) for each aspect of an object to be discriminated (a ship in this embodiment) is required. Here, the aspect is an angle formed by the direction of the opponent's object (ship) and the course of the opponent's object (ship) as viewed from yourself (your ship). However, it is difficult to obtain object images (ship images) of all aspects for all objects (ships).
[0008]
Therefore, in the present embodiment, a predetermined object image is substituted. In the present embodiment, as a predetermined object image, a ship having a standard hull form among ship types that occupy about 69% of collision accidents (“container ship”, “tanker”, “bulk ship”, “fishing ship”). , “Automobile carrier”), a ship model is created by computer graphics, feature parameters for each aspect 10 [degree] are calculated from these ship images, and then, the calculated feature parameters are affected by the aspect. In order to select a ship type that can be classified well, an analysis using an RBF network is performed for each aspect 10 [degree], and the type of the object (ship type) is determined. This will be specifically described below.
[0009]
FIG. 1 is a block diagram showing an object type shape discrimination system by an RBF network using image information according to an embodiment of the present invention. In FIG. 1, an object type
[0010]
The infrared
Further, the ship image captured by the infrared
[0011]
FIG. 2 is a block diagram for explaining a computer device that constitutes a part of an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
The
[0012]
The
[0013]
In addition, a
[0014]
FIG. 3 is a diagram for explaining programs and data stored in the hard disk device in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention. In FIG. 3, the
[0015]
When the
[0016]
In addition, the
[0017]
An operation of the object type
FIG. 4 is a diagram showing a configuration example of an object type shape discrimination processing program using an RBF network using image information in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
[0018]
In FIG. 4, the object type shape
[0019]
Here, in the
[0020]
In addition, the
[0021]
The object type shape
[0022]
Here, the feature extraction means in the object type
[0023]
Further, the object type discrimination means realized by the
[0024]
Next, a specific operation of the object type
Here, FIG. 5 is a specific processing flowchart of the gene processing step processed by the computer device in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention.
[0025]
FIG. 6 is a characteristic diagram showing how fitness changes in a gene processing step processed by a computer device in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. The horizontal axis represents the generation, and the vertical axis represents the fitness.
FIG. 7 is a diagram showing an example of image data of an automobile carrier ship taken into the computer apparatus from the infrared digital camera in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. In FIG. 7, the distance between the ship and the infrared
[0026]
FIG. 8 is a diagram showing an example of tanker image data taken into the computer apparatus from the infrared digital camera in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention. In FIG. 8, the distance between the ship and the infrared
[0027]
FIG. 9 shows the classification of ship image data into a horizontal gene array and a vertical gene array in a gene processing step processed by an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. FIG. 9A shows a gene sequence corresponding to image data, and FIG. 9B shows a state where a horizontal gene sequence and a vertical gene sequence are connected to each other.
[0028]
FIG. 10 shows an infrared image of a container ship representing a divided region based on a gene sequence in which a maximum fitness is calculated in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. FIG. 10 is a diagram showing extracted image data as a result after being applied to data and subjected to gene processing, and FIG. 10A shows a photographic image in a state in which a gene sequence is adapted to infrared image data of a container ship, FIG. 10 (a ′) shows an image displayed by a dotted line for a photographic image in which the gene sequence is adapted to the infrared image data of the container ship, and FIG. 10 (b) shows the extracted image data as a result of the gene processing. It is shown. In FIG. 10 (a '), the shadow of the container is indicated by a dotted line, but in an actual photograph, it is unclearly displayed as shown in FIG. 10 (a).
[0029]
FIG. 11 shows an infrared image data of a tanker representing a divided region based on a gene sequence in which a maximum fitness is calculated in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. FIG. 11A is a diagram showing the extracted image data obtained after applying the gene processing and the gene processing, and FIG. 11A shows a photographic image in which the gene sequence is adapted to the infrared image data of the tanker. (A ′) shows an image indicated by a dotted line for a photographic image in which the gene sequence is adapted to the infrared image data of the tanker, and FIG. 11 (b) shows extracted image data obtained as a result of the gene processing. It is a thing. In FIG. 11 (a '), the tanker's shadow is shown by a dotted line, but in an actual photograph, it is displayed unclearly as shown in FIG. 11 (a).
[0030]
FIG. 12 is a diagram showing image data as a result of processing infrared image data in the gene processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. a) is a photographic image of the infrared image data of the container ship, FIG. 12A is a diagram showing the photographic image of the infrared image data of the container ship as an image indicated by a dotted line, and FIG. The image data of the container ship is shown respectively. In FIG. 12 (a '), the shadow of the container ship is indicated by a dotted line, but in an actual photograph, it is unclearly displayed as shown in FIG. 12 (a).
[0031]
FIG. 13 is a diagram showing image data obtained as a result of processing infrared image data in the gene processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG. 13A shows the tanker infrared image data, FIG. 13A ′ shows the tanker infrared image data in dotted lines, and FIG. 13B shows the processed tanker image data. . In FIG. 13 (a '), the tanker's shadow is shown by a dotted line, but in an actual photograph, it is displayed unclearly as shown in FIG. 13 (a).
[0032]
FIG. 14 is a diagram for explaining the reference line in the reference line calculation processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention.
FIG. 15 is an explanatory diagram for explaining the operation of the reference line calculation processing step in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention. Shows the image data of the actual photographic image, and FIG. 15 (a ′) shows the diagram showing the actual photographic image with dotted lines.
[0033]
FIG. 16 shows image data when the image data obtained in the gene processing step is enhanced by the enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG. 16A shows the container ship image data obtained in the gene processing step, and FIG. 16B shows the container ship image data after the enhancement process in the object enhancement process step. It is a thing.
[0034]
FIG. 17 shows image data when the image data obtained in the gene processing step is enhanced by the enhancement processing step in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention. FIG. 17A shows the image data of the car carrier obtained in the gene processing step, and FIG. 17B shows the image data of the car carrier after the emphasis processing in the object emphasis processing step. It is a thing.
[0035]
FIG. 18 shows image data when the image data obtained in the gene processing step is enhanced by the object enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. 18 (a) shows the image data of the bulk carrier obtained at the gene processing step, and FIG. 18 (b) shows the image data of the bulk carrier after the enhancement processing at the enhancement processing step. It is a thing.
[0036]
FIG. 19 shows image data when the image data obtained in the gene processing step is emphasized in the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. 19 (a) shows the tanker image data obtained in the gene processing step, and FIG. 19 (b) shows the tanker image data after the enhancement processing in the enhancement processing step. It is.
[0037]
FIG. 20 is a diagram in which five types of ships are plotted on the first principal component and the second principal component in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. The first principal component is taken on the axis, and the second principal component is taken on the vertical axis. Further, in FIG. 20, a circle mark represents a car carrier, a triangle mark represents a tanker, a square mark represents a container ship, a cross mark represents a bulk carrier, and a shape obtained by overlapping two squares represents a fishing boat. .
[0038]
FIG. 21 is a diagram in which two types of ships are plotted on the first principal component and the second principal component in the object type shape discrimination system using the RBF network using image information according to the embodiment of the present invention. The first principal component is taken on the axis, and the second principal component is taken on the vertical axis. Further, in FIG. 21, Δ marks represent tankers and □ marks represent fishing boats.
FIG. 22 is an explanatory diagram showing an RBF (Radial Basis Function) network used in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
[0039]
Next, a specific operation will be described. First, the infrared
Next, an image take-in command is given from, for example, the
[0040]
Here, the image data stored in the
Next, the
[0041]
First, the
[0042]
When the processing of the
[0043]
When this series of genetic processing is performed, the
[0044]
That is, when the gene processing step 221 of the image
[0045]
Specifically, the gene processing step 221 executed by the
Next, the gene processing step 221 executed by the
[0046]
[Expression 1]
[0047]
In
[0048]
Next, the gene processing step 221 executed by the
Next, the gene processing step 221 executed by the
Furthermore, the gene processing step 221 being executed by the
[0049]
Further, the gene processing step 221 executed by the
Further, in the gene processing step 221 executed by the
[0050]
By performing the above processing steps, in this embodiment, as shown in FIG. 6, the solid line indicates the change in fitness of 10 generations when the number of individuals is 30, and the dotted line indicates the number of
On the other hand, the gene processing step 221 executed by the
[0051]
The gene processing step 221 being executed by the
[0052]
When such a gene processing step 221 is completed, the
[0053]
That is, in the reference line calculation processing step 222 processed by the
In the reference line calculation processing step 222 processed by the
[0054]
However, for ship types in which the upper deck line SL exists below the position described above, the reference line calculation processing step 222 is performed as shown in FIGS. 5 (a) and 5 (a ′). An edge is detected by the prewitt operator in the range from the position MP indicating the maximum value of the projection projected in the horizontal direction to the draft position WP (S261 in FIGS. 15A and 15A ′), and thereby the
[0055]
Thus, based on the upper deck line (reference line) SL obtained in the reference line calculation processing step 222, the
[0056]
Similarly, for the
[0057]
Next, the
[0058]
The characteristic parameters calculated in the
First, the area ratio R between the entire ship and the superstructure, which is one of the characteristic parameters,
R = Su / Sa ... [2]
Su: Area of superstructure
Sa: Total area of the ship
Given in.
The circularity C, which is another feature parameter, is
C = 4πSc / L2 ... [3]
Sc: Area of ship image after weighting
L: Contour length of ship image after weighting
Given in.
[0059]
Further, the height H of the figure centroid, which is still another feature parameter,
H = (2RY / W) tan (φ / 2) [4]
R: Distance to the other ship
Y: Figure center of gravity in the vertical direction after weighting
W: Total number of pixels in the vertical direction of the image
φ: Camera angle
Given in.
[0060]
In addition, the graphic centroid D in the horizontal direction, which is still another feature parameter,
D = X / Y
X: Weighted figure center of gravity in the horizontal direction
Y: Number of pixels in the horizontal direction of the ship
Given in.
By using the feature parameter obtained in the feature parameter processing step 224 in this manner and processing the
[0061]
The
[0062]
The
[0063]
In order to explain such processing steps, the
However, in the
[0064]
In addition, the area ratio R of the whole ship and the upper structure, the circularity C, and the height H of the graphic center of gravity described above were plotted with five types of ships divided into the first principal component and the second principal component. The thing is a scatter diagram of the main component scores (FIG. 20). As can be seen from FIG. 20, it can be seen that the tankers and fishing boats have a part of the score distribution overlapping.
Therefore, in the discrimination of the ship type in the first stage, it will be explained that both are treated as the same category and the processing proceeds.
[0065]
Next, in order to perform the classification within the same category, the result of the principal component analysis using two characteristic parameters of the height H of the graphic centroid and the horizontal graphic centroid D is shown in FIG. It is. As can be seen from the scatter diagram of FIG. 21, it can be seen that tankers and fishing boats are clearly classified.
In the ship
[0066]
In the object type
[0067]
Further, in the object type
As described above, in the object type
[0068]
[Table 1]
[0069]
As shown in Table 1, the discrimination rate is 100 [%] for 11 test images for a car carrier and 75 [%] for 4 test images for a container ship. For bulk carriers, the discrimination rate is 100% for 6 test images, for tankers, the discrimination rate is 100% for 13 test images, and 5 test images for fishing boats. The discrimination rate was 80%.
[0070]
In the object type
In the object type shape discrimination method by the RBF network using the image information according to the present invention and the
[0071]
As described above, the object type shape discrimination method by the RBF network using the image information and the
[0072]
As described above, in the present invention, as a preferred embodiment of the object type shape discrimination method by the RBF network using the image information and the
In the object type shape discrimination method and system using the RBF network using image information according to the present invention, an infrared image is used as an object image. However, the present invention is not limited to this. Even an image obtained by picking up an object by other light using an image pickup means may be used.
[0073]
【The invention's effect】
As described above, according to the object type shape discriminating method and system using the RBF network using the image information according to the present invention, an object image is extracted by a genetic algorithm, and the extracted object image is set to a predetermined reference line. Based on the emphasis of the structure, a feature parameter can be obtained from the emphasized image, and the feature parameter can be input to the RBF network to determine the type and shape of the object.
Further, in the object type shape discrimination method and system using the RBF network using image information according to the present invention, the result of discrimination of the object type can be applied to various technical fields (for example, a collision avoidance system). There is an advantage.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 2 is a block diagram for explaining a computer device constituting a part of an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining programs and data stored in a hard disk device in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 4 is a diagram showing a configuration example of an object type shape discrimination processing program by an RBF network using image information by an object type shape discrimination system by an RBF network using image information according to an embodiment of the present invention.
FIG. 5 is a specific processing flowchart of gene processing steps processed by a computer device in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 6 is a characteristic diagram showing how fitness changes in a gene processing step processed by a computer device in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 7 is a diagram showing an example of image data of an automobile carrier ship taken into a computer device from an infrared digital camera in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 8 is a diagram showing an example of tanker image data taken into a computer device from an infrared digital camera in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention;
FIG. 9 is a diagram in which ship image data is divided into a gene array in the horizontal direction and a gene array in the vertical direction in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention.
FIG. 10 shows an infrared image of a container ship representing a divided region based on a gene sequence in which a maximum fitness is calculated in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention. It is a figure which shows the extracted image data of the result after applying to data and carrying out gene processing.
FIG. 11 is a diagram illustrating an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention; It is a figure which shows extraction image data of the result after applying to and carrying out gene processing.
FIG. 12 is a diagram showing image data obtained as a result of processing infrared image data in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 13 is a diagram showing image data as a result of processing infrared image data in a gene processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 14 is a diagram for describing a reference line in a reference line calculation processing step in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 15 is an explanatory diagram for explaining the operation of the reference line calculation processing step in the object type shape discrimination system by the RBF network using the image information according to the embodiment of the present invention.
FIG. 16 is an image data when the image data obtained in the gene processing step is emphasized in the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention; FIG.
FIG. 17 shows image data when the image data obtained in the gene processing step is emphasized by the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG.
FIG. 18 shows image data when the image data obtained in the gene processing step is emphasized in the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG.
FIG. 19 shows image data when the image data obtained in the gene processing step is emphasized in the structure enhancement processing step in the object type shape discrimination system using the RBF network using the image information according to the embodiment of the present invention. FIG.
FIG. 20 is a diagram in which five types of ships are plotted on a first principal component and a second principal component in the object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
FIG. 21 is a diagram in which two types of ships are plotted on a first principal component and a second principal component in the object type shape discrimination system using the RBF network using image information according to the embodiment of the present invention.
FIG. 22 is an explanatory diagram showing an RBF (Radial Basis Function) network used in an object type shape discrimination system using an RBF network using image information according to an embodiment of the present invention.
[Explanation of symbols]
1 Ship classification system using genetic algorithm
3 Computer equipment
5 Keyboard (input device)
7 Mouse (input device)
9 Display (output device)
10 OS storage area
11 Printer (output device)
12 AP storage area
13 Infrared digital camera (imaging means)
14,16 Database area
22 Image acquisition processing steps
24 Ship Image Data Extraction Processing Step
26 Baseline calculation processing step
28 Structure enhancement processing steps
30 Ship type discrimination processing step
31 Control processing unit
31a CPU
31b ROM
31c RAM
32 Main memory
33 Hard disk device
34 I / F for input
35 Display I / F
36 Printer I / F
37 USB board
38 bus line
Claims (7)
物体の画像情報を得る第1のステップと、
前記物体の画像情報から画像に関する所定の特徴パラメータを抽出する第2のステップと、
前記第2のステップで求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる第3のステップと、を備えたことを特徴とする画像情報を利用したRBFネットワークによる物体種別形状判別方法。An object type determination method capable of determining an object type from image information of an object,
A first step of obtaining image information of the object;
A second step of extracting predetermined feature parameters relating to an image from image information of the object;
Predetermined feature parameters relating to the image obtained in the second step are taken into the RBF network, the probability that each of the object types belongs to the RBF network is calculated, and the type of each object is determined from the probability that the calculation result belongs to the predetermined class. And an object type shape discrimination method using an RBF network using image information.
前記遺伝子処理ステップで抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理ステップと、
前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理ステップと、
前記物体の画像情報や前記強調処理ステップで求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理ステップと
を備えたことを特徴とする請求項1記載の画像情報を利用したRBFネットワークによる物体種別形状判別方法。In the second step, the image information of the object is divided into regions based on a genetic sequence to obtain image data, and the highest fitness is achieved while repeating genetic processing on the image data. Gene processing step to obtain the segmented image data by exploring the gene sequence, and to extract the object binarized image data by discriminating and binarizing for each region of the segmented image data,
A reference line calculation processing step for obtaining a reference line for the object image with respect to the object binarized image data extracted in the gene processing step;
An emphasis processing step of emphasizing a predetermined structure based on the reference line in the object binarized image data to obtain emphasized image data;
The image information according to claim 1, further comprising: a feature parameter processing step that calculates a feature parameter related to the image based on the image information of the object and the enhanced image data obtained in the enhancement processing step. Object type shape discrimination method by RBF network.
物体の画像情報を得る撮像手段と、
前記撮像手段からの物体の画像情報から画像に関する所定の特徴パラメータを抽出する特徴部抽出手段と、
前記特徴部抽出手段で求めた画像に関する所定の特徴パラメータをRBFネットワークに取込み、当該RBFネットワークによって各物体種別に属する確率を演算し当該演算結果が所定のクラスに属する確率から各種物体の種別を判別できる物体種別判別手段と、を備えたことを特徴とする画像情報を利用したRBFネットワークによる物体種別形状判別システム。An object type discrimination system capable of discriminating an object type from image information of an object,
Imaging means for obtaining image information of the object;
Feature extraction means for extracting predetermined feature parameters relating to the image from the image information of the object from the imaging means;
Predetermined feature parameters relating to the image obtained by the feature extraction means are taken into the RBF network, the probability of belonging to each object type is calculated by the RBF network, and the types of various objects are determined from the probability that the calculation result belongs to a predetermined class. An object type shape discriminating system using an RBF network using image information characterized by comprising an object type discriminating means.
前記遺伝子処理手段で抽出した物体二値化画像データに対して物体画像に対する基準線を求める基準線算出処理手段と、
前記物体二値化画像データ内の構造物を前記基準線を基に所定を強調して強調画像データを得る強調処理手段と、
前記物体の画像情報や前記強調処理手段で求めた前記強調画像データを基に画像に関する特徴パラメータを算出する特徴パラメータ処理手段とを備えたことを特徴とする請求項5記載の画像情報を利用したRBFネットワークによる物体種別形状判別システム。The feature extraction unit is configured to segment the image information into image data based on a genetic sequence with respect to the image information of the object, and has the highest fitness while repeating the genetic processing on the image data Gene processing means for exploring gene sequences to obtain divided image data, and a gene processing means for extracting object binarized image data by discriminating and binarizing for each region of the divided image data,
Reference line calculation processing means for obtaining a reference line for the object image with respect to the object binarized image data extracted by the gene processing means,
Enhancement processing means for emphasizing a predetermined structure based on the reference line in the object binarized image data to obtain enhanced image data;
6. The image information according to claim 5, further comprising: feature parameter processing means for calculating a feature parameter relating to an image based on the image information of the object and the enhanced image data obtained by the enhancement processing means. Object type shape discrimination system by RBF network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003193579A JP2005031789A (en) | 2003-07-08 | 2003-07-08 | Object type shape discrimination method and system using RBF network using image information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003193579A JP2005031789A (en) | 2003-07-08 | 2003-07-08 | Object type shape discrimination method and system using RBF network using image information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005031789A true JP2005031789A (en) | 2005-02-03 |
Family
ID=34205012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003193579A Pending JP2005031789A (en) | 2003-07-08 | 2003-07-08 | Object type shape discrimination method and system using RBF network using image information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005031789A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017215947A (en) * | 2016-05-05 | 2017-12-07 | ブランスウィック コーポレイションBrunswick Corporation | Human detection in marine environment |
CN108594639A (en) * | 2018-03-28 | 2018-09-28 | 哈尔滨工程大学 | A kind of air cushion vehicle Track In Track control method based on intensified learning |
JP2021077202A (en) * | 2019-11-12 | 2021-05-20 | ジャパンマリンユナイテッド株式会社 | Information processor, ship, and information processing method |
CN113177557A (en) * | 2021-03-15 | 2021-07-27 | 福建电子口岸股份有限公司 | Bowling prevention method and system based on machine vision and deep learning |
-
2003
- 2003-07-08 JP JP2003193579A patent/JP2005031789A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017215947A (en) * | 2016-05-05 | 2017-12-07 | ブランスウィック コーポレイションBrunswick Corporation | Human detection in marine environment |
US10372976B2 (en) | 2016-05-05 | 2019-08-06 | Brunswick Corporation | Person detection in a marine environment |
CN108594639A (en) * | 2018-03-28 | 2018-09-28 | 哈尔滨工程大学 | A kind of air cushion vehicle Track In Track control method based on intensified learning |
CN108594639B (en) * | 2018-03-28 | 2020-12-22 | 哈尔滨工程大学 | A Reinforcement Learning-Based Track Tracking Control Method for a Cushioned Hovercraft |
JP2021077202A (en) * | 2019-11-12 | 2021-05-20 | ジャパンマリンユナイテッド株式会社 | Information processor, ship, and information processing method |
JP7270528B2 (en) | 2019-11-12 | 2023-05-10 | ジャパンマリンユナイテッド株式会社 | Information processing device, ship and information processing method |
CN113177557A (en) * | 2021-03-15 | 2021-07-27 | 福建电子口岸股份有限公司 | Bowling prevention method and system based on machine vision and deep learning |
CN113177557B (en) * | 2021-03-15 | 2023-11-14 | 福建电子口岸股份有限公司 | Bowling prevention method and system based on machine vision and deep learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7113657B2 (en) | Information processing device, information processing method, and program | |
CN112287860B (en) | Training method and device of object recognition model, and object recognition method and system | |
US20210311169A1 (en) | Radar data processing device, object determination device, radar data processing method, and object determination method | |
US10997465B2 (en) | Information processing device, information processing method, and storage medium | |
JP4171501B2 (en) | Vehicle periphery monitoring device | |
US9147105B2 (en) | Image recognizing apparatus, image recognizing method, and program | |
JP5950441B2 (en) | Image recognition apparatus, image recognition method, and image recognition program | |
CN113408324A (en) | Target detection method, device and system and advanced driving assistance system | |
CN106934795A (en) | The automatic testing method and Forecasting Methodology of a kind of glue into concrete beam cracks | |
EP2587451A1 (en) | Moving-object detection device | |
JP2012527664A (en) | Image classification method, apparatus, program product, and storage medium | |
Lim et al. | Vision‐based Lane‐Vehicle Detection and Tracking | |
CN109506628A (en) | Object distance measuring method under a kind of truck environment based on deep learning | |
KR101302944B1 (en) | Vehicle recognition method and device | |
JP2005190400A (en) | Face image detection method, face image detection system, and face image detection program | |
CN116152863B (en) | Personnel information identification method and device, electronic equipment and storage medium | |
US20160005161A1 (en) | Robot system | |
CN116494253B (en) | Target object grabbing pose acquisition method and robot grabbing system | |
JP2007310805A (en) | Object recognition device | |
JP2018055199A (en) | Image processing program, image processing apparatus, and image processing method | |
KR102131387B1 (en) | Method for clustering Data of Multi-layer of Lidar | |
JP2005134966A (en) | Face image candidate area search method, search system, and search program | |
JP2005031789A (en) | Object type shape discrimination method and system using RBF network using image information | |
CN113408429B (en) | Target detection method and system with rotation adaptability | |
JP5201184B2 (en) | Image processing apparatus and program |