[go: up one dir, main page]

JP2004032517A - Image pickup system and image processing apparatus - Google Patents

Image pickup system and image processing apparatus Download PDF

Info

Publication number
JP2004032517A
JP2004032517A JP2002187990A JP2002187990A JP2004032517A JP 2004032517 A JP2004032517 A JP 2004032517A JP 2002187990 A JP2002187990 A JP 2002187990A JP 2002187990 A JP2002187990 A JP 2002187990A JP 2004032517 A JP2004032517 A JP 2004032517A
Authority
JP
Japan
Prior art keywords
image data
frame
frames
image
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002187990A
Other languages
Japanese (ja)
Inventor
Fumiya Yagi
八木 史也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002187990A priority Critical patent/JP2004032517A/en
Publication of JP2004032517A publication Critical patent/JP2004032517A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup technique capable of outputting a smooth moving image, while realizing a relatively high S/N ratio and high sensitivity over the whole image. <P>SOLUTION: The image pickup system has five frame memories for storing the frames which are successively obtained with an image pickup element. Before a person HM appears, five frames F1-F5 are stored in the respective frame memories in the order of an update history. When the newest frame in which the person HM appears is obtained, a differential operation with the just preceding image F5 is performed, and space low-pass filter processing is applied to the differential image to generate a smoothed difference image FD. The image FD is added to the respective frames F2-F5, and added images F2a-F5a are generated. These added images F2a-F5a and the newest frame F6 are summed to generate a summed image FS. In this way, the smooth moving image can be generated while realizing a relatively high S/N ratio and high sensitivity over the whole image. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、出力画像データに基づき動画出力が可能な撮像技術に関する。
【0002】
【従来の技術】
被写体を撮影する撮像装置(撮像システム)は、その原理により複数のタイプに分類されるが、いずれも使用されている撮像素子の感度は必ずしも高いとは言えない。撮像素子として最も普及しているCCDイメージセンサでは、対象物体面上において10[lx]オーダ、撮像面上においては10−1[lx]オーダの最低照度が必要である。この照度値から、例えば夜間の無照明での撮影が極めて困難であると言える。
【0003】
そこで、撮像装置の感度を高めるために様々な技術が試みられている。この高感度化のための技術は5種類に大別される。それぞれの特徴を以下で説明する。
【0004】
(1)撮像素子から出力される画像信号に対して、後段の信号処理回路における利得(ゲイン)を高める方法で、通常撮影の延長上にある技術である。これにより、微弱な画像信号が増強される。しかし、同時にノイズ成分までも増強されるため、出力画像の品質は劣悪なものとなる欠点がある。
【0005】
(2)撮像素子上で隣接関係にある複数の画素の出力値を加算する技術で、例えば特開平9−182090はこれを応用している。各画素の出力値は微弱であっても、互いに加算することにより増強が可能となる。しかし、複数の画素の出力値を合計するため、解像度が著しく低下する欠点がある。
【0006】
(3)被写体像を光学的に増倍する倍増素子を構成に付加する技術である。この倍増素子としてイメージインテンシファイアと称されるものがある。対物レンズ系によって結像した光学像を一旦光電膜で電子に変換し、生成された電子を電界により加速して蛍光膜に衝突させて、もとの光学像よりも輝度の高い蛍光像を形成する。これにより、比較的高いS/N比でリアルタイムの動画像を撮影できる。しかし、カラー画像の撮影が困難で、またコストが高いという欠点がある。
【0007】
(4)撮像素子での光エネルギーの蓄積時間を延長する方法で、端的に言えばスローシャッタにより露光時間を長くする技術である。例えば特開昭64−78081にはこの技術が開示されている。低照度の微弱な画像でも露光量を増やせば画像信号の強度が増すとともに、蓄積時間を長くすることによりランダムノイズが平準化されその影響が減少するため、画像の品質も保たれる。しかし、シャッター速度が遅いため、動きのある被写体に追従できず、残像が発生するなど動解像度が低下するという欠点がある。
【0008】
(5)順次に撮影される複数の画像データを、メモリ上で繰り返し加算する方法で、例えば特開平5−103266には、この方法を応用した技術が開示されている。この技術は、原理的には上記(4)の方法に類似しており、実質的に露光時間を延ばすことによってランダムノイズの低減を図るものである。
【0009】
図7は、上記(5)の技術に係る撮像システム9の要部構成を示す概略図である。
【0010】
レンズ光学系(図示せず)を介して撮像面に結像される被写体の光学像は、撮像素子91で電気信号に変換されて画像信号として出力される。A/D変換部92は、撮像素子91から出力される画像信号を、デジタル信号に変換して出力する。フレームメモリ群93は、N(N≧2)枚の単位フレームメモリ(1)〜(N)を有しており、A/D変換部92で生成された画像データをそれぞれ格納する。
【0011】
選択更新部94は、A/D変換部92から出力される画像データを、単位フレームメモリ(1)〜(N)の中から更新履歴の最も古い1のフレームメモリを選択して転送し、選択されたフレームメモリの記憶内容を破棄して最新の画像データで更新する。総加算部部95は、単位フレームメモリ(1)〜(N)に格納されている画像データを互いに加算して、出力画像データを生成する。出力画像処理部96は、出力画像データを変換処理し、モニタなどの外部機器に動画出力する。
【0012】
撮像システム9では、総加算部95による出力画像データの生成は、単位フレームメモリ(1)〜(N)が一渡り更新される毎に行われる。よって、出力画像処理部96から出力される画像の時間間隔は、撮像素子91のフレームレートをN倍したものとなる。
【0013】
以上の撮像システム9の動作により、高S/N比が達成でき、カラー撮影が可能となる。また、原理の類似した上記(4)の方法と異なって撮像素子の駆動に特別な構成を要しないという点で、優れた技術であると考えられる。
【0014】
【発明が解決しようとする課題】
しかしながら、上記(5)の方法では、実質的な露光時間の延長と等しいため、上述したように出力画像処理部96から動画像として出力される画像データのフレームレートが撮像素子の1/N倍と低下する。したがって、動きのある被写体を撮影する場合には、その動きに追従できず動解像度が低下するため、被写体の視認が困難な低品質の動画像となってしまう。
【0015】
この問題を解消する技術として、例えば特開2001−230965には、画像から動きのある部分と背景部分とを分離し、前者にはその大きさに応じて利得をかけ、後者にはデータ加算処理を施す方法が開示されている。しかし、この方法では、最終的に出力される画像で残像は低減できるが、動作の連続性が低下する。つまりフレームレートが減少して、いわゆるコマ飛びのように滑らかな動画像の出力が困難となる。
【0016】
本発明は、上記課題に鑑みてなされたものであり、画像全体として比較的高いS/N比と高感度とを実現しつつ、滑らかな動画出力が可能な撮像技術を提供することを目的とする。
【0017】
【課題を解決するための手段】
上記の課題を解決するため、請求項1の発明は、動画出力が可能な撮像システムであって、被写体に係るフレームの画像データを順次に取得する撮像手段と、前記撮像手段で順次に取得される一連のフレームのうち、新しい順に所定数のフレームの画像データを格納する格納手段と、nを2以上の整数とし、前記所定数のフレームのうち最新のフレームを第nフレームとしたとき、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データを生成する差分手段と、前記差分画像データに対してローパスフィルタ処理を施し、平滑化差分画像データを生成する平滑化手段と、第1〜第nフレームの画像データと、前記平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める合成手段と、第2〜第(n−1)フレームの画像データのそれぞれと前記平滑化差分画像データとの和に相当する値、および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データを定義する更新手段を備え、前記合成画像データに基づいて前記動画出力の1フレーム分を得る。
【0018】
また、請求項2の発明は、請求項1の発明に係る撮像システムにおいて、整数nの値を変更する変更手段をさらに備える。
【0019】
また、請求項3の発明は、請求項2の発明に係る撮像システムにおいて、前記変更手段は、第nフレームの画像データに係る輝度情報に基づき、整数nの値を変更する手段を有する。
【0020】
また、請求項4の発明は、請求項2または請求項3の発明に係る撮像システムにおいて、前記被写体に係る照度を検出する検出手段、をさらに備え、前記変更手段は、前記検出手段で検出された前記照度に基づき、整数nの値を変更する手段を有する。
【0021】
また、請求項5の発明は、被写体に係るフレームの画像データを順次に取得する撮像装置と通信可能に接続されて動画出力が可能な画像処理装置であって、前記撮像装置で順次に取得される一連のフレームのうち、新しい順に所定数のフレームの画像データを格納する格納手段と、nを2以上の整数とし、前記所定数のフレームのうち最新のフレームを第nフレームとしたとき、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データを生成する差分手段と、前記差分画像データに対してローパスフィルタ処理を施し、平滑化差分画像データを生成する平滑化手段と、第1〜第nフレームの画像データと、前記平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める合成手段と、第2〜第(n−1)フレームの画像データのそれぞれと前記平滑化差分画像データとの和に相当する値および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データを定義する更新手段を備え、前記合成画像データに基づいて前記動画出力の1フレーム分を得る。
【0022】
【発明の実施の形態】
<第1実施形態>
<撮像システムの要部構成>
図1は、本発明の第1実施形態に係る撮像システム1Aの要部構成を示す概略図である。
【0023】
撮像システム1Aは、監視カメラ2Aと、ケーブルCB1を介して監視カメラ2Aを制御するコントローラ3Aとを有している。このコントローラ3Aは、ケーブルCB2を介して表示装置4と通信可能に接続している。表示装置4は、コントローラ3Aから出力される動画像の表示が可能である。
【0024】
監視カメラ2Aは、撮影レンズ21を有しており、撮影装置として機能する。
【0025】
コントローラ3Aは、画像処理装置として機能し、その前面には、電源スイッチ31と、液晶モニタ32と、操作ボタン33(33a、33b)とが設けられている。
【0026】
操作ボタン33は、ユーザの操作入力を受付ける部位で、この操作ボタン33が操作されることで撮像システム1Aの設定状態を変更することができる。また、液晶モニタ32では、この設定状態が表示可能な構成となっている。
【0027】
図2は、撮像システム1Aの機能的構成を示すブロック図である。
【0028】
監視カメラ2Aは、撮像レンズ21の奥に設けられる撮像素子22と、撮像素子22に電気的に接続するA/D変換部23とを有している。
【0029】
撮像素子22は、例えばCCDとして構成され、撮影レンズ21によって結像する被写体の光学像を電気信号に変換し、フレームの画像信号を出力する。この画像信号の出力は、所定のフレームレート、例えば1/30秒の周期で継続的に行われる。
【0030】
A/D変換部23は、撮像素子22からのアナログ信号をデジタル信号に変換する部位である。
【0031】
コントローラ3Aは、監視カメラ2Aで生成される画像データを1フレーム分記憶する単位フレームメモリとして構成される、最新フレームメモリ50、直前フレームメモリ51、差分メモリ52および平滑化差分メモリ53を備えている。また、コントローラ3Aは、5つの単位フレームメモリ54〜58で構成されるフレームメモリ群59を有しており、このフレームメモリ群59では、後述するように最新フレームの画像データとともに、最新フレームの取得時点から1/30秒前(前回)、2/30秒前(2回前)、3/30秒前(3回前)および4/30秒前(4回前)の4つの画像データが格納される。
【0032】
監視カメラ2Aから送信された最新フレームの画像データは、最新フレームメモリ50に格納される。この最新フレームメモリ50内の画像データは、新たに監視カメラ2で画像データが取得されコントローラ3に送信される場合には、直前フレームメモリ51に転送されて格納される。すなわち、最新フレームメモリ50に格納される画像データと、直前フレームメモリ51に格納される画像データとは、画像取得時について1/30秒のずれが生じている。
【0033】
また、コントローラ3Aは、選択更新部34と、差分部35と、空間ローパスフィルタ部36と、選択加算部37と、総加算部38と、出力画像処理部39と、これらの各部を統括制御する全体制御部30とを有している。
【0034】
選択更新部34は、最新フレームメモリ50に格納される最新フレームの画像データをフレームメモリ群59に転送し、フレームメモリ群59内の1つの単位フレームメモリの記憶内容を更新する。ここでは、フレームメモリ群59のうち更新履歴の最も古い画像データ、具体的には、最新フレームの取得時点から5/30秒前の画像データを破棄して更新する。これにより、撮像素子22で取得された最新(今回)のフレームの画像データと、前回から順に4回前までに撮像素子22で取得された4回分のフレームの画像データとを格納できることとなる。
【0035】
差分部35は、直前フレームメモリ51に格納される直前フレームの画像データに対する、最新フレームメモリ50に格納される最新フレームの画像データの差分画像データを演算する。そして、差分部35で生成された差分画像データは、差分フレームメモリ52に格納される。
【0036】
空間ローパスフィルタ部36は、差分フレームメモリ52に格納される差分画像データに、例えばガウシアンフィルタを利用して空間ローパスフィルタ処理を施す。この空間ローパスフィルタ処理とは、画像上に存在する二次元パターンのうち比較的高周波の成分を低減させる処理である。これにより、差分画像データに含まれる空間的高周波の成分(ノイズ成分)を低減して平滑化し、平滑化差分画像データを生成できる。そして、空間ローパスフィルタ部36で生成された平滑化差分画像データは、平滑化差分フレームメモリ53に格納される。
【0037】
選択加算部37は、フレームメモリ群59の5つの単位フレームメモリ54〜58のうち、選択更新部34により最新フレームの画像データで更新された単位フレームメモリを除く4つの単位フレームメモリを順に選択し、選択された単位フレームメモリに格納される画像データに平滑化差分画像データを加算する。
【0038】
総加算部38は、フレームメモリ群59の5つの単位フレームメモリ54〜58に格納されている5つの画像データを互いに対応画素ごとに加算し、出力画像データを生成する。この出力画像データの生成は、監視カメラ2のフレームレートと同一のフレームレート、すなわち1/30秒ごとに行われる。
【0039】
出力画像処理部39は、総加算部38で加算された出力画像データを、適切なデータ形態あるいは信号形式に変換処理して、モニタ4などの外部機器に動画出力を行う。この適切なデータ形態および信号形式とは、デジタル出力が要求される場合には例えばMPEG形式が挙げられ、アナログ信号出力が要求される場合には例えばY/C形式が挙げられる。
【0040】
全体制御部30は、CPUおよびメモリを有しており、上記の各部と有機的に結合して統括制御を行う。特に、監視カメラ2の監視領域が暗い場合に、以下で説明する画像処理を行う。
【0041】
<画像処理について>
撮像システム1Aにおける低照度環境下での画像処理を、図3を参照しつつ説明する。図3は、ドアDRを含む監視領域に人物HMが出現した場合の画像処理を具体的に説明するためのイメージ図となっている。
【0042】
人物HMが出現する前には、フレームメモリ群59には更新履歴の順に5つのフレームF1〜F5が格納されている。そして、人物HMが出現した最新(今回)のフレームの画像データが監視カメラ2から送信されると、最新フレームの画像データが最新フレームメモリ50に格納されるとともに、選択更新部34によって更新履歴の最も古いフレームF1の代わりに最新フレームF6がフレームメモリ群59に格納される。
【0043】
ここで、直前フレームメモリ51に格納されている直前(前回)のフレームF5と最新フレームF6との差分演算が差分部35で行われた後、空間ローパスフィルタ部36で高周波ノイズ成分が低減されて平滑化差分画像FDが生成される。
【0044】
そして、平滑化差分画像FDは、選択加算部37によりフレームメモリ群59に格納されるフレームF2〜F5にそれぞれ加算され、加算画像F2a〜F5aがフレームメモリ群59に格納される。
【0045】
最後に、総加算部38により、フレームメモリ群59に格納される4つの加算画像F2a〜F5aと最新フレームF6とが総加算されて出力画像FSが生成される。
【0046】
以上のように、前回以前に取得された4回分のフレームF2〜F5を互いに加算した画像と、平滑化差分画像FDを4回分加算した画像と、最新フレームF6とが総加算され出力画像FSが生成されることによって、n=5としたときに、n回分のフレームF2〜F6と、平滑化差分画像FSの(n−1)倍分との総和に対応する合成画像データ(出力画像FS)が得られることになる。したがって、低照度環境下でも輝度が高い、すなわち感度が高い画像を取得できるとともに、画像データの総加算によって高周波のランダムノイズが平均化されることでS/N比が改善され、画像全体として高いS/N比を達成できる。なお、人物HMが出現する直前の出力画像FBも、フレームF1〜F5が総加算されたものであるため、出力画像FSと同様である。
【0047】
また、平滑化差分画像FDをフレームF2〜F5に加算するため、人物HMの出現という画像変化が生じても、これを的確に反映した動画像の出力が可能となる。
【0048】
上記の画像処理では、被写体成分は画像からノイズ成分を除くものであるので、最新フレームF6が取得された時点で、フレームメモリ群59内の各フレームF2〜F5における被写体成分が実質的に同一となっているのが前提条件となるが、平滑化差分画像データが過去の各フレームに常に加算されるため、フレームF2a〜F5a、F6のような関係を持つ被写体成分の等しい画像が時々刻々と生成されるので上記条件は満たされることとなる。すなわち、第2〜第(n−1)フレームの画像データのそれぞれと平滑化差分画像FSとの和に相当する値、および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データが定義されることによって、動画出力の各フレームの生成プロセスを繰り返すことができる。
【0049】
なお、監視カメラ2での撮影開始直後には、フレームメモリ群59にフレームの画像データが存在せず空の画像データが格納されているが、ここで最新フレームの画像データが取得されると、空の画像データとの差分画像データが空の画像データに加算される、すなわち最新フレームの画像データが各フレームメモリに複写されるため、出力画像は輝度が改善されたものとなる。この場合には、最新フレームのノイズ成分まで同一の複写であるために、画像全体のS/N比の向上は見込めない。しかし、順次に取得されるフレームの画像データが蓄積されることにより、徐々にS/N比が改善できることとなる。そして、フレームメモリ群59で5つのフレームの画像データが蓄積された後には、一定の高S/N比が実現できる。
【0050】
<撮像システム1Aの動作>
図4は、撮像システム1Aの基本的な動作を説明するフローチャートである。本動作は、全体制御部30により実行される。ただし、撮影の初期状態では各フレームの画像データは入っていないが、撮影の最初に取得された1フレームの画像データを各フレームメモリに複写しておくことにより、下記の処理を開始可能である。もっとも、以下のルーチンは、既にある程度以上のフレーム数の画像データが取得されて各フレームメモリに格納され、上記の初期状態のダミー的状況が解消した後の期間に主として効果を発揮する。
【0051】
ステップS1では、変数iに1を代入する。
【0052】
ステップS2では、撮像素子22でフレーム(i)を取得する。このフレーム(i)とは、撮影開始から第i回目に取得されるフレームを示している。
【0053】
ステップS3では、ステップS2で取得されたフレーム(i)をA/D変換部23でデジタル信号に変換する。
【0054】
ステップS4では、選択更新部34により、フレームメモリ群59に格納される更新履歴の最も古いフレームを選択し、最新のフレーム(i)で更新する。
【0055】
ステップS5では、差分部35により、直前のフレーム(i−1)に対する最新のフレーム(i)の差分演算を行う。
【0056】
ステップS6では、空間ローパスフィルタ部36により、ステップS5で演算された差分画像データに対して空間ローパスフィルタ処理を施す。これにより、図3に示す画像FDのように、平滑化差分画像データが生成できる。
【0057】
ステップS7では、選択加算部37により、ステップS6で生成された平滑化差分画像データを、最新のフレーム(i)を除くフレームメモリ群59内の各フレームに加算する。これにより、図3に示す画像F2a〜F5aのような加算画像データが生成できる。
【0058】
ステップS8では、総加算部38により、フレームメモリ群59内の全フレーム、すなわち図3に示す加算画像F2a〜F5aおよび最新画像F6を加算する。これにより、図3に示す出力画像FSのような出力画像データが生成できる。
【0059】
ステップS9では、出力画像処理部39により、ステップS8で生成された画像を変換処理して、表示装置4などの外部機器に出力する。これにより、表示装置4では、低照度環境下の撮影画像であっても比較的鮮明に表示できることとなる。
【0060】
ステップS10では、直前フレームメモリ51に格納されているフレーム(i−1)を最新のフレーム(i)で更新する。
【0061】
ステップS11では、変数iにi+1を代入する。
【0062】
以上で説明した撮像システム1Aの動作を、以下でモデル式を用い補足的に説明する。図5は、撮像システム1Aにおける画像処理の概念を説明するための図である。なお、図5に表す各矩形内の曲線Gは、画像信号を示している。また、画像処理の概念を一般化するため、フレームメモリ群59内の単位フレームメモリの数をnとし、またフレーム(i)が取得された時点で、単位フレームメモリ(1)〜(n)のうち更新履歴が最も古い画像データを格納しているものが単位フレームメモリ(n)であると仮定する。
【0063】
上記のステップS2およびS3で生成される最新のフレーム(i)の画像データDは、図5の画像信号Gtoに示すような純粋な被写体像成分Oと、ノイズ成分Rとの合成信号Gtと考えられるため、次の式(1)のように表される。
【0064】
【数1】

Figure 2004032517
【0065】
ステップS4でのフレームの更新により、単位フレームメモリ(n)に格納されるデータD は、次の式(2)で表される。
【0066】
【数2】
Figure 2004032517
【0067】
また、単位フレームメモリ(n−1)に格納されているデータDi−1 n−1は、次の式(3)で表される。
【0068】
【数3】
Figure 2004032517
【0069】
従って、ステップS5での差分演算により生成される差分画像データΔDは、次の式(4)のように示される。
【0070】
【数4】
Figure 2004032517
【0071】
ここで、差分画像データΔDは、画面内で被写体が変化することによって発生する差分ΔOと、ノイズ成分の時間変化によって発生する差分ΔRとの合成信号Gdとなるため、次の式(5)で表される。
【0072】
【数5】
Figure 2004032517
【0073】
画像データに含まれるノイズ成分は、その大部分が空間的および時間的に高周波でばらつくという特性がある。一方、純粋な被写体像の動きは、空間的および時間的に低周波であることが一般的である。
【0074】
よって、ステップS6における空間ローパスフィルタ処理により、ΔOは殆ど影響を受けないが、一方ΔRは低減されることとなる。すなわち、平滑化差分画像データΔD’は、次の式(6)に示すように被写体像成分の差分ΔOと近似できる。
【0075】
【数6】
Figure 2004032517
【0076】
ステップS7では、画像信号Gfに示すような平滑化差分画像データΔD’が、単位フレームメモリ(n)以外の各単位フレームメモリ(1)〜(n−1)に加算される。ここで、単位フレームメモリ(n−1)に着目すると、このメモリ(n−1)に格納されているデータD n−1は、次の式(7)で表されることとなる。
【0077】
【数7】
Figure 2004032517
【0078】
式(7)に式(3)を代入すると、次の式(8)が導かれる。
【0079】
【数8】
Figure 2004032517
【0080】
ここで、Oi−1とΔOとの加算は、フレーム(i−1)における純粋な被写体像成分と、フレーム(i−1)からフレーム(i)への純粋な被写体像成分の差分との加算を意味する。すなわち、Oi−1とΔOとの加算は、フレーム(i)における純粋な被写体像の成分Oを表すこととなる。よって、式(8)から次の式(9)が導かれ、この画像データDが単位フレームメモリ(n−1)に格納される。
【0081】
【数9】
Figure 2004032517
【0082】
上述した単位フレームメモリ(n−1)内の画像データと同様に、単位フレームメモリ(1)〜(n−2)内の画像データに対して平滑化差分画像データを加算すると、各単位フレームメモリ(1)〜(n)に格納される画像データD 〜D は、次の式(10)で表される。
【0083】
【数10】
Figure 2004032517
【0084】
そして、ステップS8で単位フレームメモリ(1)〜(n)の各画像データD 〜D が総加算され、次の式(11)で表される出力画像データP(画像信号Gk参照)が生成できる。
【0085】
【数11】
Figure 2004032517
【0086】
ここで、式(11)の右辺第2項は、過去の各時点のフレームにおけるノイズ成分を加算したものである。上述したようにノイズ成分は空間的および時間的に高周波で分散するため、式(11)の右辺第2項のように時系列で連続する複数のフレームにわたり加算すると、加算されるフレームの数すなわちnの値が大きければ画像全体で均一な値に近づくこととなる。よって、式(11)は、定数cを使って次の式(12)のような近似が可能となる。
【0087】
【数12】
Figure 2004032517
【0088】
ここで、式(12)の右辺第1項は、現時点の最新フレーム(i)における純粋な被写体像を倍率nで増倍したものである。また、式(12)の右辺第2項cは定数であるため、その除去が容易である。
【0089】
以上説明したように撮像システム1Aでは、純粋な被写体像Oにノイズ成分Rが重畳した最新の画像データGtに基づき、画像信号Gkのように、最新の画像データGtと位相が等しく倍増された純粋な被写体像Oに、低減されたノイズが重畳した画像データPを、監視カメラ2と同一フレームレートで生成できることとなる。この生成される出力画像データは、複数のフレームにわたる単なる加算で生成される画像データGstのように最新の画像データGtと位相が異なる(画像変化が反映されない)ものでなく、また最新の画像データGtを単純に倍増して生成される画像データGtkのようにノイズ成分が大きくならない。すなわち、従来技術の欠点が改善されたものとなっている。
【0090】
以上の撮像システム1Aの動作により、最新のフレームと直前のフレームに基づき生成される平滑化差分画像データをフレームメモリに記憶される過去のフレームに加算した後に、これらと最新のフレームとの加算を行って出力画像データを生成するため、画像全体として比較的高いS/N比と高感度とを実現しつつ、滑らかな動画出力が可能となる。
【0091】
<第2実施形態>
図6は、本発明の第2実施形態に係る撮像システム1Bの機能的構成を示すブロック図である。
【0092】
撮像システム1Bのコントローラ3Bは、図2に示す第1実施形態のコントローラ3Aに対して、選択フレーム数制限部61と操作入力部62とが付加されている。この操作入力部62は、図1に示す操作ボタン33を有している。
【0093】
選択フレーム数制限部61は、フレームメモリ群59の5枚の単位フレームメモリ54〜58のうち、選択更新部34および選択加算部37で処理対象となる単位フレームメモリの数を制限する部位である。この選択フレーム数制限部61により、加算されるフレーム数nを変更できるため、出力画像データの輝度調整を行えることとなる。
【0094】
低照度環境といっても、実際の照度値は様々である。したがって、高感度化を目的として常にフレームメモリ群59の全フレームメモリを総加算するのでは、照度値が比較的高い場合に出力画像が露出オーバによる白飛び状態となる可能性がある。そこで、選択フレーム数制限部61は、単位フレームメモリ54〜58のうち処理対象の単位フレームメモリをNo枚、例えば3枚に制限する。具体的には、選択フレーム数制限部61は、A/D変換部23から受信する最新のフレームの画像データから導出される輝度情報に基づき、処理対象の単位フレームメモリを制限できる構成、より具体的には被写体の輝度が高いほど加算するフレームの数を減少させるという関係での制御構成となっている。
【0095】
また、選択フレーム数制限部61は、操作入力部62に対してユーザが操作入力を行うことにより、選択対象の単位フレームメモリ数を制限できる。
【0096】
撮像システム1Bの監視カメラ2Bは、図2に示す第1実施形態の監視カメラ2Aに対して、測光センサ24が付加されている。
【0097】
測光センサ24は、被写体の照度を測定する部位である。この測光センサ24で検出された被写体の照度に基づき、選択フレーム数制限部61では処理対象の単位フレームメモリ数を制限できる。
【0098】
撮像システム1Bの動作は、図4のフローチャートに示す動作に類似しているが、選択フレーム数制限部61によるフレーム数の制限動作が付加されている。
【0099】
すなわち、例えば操作入力部62に対するユーザの操作入力で設定された処理対象の単位フレームメモリに対して、平滑化差分データの加算処理が行われるとともに、これらのフレームの総加算が行われる。
【0100】
なお、操作入力部62から入力される設定値に基づき処理対象のフレームメモリを制限するのは必須でなく、上述した測光センサ24や、A/D変換部23から出力された最新のフレームの画像データに基づき制限しても良い。
【0101】
以上の撮像システム1Bにより、第1実施形態と同様の効果を奏することとなる。さらに、撮像システム1Bでは、処理対象のフレーム数を制限できるため、出力画像データの輝度調整を適切に行える。
【0102】
<変形例>
◎上記の各実施形態については、監視カメラとコントローラとが分離するのは必須でなく、監視カメラにコントローラの機能を搭載しても良い。この場合には、監視カメラの出力画像が、画像全体として比較的高いS/N比と高感度とを実現した画像となる。
【0103】
◎上記の各実施形態における撮像素子は、CCDであるのは必須でなく、CMOSイメージセンサでも良い。また、所定のフレームレートは、1/30秒に限らず1/60秒など一定の時間間隔であれば良い。
【0104】
◎上記の各実施形態におけるフレームメモリ群は、5個の単位フレームメモリから構成されているのは必須でなく、2個でも3個でも6個以上でも良い。また、第2実施形態に係る処理対象となるフレームの数nについても、2以上の任意の整数で良いが、好ましくは3以上、さらに好ましくは5以上である。
【0105】
◎上記の各実施形態においては、図3に示すように、以前に取得した各フレームF2〜F5に平滑化差分画像FDを加算した後に、これらの加算画像F2a〜F5aと最新のフレームF6とを加算して出力画像FSを生成するのは必須でなく、以前の各フレームF2〜F5を互いに加算した画像と、平滑化差分画像FDを4回加算した画像つまり4倍に増幅した画像と、最新のフレームF6とを加算して出力画像FSを生成しても良い。この場合にも、上記の各実施形態と同様の効果を発揮できる。
【0106】
◎上記の各実施形態において、平滑化差分画像FS(図3参照)を得るにあたっては、最新のフレームF6とその直前のフレームF5との差ではなく、それ以前のフレーム(たとえばF4)と最新のフレームF6との差を求めても良い。すなわち、最新のフレームを第nフレームとしたとき、第1〜第(n−1)フレームの被写体の画像状況は前回の更新によって実質的に同じになっているから、第nフレームの画像データとの差分を求める対象(基準画像データ)としては第1〜第(n−1)フレームのいずれでもよく、また、これらのうちの複数のフレームの平均や加重平均を使用してもよいことになる。
【0107】
◎上述した具体的実施形態には、以下の構成を有する発明が含まれている。
【0108】
(1)操作入力を受付ける操作入力部をさらに備え、設定手段は前記操作入力に応答して整数nの値を変更する手段を有することを特徴とする撮像システム。
【0109】
これにより、出力画像データの輝度調整をユーザが行える。
【0110】
【発明の効果】
以上説明したように、請求項1ないし請求項5の発明によれば、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データに対してローパスフィルタ処理を施して平滑化差分画像データを生成した後、第1〜第nフレームの画像データと、平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める。その結果、画像全体として比較的高いS/N比と高感度とを実現しつつ、滑らかな動画出力が可能となる。
【0111】
特に、請求項2の発明においては、整数nの値を変更する変更手段をさらに備えるため、合成画像データの輝度調整が容易となる。
【0112】
また、請求項3の発明においては、第nフレームの画像データに係る輝度情報に基づき、整数nの値を変更するため、合成画像データの輝度調整を適切に行える。
【0113】
また、請求項4の発明においては、被写体に係る照度に基づき、整数nの値を変更するため、合成画像データの輝度調整を適切に行える。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る撮像システム1の要部構成を示す概略図である。
【図2】撮像システム1Aの機能的構成を示すブロック図である。
【図3】撮像システム1Aにおける画像処理方法を説明するための図である。
【図4】撮像システム1Aの基本的な動作を説明するフローチャートである。
【図5】撮像システム1Aにおける画像処理の概念を説明するための図である。
【図6】本発明の第2実施形態に係る撮像システム1Bの機能的構成を示すブロック図である。
【図7】従来技術に係る撮像システム9の要部構成を示す概略図である。
【符号の説明】
1A、1B 撮像システム
2A、2B 監視カメラ
3A、3B コントローラ
4 表示装置
30 全体制御部
34 選択更新部
35 差分部
36 空間ローパスフィルタ部
37 選択加算部
38 総加算部
39 出力画像処理部
59 フレームメモリ群[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging technique capable of outputting a moving image based on output image data.
[0002]
[Prior art]
An imaging device (imaging system) for photographing a subject is classified into a plurality of types according to its principle, but the sensitivity of the imaging device used in each case is not necessarily high. In a CCD image sensor which is most widely used as an image sensor, 100[Lx] order, 10 on the imaging surface-1A minimum illuminance of the order [lx] is required. From this illuminance value, it can be said that, for example, it is extremely difficult to shoot at night without illumination.
[0003]
Therefore, various techniques have been tried to increase the sensitivity of the imaging device. Techniques for increasing the sensitivity are roughly classified into five types. Each feature is described below.
[0004]
(1) A technique for increasing the gain of an image signal output from an image sensor in a signal processing circuit at a subsequent stage, which is an extension of normal imaging. Thereby, a weak image signal is enhanced. However, since the noise component is also enhanced at the same time, there is a disadvantage that the quality of the output image becomes poor.
[0005]
(2) A technique of adding output values of a plurality of pixels having an adjacent relationship on an image sensor. For example, Japanese Patent Application Laid-Open No. 9-182090 uses this technique. Even if the output value of each pixel is weak, it can be enhanced by adding each other. However, since the output values of a plurality of pixels are summed, there is a disadvantage that the resolution is significantly reduced.
[0006]
(3) This is a technique in which a doubling element for optically multiplying a subject image is added to the configuration. As this doubling element, there is an element called an image intensifier. The optical image formed by the objective lens system is once converted into electrons by the photoelectric film, and the generated electrons are accelerated by the electric field and collide with the fluorescent film to form a fluorescent image with higher brightness than the original optical image I do. Thus, a real-time moving image can be captured with a relatively high S / N ratio. However, there are drawbacks in that it is difficult to take a color image and the cost is high.
[0007]
(4) A method of extending the accumulation time of light energy in the image sensor, which is a technique of extending the exposure time by a slow shutter, in short. For example, Japanese Patent Application Laid-Open No. 64-78081 discloses this technique. Increasing the amount of exposure increases the intensity of the image signal even for a weak image with low illuminance, and also increases the accumulation time to level out random noise and reduce its effect, thereby maintaining image quality. However, since the shutter speed is slow, it is not possible to follow a moving subject, and there is a drawback that the dynamic resolution is reduced such as an afterimage.
[0008]
(5) A method of repeatedly adding a plurality of image data shot sequentially on a memory, for example, Japanese Patent Application Laid-Open No. 5-103266 discloses a technique to which this method is applied. This technique is similar in principle to the method (4) described above, and aims to reduce random noise by substantially extending the exposure time.
[0009]
FIG. 7 is a schematic diagram illustrating a main configuration of the imaging system 9 according to the technique (5).
[0010]
An optical image of a subject formed on an imaging surface via a lens optical system (not shown) is converted into an electric signal by the imaging device 91 and output as an image signal. The A / D converter 92 converts an image signal output from the image sensor 91 into a digital signal and outputs the digital signal. The frame memory group 93 has N (N ≧ 2) unit frame memories (1) to (N), and stores the image data generated by the A / D converter 92, respectively.
[0011]
The selection update unit 94 transfers the image data output from the A / D conversion unit 92 by selecting the one frame memory having the oldest update history from the unit frame memories (1) to (N). The stored contents of the frame memory are discarded and updated with the latest image data. The total adding unit 95 adds the image data stored in the unit frame memories (1) to (N) to each other to generate output image data. The output image processing unit 96 converts the output image data and outputs a moving image to an external device such as a monitor.
[0012]
In the imaging system 9, the generation of the output image data by the total addition unit 95 is performed every time the unit frame memories (1) to (N) are updated. Therefore, the time interval between images output from the output image processing unit 96 is N times the frame rate of the image sensor 91.
[0013]
By the operation of the imaging system 9 described above, a high S / N ratio can be achieved, and color imaging can be performed. Further, unlike the method (4) having a similar principle, it is considered to be an excellent technique in that a special configuration is not required for driving the image sensor.
[0014]
[Problems to be solved by the invention]
However, in the method (5), since the exposure time is substantially equal to the extension of the exposure time, the frame rate of the image data output as a moving image from the output image processing unit 96 is 1 / N times that of the image sensor as described above. And decline. Therefore, when a moving subject is photographed, the moving resolution cannot be traced because the subject cannot follow the movement, resulting in a low-quality moving image in which it is difficult to visually recognize the subject.
[0015]
As a technique for solving this problem, for example, Japanese Patent Application Laid-Open No. 2001-230965 discloses that a moving part and a background part are separated from an image, a gain is applied to the former according to its size, and a data addition processing is performed to the latter. Is disclosed. However, in this method, afterimages can be reduced in the finally output image, but the continuity of operation decreases. That is, the frame rate decreases, and it becomes difficult to output a smooth moving image like a so-called frame skip.
[0016]
The present invention has been made in view of the above problems, and has as its object to provide an imaging technique capable of outputting a smooth moving image while realizing a relatively high S / N ratio and high sensitivity as a whole image. I do.
[0017]
[Means for Solving the Problems]
In order to solve the above problem, the invention according to claim 1 is an imaging system capable of outputting a moving image, wherein an imaging unit that sequentially acquires image data of a frame related to a subject, and an imaging system that is sequentially acquired by the imaging unit. Means for storing image data of a predetermined number of frames in a new order from a series of frames, and n is an integer of 2 or more, and the latest frame among the predetermined number of frames is an n-th frame. a difference means for generating difference image data between the image data of n frames and reference image data representatively representing the first to (n-1) th frames, and performing a low-pass filter process on the difference image data A smoothing means for generating smoothed difference image data; a synthesized image corresponding to the sum of image data of the first to n-th frames and (n-1) times the smoothed difference image data And a value corresponding to the sum of each of the image data of the second to (n-1) th frames and the smoothed difference image data, and a value of the image data of the nth frame. Updating means for defining new image data for the first to (n-1) th frames is provided, and one frame of the moving image output is obtained based on the composite image data.
[0018]
According to a second aspect of the present invention, in the imaging system according to the first aspect of the present invention, the imaging system further includes a change unit for changing a value of the integer n.
[0019]
According to a third aspect of the present invention, in the imaging system according to the second aspect of the present invention, the change unit has a unit for changing a value of the integer n based on luminance information on the image data of the n-th frame.
[0020]
According to a fourth aspect of the present invention, in the imaging system according to the second or third aspect of the present invention, the imaging system further includes a detecting unit configured to detect the illuminance of the subject, and the changing unit detects the illuminance. Means for changing the value of the integer n based on the illuminance.
[0021]
According to a fifth aspect of the present invention, there is provided an image processing apparatus which is communicably connected to an imaging apparatus for sequentially acquiring image data of a frame related to a subject and can output a moving image, and which is sequentially acquired by the imaging apparatus. Means for storing image data of a predetermined number of frames in a new order from a series of frames, and n is an integer of 2 or more, and the latest frame among the predetermined number of frames is an n-th frame. a difference means for generating difference image data between the image data of n frames and reference image data representatively representing the first to (n-1) th frames, and performing a low-pass filter process on the difference image data A smoothing means for generating smoothed difference image data; a synthesized image data corresponding to the sum of the image data of the first to n-th frames and (n-1) times the smoothed difference image data. And a value corresponding to the sum of each of the image data of the second to (n-1) th frames and the smoothed difference image data and the value of the image data of the nth frame. Updating means for defining new image data for the (n-1) th frame is provided, and one frame of the moving image output is obtained based on the composite image data.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
<Main components of the imaging system>
FIG. 1 is a schematic diagram illustrating a main configuration of an imaging system 1A according to the first embodiment of the present invention.
[0023]
The imaging system 1A has a surveillance camera 2A and a controller 3A that controls the surveillance camera 2A via a cable CB1. The controller 3A is communicably connected to the display device 4 via the cable CB2. The display device 4 can display a moving image output from the controller 3A.
[0024]
Surveillance camera 2A has photographing lens 21, and functions as a photographing device.
[0025]
The controller 3A functions as an image processing device, and a power switch 31, a liquid crystal monitor 32, and operation buttons 33 (33a, 33b) are provided on a front surface thereof.
[0026]
The operation button 33 is a part that accepts a user's operation input. By operating the operation button 33, the setting state of the imaging system 1A can be changed. Further, the liquid crystal monitor 32 is configured to be able to display this setting state.
[0027]
FIG. 2 is a block diagram illustrating a functional configuration of the imaging system 1A.
[0028]
The surveillance camera 2 </ b> A has an image sensor 22 provided behind the image sensor 21 and an A / D converter 23 electrically connected to the image sensor 22.
[0029]
The imaging element 22 is configured as, for example, a CCD, converts an optical image of a subject formed by the imaging lens 21 into an electric signal, and outputs a frame image signal. The output of the image signal is continuously performed at a predetermined frame rate, for example, at a cycle of 1/30 seconds.
[0030]
The A / D converter 23 is a part that converts an analog signal from the image sensor 22 into a digital signal.
[0031]
The controller 3A includes a latest frame memory 50, a previous frame memory 51, a difference memory 52, and a smoothed difference memory 53 configured as a unit frame memory for storing one frame of image data generated by the monitoring camera 2A. . Further, the controller 3A has a frame memory group 59 composed of five unit frame memories 54 to 58. The frame memory group 59 acquires the latest frame together with the image data of the latest frame as described later. Four image data 1/30 seconds before (previous time), 2/30 seconds before (2 times before), 3/30 seconds before (3 times before) and 4/30 seconds before (4 times before) Is done.
[0032]
The image data of the latest frame transmitted from the monitoring camera 2A is stored in the latest frame memory 50. The image data in the latest frame memory 50 is transferred to and stored in the immediately preceding frame memory 51 when image data is newly acquired by the monitoring camera 2 and transmitted to the controller 3. In other words, the image data stored in the latest frame memory 50 and the image data stored in the immediately preceding frame memory 51 are shifted by 1/30 second when the image is acquired.
[0033]
The controller 3A controls the selection update unit 34, the difference unit 35, the spatial low-pass filter unit 36, the selection addition unit 37, the total addition unit 38, the output image processing unit 39, and these units. And an overall control unit 30.
[0034]
The selection update unit 34 transfers the image data of the latest frame stored in the latest frame memory 50 to the frame memory group 59, and updates the storage content of one unit frame memory in the frame memory group 59. Here, the oldest image data of the update history in the frame memory group 59, specifically, the image data 5/30 seconds before the latest frame acquisition time is discarded and updated. As a result, it is possible to store the image data of the latest (current) frame acquired by the image sensor 22 and the image data of four frames acquired by the image sensor 22 four times from the previous time.
[0035]
The difference unit 35 calculates difference image data of the image data of the latest frame stored in the latest frame memory 50 with respect to the image data of the previous frame stored in the previous frame memory 51. Then, the difference image data generated by the difference unit 35 is stored in the difference frame memory 52.
[0036]
The spatial low-pass filter unit 36 performs a spatial low-pass filter process on the difference image data stored in the difference frame memory 52 using, for example, a Gaussian filter. This spatial low-pass filter processing is processing for reducing relatively high-frequency components of a two-dimensional pattern existing on an image. This makes it possible to reduce and smooth a spatial high-frequency component (noise component) included in the difference image data, and generate smoothed difference image data. Then, the smoothed difference image data generated by the spatial low-pass filter unit 36 is stored in the smoothed difference frame memory 53.
[0037]
The selection addition unit 37 sequentially selects four unit frame memories from among the five unit frame memories 54 to 58 of the frame memory group 59 except for the unit frame memory updated with the image data of the latest frame by the selection update unit 34. Then, the smoothed difference image data is added to the image data stored in the selected unit frame memory.
[0038]
The total adder 38 adds the five image data stored in the five unit frame memories 54 to 58 of the frame memory group 59 to each other for each corresponding pixel to generate output image data. The generation of the output image data is performed at the same frame rate as the frame rate of the monitoring camera 2, that is, every 1/30 seconds.
[0039]
The output image processing unit 39 converts the output image data added by the total addition unit 38 into an appropriate data format or signal format, and outputs a moving image to an external device such as the monitor 4. The appropriate data format and signal format include, for example, the MPEG format when digital output is required, and the Y / C format when analog signal output is required.
[0040]
The overall control unit 30 has a CPU and a memory, and performs overall control by organically combining with the above units. In particular, when the monitoring area of the monitoring camera 2 is dark, the image processing described below is performed.
[0041]
<About image processing>
Image processing in a low illuminance environment in the imaging system 1A will be described with reference to FIG. FIG. 3 is an image diagram for specifically explaining the image processing when the person HM appears in the monitoring area including the door DR.
[0042]
Before the appearance of the person HM, five frames F1 to F5 are stored in the frame memory group 59 in the order of update history. Then, when the image data of the latest (current) frame in which the person HM has appeared is transmitted from the surveillance camera 2, the image data of the latest frame is stored in the latest frame memory 50, and the selection update unit 34 updates the update history. The latest frame F6 is stored in the frame memory group 59 instead of the oldest frame F1.
[0043]
Here, after the difference operation between the immediately preceding (previous) frame F5 stored in the immediately preceding frame memory 51 and the latest frame F6 is performed by the difference unit 35, the high frequency noise component is reduced by the spatial low-pass filter unit 36. A smoothed difference image FD is generated.
[0044]
Then, the smoothed difference image FD is added to the frames F2 to F5 stored in the frame memory group 59 by the selection and addition unit 37, respectively, and the added images F2a to F5a are stored in the frame memory group 59.
[0045]
Finally, the total addition unit 38 adds the four added images F2a to F5a stored in the frame memory group 59 and the latest frame F6 to generate an output image FS.
[0046]
As described above, the image obtained by adding the four frames F2 to F5 obtained before the previous time to each other, the image obtained by adding the smoothed difference image FD four times, and the latest frame F6 are added, and the output image FS is obtained. By generating, when n = 5, composite image data (output image FS) corresponding to the sum of n times of frames F2 to F6 and (n-1) times the smoothed difference image FS Is obtained. Therefore, an image having high luminance, that is, an image with high sensitivity can be acquired even in a low-illuminance environment, and the S / N ratio is improved by averaging high-frequency random noise by total addition of image data, so that the entire image is high. An S / N ratio can be achieved. Note that the output image FB immediately before the appearance of the person HM is also the same as the output image FS because the frames F1 to F5 are added together.
[0047]
In addition, since the smoothed difference image FD is added to the frames F2 to F5, even if an image change such as the appearance of the person HM occurs, it is possible to output a moving image that accurately reflects the change.
[0048]
In the above-described image processing, since the subject component removes the noise component from the image, the subject component in each of the frames F2 to F5 in the frame memory group 59 is substantially the same when the latest frame F6 is obtained. Is a prerequisite, however, since the smoothed difference image data is always added to each past frame, an image with the same subject component having a relationship such as frames F2a to F5a and F6 is generated every moment. Therefore, the above condition is satisfied. That is, the first to (n−1) th frames are determined by the value corresponding to the sum of each of the image data of the second to (n−1) th frames and the smoothed difference image FS, and the value of the image data of the nth frame. 2) By defining new image data for a frame, the process of generating each frame of the moving image output can be repeated.
[0049]
Immediately after the start of shooting with the surveillance camera 2, empty image data is stored in the frame memory group 59 without frame image data. If the latest frame image data is acquired here, Since the difference image data from the sky image data is added to the sky image data, that is, the image data of the latest frame is copied to each frame memory, the output image has improved brightness. In this case, since the same copy is performed up to the noise component of the latest frame, an improvement in the S / N ratio of the entire image cannot be expected. However, by accumulating the image data of the sequentially acquired frames, the S / N ratio can be gradually improved. After five frames of image data are accumulated in the frame memory group 59, a constant high S / N ratio can be realized.
[0050]
<Operation of Imaging System 1A>
FIG. 4 is a flowchart illustrating a basic operation of the imaging system 1A. This operation is executed by the overall control unit 30. However, although the image data of each frame is not included in the initial state of shooting, the following processing can be started by copying the image data of one frame acquired at the beginning of shooting into each frame memory. . However, the following routine is mainly effective during a period after the image data of a certain number of frames or more has already been acquired and stored in each frame memory, and the above-described dummy state in the initial state has been resolved.
[0051]
In step S1, 1 is substituted for a variable i.
[0052]
In step S2, the frame (i) is acquired by the image sensor 22. The frame (i) indicates a frame acquired at the i-th time from the start of shooting.
[0053]
In step S3, the A / D converter 23 converts the frame (i) obtained in step S2 into a digital signal.
[0054]
In step S4, the selection update unit 34 selects the oldest frame in the update history stored in the frame memory group 59 and updates it with the latest frame (i).
[0055]
In step S5, the difference unit 35 performs a difference calculation of the latest frame (i) with respect to the immediately preceding frame (i-1).
[0056]
In step S6, the spatial low-pass filter 36 performs spatial low-pass filtering on the difference image data calculated in step S5. Thereby, smoothed difference image data can be generated like the image FD shown in FIG.
[0057]
In step S7, the selection adding unit 37 adds the smoothed difference image data generated in step S6 to each frame in the frame memory group 59 except for the latest frame (i). Thereby, additional image data such as the images F2a to F5a shown in FIG. 3 can be generated.
[0058]
In step S8, the total adder 38 adds all the frames in the frame memory group 59, that is, the added images F2a to F5a and the latest image F6 shown in FIG. Thus, output image data such as the output image FS shown in FIG. 3 can be generated.
[0059]
In step S9, the output image processing unit 39 converts the image generated in step S8 and outputs the image to an external device such as the display device 4. Thus, the display device 4 can relatively clearly display a captured image under a low illuminance environment.
[0060]
In step S10, the frame (i-1) stored in the immediately preceding frame memory 51 is updated with the latest frame (i).
[0061]
In step S11, i + 1 is substituted for a variable i.
[0062]
The operation of the imaging system 1A described above will be supplementarily described below using a model formula. FIG. 5 is a diagram for explaining the concept of image processing in the imaging system 1A. A curve G in each rectangle shown in FIG. 5 indicates an image signal. In order to generalize the concept of image processing, the number of unit frame memories in the frame memory group 59 is set to n, and when the frame (i) is acquired, the unit frame memories (1) to (n) It is assumed that the one storing the image data with the oldest update history is the unit frame memory (n).
[0063]
The image data D of the latest frame (i) generated in steps S2 and S3iIs a pure subject image component O as shown in the image signal Gto of FIG.iAnd the noise component RiTherefore, it is expressed as in the following equation (1).
[0064]
(Equation 1)
Figure 2004032517
[0065]
By updating the frame in step S4, the data D stored in the unit frame memory (n)i nIs represented by the following equation (2).
[0066]
(Equation 2)
Figure 2004032517
[0067]
The data D stored in the unit frame memory (n-1)i-1 n-1Is represented by the following equation (3).
[0068]
(Equation 3)
Figure 2004032517
[0069]
Therefore, the difference image data ΔD generated by the difference calculation in step S5iIs expressed as in the following equation (4).
[0070]
(Equation 4)
Figure 2004032517
[0071]
Here, the difference image data ΔDiIs the difference ΔO caused by the change of the subject in the screen.iAnd the difference ΔR generated by the time change of the noise componentiTherefore, the composite signal Gd is expressed by the following equation (5).
[0072]
(Equation 5)
Figure 2004032517
[0073]
Most of the noise components included in the image data have a characteristic that they vary spatially and temporally at high frequencies. On the other hand, the movement of a pure subject image generally has a low frequency spatially and temporally.
[0074]
Therefore, by the spatial low-pass filter processing in step S6, ΔOiIs hardly affected, while ΔRiWill be reduced. That is, the smoothed difference image data ΔDi′ Is the difference ΔO between the subject image components as shown in the following equation (6).iCan be approximated.
[0075]
(Equation 6)
Figure 2004032517
[0076]
In step S7, the smoothed difference image data ΔD as shown in the image signal Gfi'Is added to the unit frame memories (1) to (n-1) other than the unit frame memory (n). Here, paying attention to the unit frame memory (n-1), the data D stored in this memory (n-1)i n-1Is expressed by the following equation (7).
[0077]
(Equation 7)
Figure 2004032517
[0078]
Substituting equation (3) into equation (7) leads to the following equation (8).
[0079]
(Equation 8)
Figure 2004032517
[0080]
Where Oi-1And ΔOiMeans the addition of the pure subject image component in the frame (i-1) and the difference of the pure subject image component from the frame (i-1) to the frame (i). That is, Oi-1And ΔOiIs added to the component O of the pure subject image in the frame (i).iWill be expressed. Therefore, the following equation (9) is derived from equation (8), and this image data DiAre stored in the unit frame memory (n-1).
[0081]
(Equation 9)
Figure 2004032517
[0082]
Similarly to the image data in the unit frame memory (n-1) described above, when the smoothed difference image data is added to the image data in the unit frame memories (1) to (n-2), each unit frame memory Image data D stored in (1) to (n)i 1~ Di nIs represented by the following equation (10).
[0083]
(Equation 10)
Figure 2004032517
[0084]
Then, in step S8, each image data D in the unit frame memories (1) to (n) isi 1~ Di nAre added, and the output image data P expressed by the following equation (11) is obtained.i(See image signal Gk) can be generated.
[0085]
[Equation 11]
Figure 2004032517
[0086]
Here, the second term on the right side of Expression (11) is obtained by adding the noise components in the frames at the respective past time points. As described above, since the noise component is spatially and temporally dispersed at a high frequency, when the noise component is added over a plurality of frames that are continuous in time series as in the second term on the right side of Expression (11), the number of frames to be added, If the value of n is large, it will approach a uniform value for the entire image. Therefore, Expression (11) can be approximated by Expression (12) using the constant c.
[0087]
(Equation 12)
Figure 2004032517
[0088]
Here, the first term on the right side of Expression (12) is obtained by multiplying the pure subject image in the latest frame (i) at the present time by the magnification n. Since the second term c on the right side of the equation (12) is a constant, it can be easily removed.
[0089]
As described above, in the imaging system 1A, the pure subject image OiNoise component RiIs based on the latest image data Gt on which the superimposed image data Gt is pure and the phase is equal to and doubled with the latest image data Gt like the image signal Gk.iImage data P on which reduced noise is superimposediCan be generated at the same frame rate as the monitoring camera 2. The generated output image data is not different from the latest image data Gt in phase (no image change is reflected), unlike the image data Gst generated by simple addition over a plurality of frames. The noise component does not increase unlike the image data Gtk generated by simply doubling Gt. That is, the disadvantages of the prior art are improved.
[0090]
By the operation of the above-described imaging system 1A, after adding the smoothed difference image data generated based on the latest frame and the immediately preceding frame to the past frames stored in the frame memory, the addition of these to the latest frame is performed. In this case, the output image data is generated, so that a relatively high S / N ratio and high sensitivity can be realized as a whole image, and a smooth moving image can be output.
[0091]
<Second embodiment>
FIG. 6 is a block diagram illustrating a functional configuration of an imaging system 1B according to the second embodiment of the present invention.
[0092]
The controller 3B of the imaging system 1B is different from the controller 3A of the first embodiment shown in FIG. 2 in that a selection frame number limiting unit 61 and an operation input unit 62 are added. The operation input unit 62 has the operation buttons 33 shown in FIG.
[0093]
The selection frame number limiting unit 61 is a unit that limits the number of unit frame memories to be processed by the selection updating unit 34 and the selection adding unit 37 among the five unit frame memories 54 to 58 of the frame memory group 59. . Since the number n of frames to be added can be changed by the selected frame number limiter 61, the brightness of output image data can be adjusted.
[0094]
Even in a low illuminance environment, actual illuminance values vary. Therefore, if the total sum of all the frame memories of the frame memory group 59 is always added for the purpose of increasing the sensitivity, the output image may be overexposed due to overexposure when the illuminance value is relatively high. Therefore, the selected frame number limiting unit 61 limits the number of unit frame memories to be processed among the unit frame memories 54 to 58 to No, for example, three. Specifically, the selected frame number limiting unit 61 can limit the unit frame memory to be processed based on the luminance information derived from the image data of the latest frame received from the A / D converter 23. More specifically, the control configuration is such that the number of frames to be added decreases as the brightness of the subject increases.
[0095]
In addition, the selection frame number limiting unit 61 can limit the number of unit frame memories to be selected by the user performing an operation input to the operation input unit 62.
[0096]
The monitoring camera 2B of the imaging system 1B has a photometric sensor 24 added to the monitoring camera 2A of the first embodiment shown in FIG.
[0097]
The photometric sensor 24 is a part that measures the illuminance of the subject. Based on the illuminance of the subject detected by the photometric sensor 24, the selected frame number limiting unit 61 can limit the number of unit frame memories to be processed.
[0098]
The operation of the imaging system 1B is similar to the operation shown in the flowchart of FIG. 4, but an operation of limiting the number of frames by the selected frame number limiting unit 61 is added.
[0099]
That is, for example, the addition processing of the smoothed difference data is performed on the unit frame memory of the processing target set by the user's operation input to the operation input unit 62, and the total addition of these frames is performed.
[0100]
Note that it is not essential to limit the frame memory to be processed based on the setting value input from the operation input unit 62, and the image of the latest frame output from the photometric sensor 24 or the A / D conversion unit 23 described above. The restriction may be based on data.
[0101]
With the above imaging system 1B, the same effects as in the first embodiment can be obtained. Further, in the imaging system 1B, since the number of frames to be processed can be limited, the brightness of output image data can be appropriately adjusted.
[0102]
<Modification>
In the above embodiments, it is not essential that the surveillance camera and the controller are separated from each other, and the surveillance camera may be provided with a controller function. In this case, the output image of the surveillance camera is an image that realizes a relatively high S / N ratio and high sensitivity as a whole image.
[0103]
The imaging device in each of the above embodiments is not necessarily a CCD, but may be a CMOS image sensor. Further, the predetermined frame rate is not limited to 1/30 second, but may be a constant time interval such as 1/60 second.
[0104]
It is not essential that the frame memory group in each of the above embodiments is composed of five unit frame memories, but may be two, three, six or more. Also, the number n of frames to be processed according to the second embodiment may be an arbitrary integer of 2 or more, but is preferably 3 or more, and more preferably 5 or more.
[0105]
In the above embodiments, as shown in FIG. 3, after adding the smoothed difference image FD to each of the previously acquired frames F2 to F5, these added images F2a to F5a and the latest frame F6 are added. It is not essential to generate the output image FS by adding the images. The image obtained by adding the previous frames F2 to F5 to each other, the image obtained by adding the smoothed difference image FD four times, that is, the image amplified four times, May be added to generate the output image FS. Also in this case, the same effects as those of the above embodiments can be exerted.
[0106]
In each of the above embodiments, in obtaining the smoothed difference image FS (see FIG. 3), not the difference between the latest frame F6 and the immediately preceding frame F5, but the previous frame (for example, F4) and the latest frame F6. The difference from the frame F6 may be obtained. That is, when the latest frame is the n-th frame, the image states of the subjects in the first to (n-1) th frames have been substantially the same by the previous update. (Reference image data) may be any of the first to (n-1) th frames, and an average or a weighted average of a plurality of frames may be used. .
[0107]
The specific embodiments described above include inventions having the following configurations.
[0108]
(1) An imaging system, further comprising an operation input unit that receives an operation input, wherein the setting unit includes a unit that changes a value of an integer n in response to the operation input.
[0109]
This allows the user to adjust the brightness of the output image data.
[0110]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, the difference image between the image data of the n-th frame and the reference image data representatively representing the first to (n-1) th frames After performing low-pass filtering on the data to generate smoothed difference image data, the data corresponds to the sum of the image data of the first to n-th frames and (n-1) times the smoothed difference image data. Find composite image data. As a result, a smooth moving image can be output while realizing a relatively high S / N ratio and high sensitivity for the entire image.
[0111]
In particular, according to the second aspect of the present invention, since there is further provided a changing means for changing the value of the integer n, it is easy to adjust the luminance of the composite image data.
[0112]
According to the third aspect of the present invention, since the value of the integer n is changed based on the luminance information on the image data of the n-th frame, the luminance of the composite image data can be appropriately adjusted.
[0113]
According to the fourth aspect of the present invention, since the value of the integer n is changed based on the illuminance of the subject, it is possible to appropriately adjust the luminance of the composite image data.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a main configuration of an imaging system 1 according to a first embodiment of the present invention.
FIG. 2 is a block diagram illustrating a functional configuration of an imaging system 1A.
FIG. 3 is a diagram for explaining an image processing method in the imaging system 1A.
FIG. 4 is a flowchart illustrating a basic operation of the imaging system 1A.
FIG. 5 is a diagram for explaining the concept of image processing in the imaging system 1A.
FIG. 6 is a block diagram illustrating a functional configuration of an imaging system 1B according to a second embodiment of the present invention.
FIG. 7 is a schematic diagram showing a configuration of a main part of an imaging system 9 according to the related art.
[Explanation of symbols]
1A, 1B imaging system
2A, 2B surveillance camera
3A, 3B controller
4 Display device
30 overall control unit
34 Selection update section
35 difference section
36 spatial low-pass filter
37 selective adder
38 Total adder
39 output image processing unit
59 frame memory group

Claims (5)

動画出力が可能な撮像システムであって、
被写体に係るフレームの画像データを順次に取得する撮像手段と、
前記撮像手段で順次に取得される一連のフレームのうち、新しい順に所定数のフレームの画像データを格納する格納手段と、
nを2以上の整数とし、前記所定数のフレームのうち最新のフレームを第nフレームとしたとき、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データを生成する差分手段と、
前記差分画像データに対してローパスフィルタ処理を施し、平滑化差分画像データを生成する平滑化手段と、
第1〜第nフレームの画像データと、前記平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める合成手段と、
第2〜第(n−1)フレームの画像データのそれぞれと前記平滑化差分画像データとの和に相当する値、および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データを定義する更新手段、
を備え、
前記合成画像データに基づいて前記動画出力の1フレーム分を得ることを特徴とする撮像システム。
An imaging system capable of outputting moving images,
Imaging means for sequentially acquiring image data of a frame related to a subject,
A storage unit that stores image data of a predetermined number of frames in a new order from a series of frames sequentially acquired by the imaging unit,
When n is an integer of 2 or more and the latest frame among the predetermined number of frames is the n-th frame, the image data of the n-th frame and the first to (n-1) th frames are typically represented. Difference means for generating difference image data from the reference image data;
A low-pass filter process is performed on the difference image data, and a smoothing unit that generates smoothed difference image data,
Synthesizing means for obtaining synthetic image data corresponding to the sum of the image data of the first to n-th frames and (n-1) times the smoothed difference image data;
The first to (n−1) th frames are determined by a value corresponding to the sum of each of the image data of the second to (n−1) th frames and the smoothed difference image data and the value of the image data of the nth frame. Updating means for defining new image data for the frame,
With
An imaging system, wherein one frame of the moving image output is obtained based on the composite image data.
請求項1に記載の撮像システムにおいて、
整数nの値を変更する変更手段、
をさらに備えることを特徴とする撮像システム。
The imaging system according to claim 1,
Changing means for changing the value of the integer n;
An imaging system, further comprising:
請求項2に記載の撮像システムにおいて、
前記変更手段は、
第nフレームの画像データに係る輝度情報に基づき、整数nの値を変更する手段、
を有することを特徴とする撮像システム。
The imaging system according to claim 2,
The changing means,
Means for changing the value of the integer n based on the luminance information relating to the image data of the n-th frame;
An imaging system comprising:
請求項2または請求項3に記載の撮像システムにおいて、
前記被写体に係る照度を検出する検出手段、
をさらに備え、
前記変更手段は、
前記検出手段で検出された前記照度に基づき、整数nの値を変更する手段、
を有することを特徴とする撮像システム。
In the imaging system according to claim 2 or 3,
Detecting means for detecting the illuminance of the subject,
Further comprising
The changing means,
Means for changing a value of an integer n based on the illuminance detected by the detection means;
An imaging system comprising:
被写体に係るフレームの画像データを順次に取得する撮像装置と通信可能に接続されて動画出力が可能な画像処理装置であって、
前記撮像装置で順次に取得される一連のフレームのうち、新しい順に所定数のフレームの画像データを格納する格納手段と、
nを2以上の整数とし、前記所定数のフレームのうち最新のフレームを第nフレームとしたとき、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データを生成する差分手段と、
前記差分画像データに対してローパスフィルタ処理を施し、平滑化差分画像データを生成する平滑化手段と、
第1〜第nフレームの画像データと、前記平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める合成手段と、
第2〜第(n−1)フレームの画像データのそれぞれと前記平滑化差分画像データとの和に相当する値、および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データを定義する更新手段、
を備え、
前記合成画像データに基づいて前記動画出力の1フレーム分を得ることを特徴とする画像処理装置。
An image processing apparatus capable of outputting a moving image, communicably connected to an imaging apparatus that sequentially acquires image data of frames related to a subject,
A storage unit that stores image data of a predetermined number of frames in a new order from a series of frames sequentially acquired by the imaging device,
When n is an integer of 2 or more and the latest frame among the predetermined number of frames is the n-th frame, the image data of the n-th frame and the first to (n-1) th frames are typically represented. Difference means for generating difference image data from the reference image data;
A low-pass filter process is performed on the difference image data, and a smoothing unit that generates smoothed difference image data,
Synthesizing means for obtaining synthetic image data corresponding to the sum of the image data of the first to n-th frames and (n-1) times the smoothed difference image data;
The first to (n−1) th frames are determined by a value corresponding to the sum of each of the image data of the second to (n−1) th frames and the smoothed difference image data and the value of the image data of the nth frame. Updating means for defining new image data for the frame,
With
An image processing apparatus, wherein one frame of the moving image output is obtained based on the composite image data.
JP2002187990A 2002-06-27 2002-06-27 Image pickup system and image processing apparatus Pending JP2004032517A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002187990A JP2004032517A (en) 2002-06-27 2002-06-27 Image pickup system and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002187990A JP2004032517A (en) 2002-06-27 2002-06-27 Image pickup system and image processing apparatus

Publications (1)

Publication Number Publication Date
JP2004032517A true JP2004032517A (en) 2004-01-29

Family

ID=31182866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002187990A Pending JP2004032517A (en) 2002-06-27 2002-06-27 Image pickup system and image processing apparatus

Country Status (1)

Country Link
JP (1) JP2004032517A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006191340A (en) * 2005-01-06 2006-07-20 Fujitsu Ten Ltd Radio communications system
JP2007281548A (en) * 2006-04-03 2007-10-25 Samsung Techwin Co Ltd Imaging apparatus and method
JP2009005095A (en) * 2007-06-21 2009-01-08 Mitsubishi Electric Corp Monitoring camera system
US9635250B2 (en) 2013-05-29 2017-04-25 Panasonic Intellectual Property Management Co., Ltd. Imaging device and imaging method using compressed sensing
JP2019534518A (en) * 2016-11-03 2019-11-28 華為技術有限公司Huawei Technologies Co.,Ltd. Optical imaging method and apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006191340A (en) * 2005-01-06 2006-07-20 Fujitsu Ten Ltd Radio communications system
JP2007281548A (en) * 2006-04-03 2007-10-25 Samsung Techwin Co Ltd Imaging apparatus and method
JP2009005095A (en) * 2007-06-21 2009-01-08 Mitsubishi Electric Corp Monitoring camera system
US9635250B2 (en) 2013-05-29 2017-04-25 Panasonic Intellectual Property Management Co., Ltd. Imaging device and imaging method using compressed sensing
US10110808B2 (en) 2013-05-29 2018-10-23 Panasonic Intellectual Property Management Co., Ltd. Imaging device and imaging method using compressed sensing
US10375299B2 (en) 2013-05-29 2019-08-06 Panasonic Intellectual Property Management Co., Ltd. Imaging device and imaging method using compressed sensing
JP2019534518A (en) * 2016-11-03 2019-11-28 華為技術有限公司Huawei Technologies Co.,Ltd. Optical imaging method and apparatus
US10810720B2 (en) 2016-11-03 2020-10-20 Huawei Technologies Co., Ltd. Optical imaging method and apparatus

Similar Documents

Publication Publication Date Title
CN105323474B (en) Picture pick-up device and its control method
TWI390971B (en) Imaging apparatus, imaging processing method, and imaging control program
JP5523124B2 (en) Imaging device
JP2015115922A (en) Imaging apparatus and imaging method
JP2012235332A (en) Imaging apparatus, imaging apparatus control method and program
WO2005120047A1 (en) Imaging device and signal processing method
JP2007074555A (en) Flicker reduction method, flicker reduction circuit and imaging apparatus
WO2017090300A1 (en) Image processing apparatus and image processing method, and program
US20110249143A1 (en) Image processing apparatus, display apparatus and image capturing apparatus
JP2009212627A (en) Image processing apparatus, flicker reduction method, imaging apparatus, and flicker reduction program
JP6643109B2 (en) Imaging device, control method thereof, and program
JP2011254125A (en) Image processing device, camera system, image processing method, and program
JP5581968B2 (en) Imaging device
JP2018107705A (en) Imaging apparatus, control method and program and recording medium for the imaging apparatus
JP2020109924A (en) Image processing device and image processing method
US8035729B2 (en) Imaging apparatus and program thereof
JP6429915B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
US20130063622A1 (en) Image sensor and method of capturing an image
JP5298396B2 (en) Electronic camera and image processing system
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
JP2004032517A (en) Image pickup system and image processing apparatus
JP5980618B2 (en) Image processing apparatus and image processing method
JP2006287330A (en) Electronic camera and imaging control program
JP6242129B2 (en) Imaging device, control method thereof, and control program
JP2010098553A (en) Gradation correction device, gradation correction method, program, image capturing apparatus and image processing apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613