JP2004032517A - Image pickup system and image processing apparatus - Google Patents
Image pickup system and image processing apparatus Download PDFInfo
- Publication number
- JP2004032517A JP2004032517A JP2002187990A JP2002187990A JP2004032517A JP 2004032517 A JP2004032517 A JP 2004032517A JP 2002187990 A JP2002187990 A JP 2002187990A JP 2002187990 A JP2002187990 A JP 2002187990A JP 2004032517 A JP2004032517 A JP 2004032517A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- frame
- frames
- image
- imaging system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000003384 imaging method Methods 0.000 claims description 67
- 239000002131 composite material Substances 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims 2
- 238000001514 detection method Methods 0.000 claims 1
- 230000015654 memory Effects 0.000 abstract description 89
- 230000035945 sensitivity Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 12
- 238000012544 monitoring process Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 206010047571 Visual impairment Diseases 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、出力画像データに基づき動画出力が可能な撮像技術に関する。
【0002】
【従来の技術】
被写体を撮影する撮像装置(撮像システム)は、その原理により複数のタイプに分類されるが、いずれも使用されている撮像素子の感度は必ずしも高いとは言えない。撮像素子として最も普及しているCCDイメージセンサでは、対象物体面上において100[lx]オーダ、撮像面上においては10−1[lx]オーダの最低照度が必要である。この照度値から、例えば夜間の無照明での撮影が極めて困難であると言える。
【0003】
そこで、撮像装置の感度を高めるために様々な技術が試みられている。この高感度化のための技術は5種類に大別される。それぞれの特徴を以下で説明する。
【0004】
(1)撮像素子から出力される画像信号に対して、後段の信号処理回路における利得(ゲイン)を高める方法で、通常撮影の延長上にある技術である。これにより、微弱な画像信号が増強される。しかし、同時にノイズ成分までも増強されるため、出力画像の品質は劣悪なものとなる欠点がある。
【0005】
(2)撮像素子上で隣接関係にある複数の画素の出力値を加算する技術で、例えば特開平9−182090はこれを応用している。各画素の出力値は微弱であっても、互いに加算することにより増強が可能となる。しかし、複数の画素の出力値を合計するため、解像度が著しく低下する欠点がある。
【0006】
(3)被写体像を光学的に増倍する倍増素子を構成に付加する技術である。この倍増素子としてイメージインテンシファイアと称されるものがある。対物レンズ系によって結像した光学像を一旦光電膜で電子に変換し、生成された電子を電界により加速して蛍光膜に衝突させて、もとの光学像よりも輝度の高い蛍光像を形成する。これにより、比較的高いS/N比でリアルタイムの動画像を撮影できる。しかし、カラー画像の撮影が困難で、またコストが高いという欠点がある。
【0007】
(4)撮像素子での光エネルギーの蓄積時間を延長する方法で、端的に言えばスローシャッタにより露光時間を長くする技術である。例えば特開昭64−78081にはこの技術が開示されている。低照度の微弱な画像でも露光量を増やせば画像信号の強度が増すとともに、蓄積時間を長くすることによりランダムノイズが平準化されその影響が減少するため、画像の品質も保たれる。しかし、シャッター速度が遅いため、動きのある被写体に追従できず、残像が発生するなど動解像度が低下するという欠点がある。
【0008】
(5)順次に撮影される複数の画像データを、メモリ上で繰り返し加算する方法で、例えば特開平5−103266には、この方法を応用した技術が開示されている。この技術は、原理的には上記(4)の方法に類似しており、実質的に露光時間を延ばすことによってランダムノイズの低減を図るものである。
【0009】
図7は、上記(5)の技術に係る撮像システム9の要部構成を示す概略図である。
【0010】
レンズ光学系(図示せず)を介して撮像面に結像される被写体の光学像は、撮像素子91で電気信号に変換されて画像信号として出力される。A/D変換部92は、撮像素子91から出力される画像信号を、デジタル信号に変換して出力する。フレームメモリ群93は、N(N≧2)枚の単位フレームメモリ(1)〜(N)を有しており、A/D変換部92で生成された画像データをそれぞれ格納する。
【0011】
選択更新部94は、A/D変換部92から出力される画像データを、単位フレームメモリ(1)〜(N)の中から更新履歴の最も古い1のフレームメモリを選択して転送し、選択されたフレームメモリの記憶内容を破棄して最新の画像データで更新する。総加算部部95は、単位フレームメモリ(1)〜(N)に格納されている画像データを互いに加算して、出力画像データを生成する。出力画像処理部96は、出力画像データを変換処理し、モニタなどの外部機器に動画出力する。
【0012】
撮像システム9では、総加算部95による出力画像データの生成は、単位フレームメモリ(1)〜(N)が一渡り更新される毎に行われる。よって、出力画像処理部96から出力される画像の時間間隔は、撮像素子91のフレームレートをN倍したものとなる。
【0013】
以上の撮像システム9の動作により、高S/N比が達成でき、カラー撮影が可能となる。また、原理の類似した上記(4)の方法と異なって撮像素子の駆動に特別な構成を要しないという点で、優れた技術であると考えられる。
【0014】
【発明が解決しようとする課題】
しかしながら、上記(5)の方法では、実質的な露光時間の延長と等しいため、上述したように出力画像処理部96から動画像として出力される画像データのフレームレートが撮像素子の1/N倍と低下する。したがって、動きのある被写体を撮影する場合には、その動きに追従できず動解像度が低下するため、被写体の視認が困難な低品質の動画像となってしまう。
【0015】
この問題を解消する技術として、例えば特開2001−230965には、画像から動きのある部分と背景部分とを分離し、前者にはその大きさに応じて利得をかけ、後者にはデータ加算処理を施す方法が開示されている。しかし、この方法では、最終的に出力される画像で残像は低減できるが、動作の連続性が低下する。つまりフレームレートが減少して、いわゆるコマ飛びのように滑らかな動画像の出力が困難となる。
【0016】
本発明は、上記課題に鑑みてなされたものであり、画像全体として比較的高いS/N比と高感度とを実現しつつ、滑らかな動画出力が可能な撮像技術を提供することを目的とする。
【0017】
【課題を解決するための手段】
上記の課題を解決するため、請求項1の発明は、動画出力が可能な撮像システムであって、被写体に係るフレームの画像データを順次に取得する撮像手段と、前記撮像手段で順次に取得される一連のフレームのうち、新しい順に所定数のフレームの画像データを格納する格納手段と、nを2以上の整数とし、前記所定数のフレームのうち最新のフレームを第nフレームとしたとき、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データを生成する差分手段と、前記差分画像データに対してローパスフィルタ処理を施し、平滑化差分画像データを生成する平滑化手段と、第1〜第nフレームの画像データと、前記平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める合成手段と、第2〜第(n−1)フレームの画像データのそれぞれと前記平滑化差分画像データとの和に相当する値、および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データを定義する更新手段を備え、前記合成画像データに基づいて前記動画出力の1フレーム分を得る。
【0018】
また、請求項2の発明は、請求項1の発明に係る撮像システムにおいて、整数nの値を変更する変更手段をさらに備える。
【0019】
また、請求項3の発明は、請求項2の発明に係る撮像システムにおいて、前記変更手段は、第nフレームの画像データに係る輝度情報に基づき、整数nの値を変更する手段を有する。
【0020】
また、請求項4の発明は、請求項2または請求項3の発明に係る撮像システムにおいて、前記被写体に係る照度を検出する検出手段、をさらに備え、前記変更手段は、前記検出手段で検出された前記照度に基づき、整数nの値を変更する手段を有する。
【0021】
また、請求項5の発明は、被写体に係るフレームの画像データを順次に取得する撮像装置と通信可能に接続されて動画出力が可能な画像処理装置であって、前記撮像装置で順次に取得される一連のフレームのうち、新しい順に所定数のフレームの画像データを格納する格納手段と、nを2以上の整数とし、前記所定数のフレームのうち最新のフレームを第nフレームとしたとき、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データを生成する差分手段と、前記差分画像データに対してローパスフィルタ処理を施し、平滑化差分画像データを生成する平滑化手段と、第1〜第nフレームの画像データと、前記平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める合成手段と、第2〜第(n−1)フレームの画像データのそれぞれと前記平滑化差分画像データとの和に相当する値および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データを定義する更新手段を備え、前記合成画像データに基づいて前記動画出力の1フレーム分を得る。
【0022】
【発明の実施の形態】
<第1実施形態>
<撮像システムの要部構成>
図1は、本発明の第1実施形態に係る撮像システム1Aの要部構成を示す概略図である。
【0023】
撮像システム1Aは、監視カメラ2Aと、ケーブルCB1を介して監視カメラ2Aを制御するコントローラ3Aとを有している。このコントローラ3Aは、ケーブルCB2を介して表示装置4と通信可能に接続している。表示装置4は、コントローラ3Aから出力される動画像の表示が可能である。
【0024】
監視カメラ2Aは、撮影レンズ21を有しており、撮影装置として機能する。
【0025】
コントローラ3Aは、画像処理装置として機能し、その前面には、電源スイッチ31と、液晶モニタ32と、操作ボタン33(33a、33b)とが設けられている。
【0026】
操作ボタン33は、ユーザの操作入力を受付ける部位で、この操作ボタン33が操作されることで撮像システム1Aの設定状態を変更することができる。また、液晶モニタ32では、この設定状態が表示可能な構成となっている。
【0027】
図2は、撮像システム1Aの機能的構成を示すブロック図である。
【0028】
監視カメラ2Aは、撮像レンズ21の奥に設けられる撮像素子22と、撮像素子22に電気的に接続するA/D変換部23とを有している。
【0029】
撮像素子22は、例えばCCDとして構成され、撮影レンズ21によって結像する被写体の光学像を電気信号に変換し、フレームの画像信号を出力する。この画像信号の出力は、所定のフレームレート、例えば1/30秒の周期で継続的に行われる。
【0030】
A/D変換部23は、撮像素子22からのアナログ信号をデジタル信号に変換する部位である。
【0031】
コントローラ3Aは、監視カメラ2Aで生成される画像データを1フレーム分記憶する単位フレームメモリとして構成される、最新フレームメモリ50、直前フレームメモリ51、差分メモリ52および平滑化差分メモリ53を備えている。また、コントローラ3Aは、5つの単位フレームメモリ54〜58で構成されるフレームメモリ群59を有しており、このフレームメモリ群59では、後述するように最新フレームの画像データとともに、最新フレームの取得時点から1/30秒前(前回)、2/30秒前(2回前)、3/30秒前(3回前)および4/30秒前(4回前)の4つの画像データが格納される。
【0032】
監視カメラ2Aから送信された最新フレームの画像データは、最新フレームメモリ50に格納される。この最新フレームメモリ50内の画像データは、新たに監視カメラ2で画像データが取得されコントローラ3に送信される場合には、直前フレームメモリ51に転送されて格納される。すなわち、最新フレームメモリ50に格納される画像データと、直前フレームメモリ51に格納される画像データとは、画像取得時について1/30秒のずれが生じている。
【0033】
また、コントローラ3Aは、選択更新部34と、差分部35と、空間ローパスフィルタ部36と、選択加算部37と、総加算部38と、出力画像処理部39と、これらの各部を統括制御する全体制御部30とを有している。
【0034】
選択更新部34は、最新フレームメモリ50に格納される最新フレームの画像データをフレームメモリ群59に転送し、フレームメモリ群59内の1つの単位フレームメモリの記憶内容を更新する。ここでは、フレームメモリ群59のうち更新履歴の最も古い画像データ、具体的には、最新フレームの取得時点から5/30秒前の画像データを破棄して更新する。これにより、撮像素子22で取得された最新(今回)のフレームの画像データと、前回から順に4回前までに撮像素子22で取得された4回分のフレームの画像データとを格納できることとなる。
【0035】
差分部35は、直前フレームメモリ51に格納される直前フレームの画像データに対する、最新フレームメモリ50に格納される最新フレームの画像データの差分画像データを演算する。そして、差分部35で生成された差分画像データは、差分フレームメモリ52に格納される。
【0036】
空間ローパスフィルタ部36は、差分フレームメモリ52に格納される差分画像データに、例えばガウシアンフィルタを利用して空間ローパスフィルタ処理を施す。この空間ローパスフィルタ処理とは、画像上に存在する二次元パターンのうち比較的高周波の成分を低減させる処理である。これにより、差分画像データに含まれる空間的高周波の成分(ノイズ成分)を低減して平滑化し、平滑化差分画像データを生成できる。そして、空間ローパスフィルタ部36で生成された平滑化差分画像データは、平滑化差分フレームメモリ53に格納される。
【0037】
選択加算部37は、フレームメモリ群59の5つの単位フレームメモリ54〜58のうち、選択更新部34により最新フレームの画像データで更新された単位フレームメモリを除く4つの単位フレームメモリを順に選択し、選択された単位フレームメモリに格納される画像データに平滑化差分画像データを加算する。
【0038】
総加算部38は、フレームメモリ群59の5つの単位フレームメモリ54〜58に格納されている5つの画像データを互いに対応画素ごとに加算し、出力画像データを生成する。この出力画像データの生成は、監視カメラ2のフレームレートと同一のフレームレート、すなわち1/30秒ごとに行われる。
【0039】
出力画像処理部39は、総加算部38で加算された出力画像データを、適切なデータ形態あるいは信号形式に変換処理して、モニタ4などの外部機器に動画出力を行う。この適切なデータ形態および信号形式とは、デジタル出力が要求される場合には例えばMPEG形式が挙げられ、アナログ信号出力が要求される場合には例えばY/C形式が挙げられる。
【0040】
全体制御部30は、CPUおよびメモリを有しており、上記の各部と有機的に結合して統括制御を行う。特に、監視カメラ2の監視領域が暗い場合に、以下で説明する画像処理を行う。
【0041】
<画像処理について>
撮像システム1Aにおける低照度環境下での画像処理を、図3を参照しつつ説明する。図3は、ドアDRを含む監視領域に人物HMが出現した場合の画像処理を具体的に説明するためのイメージ図となっている。
【0042】
人物HMが出現する前には、フレームメモリ群59には更新履歴の順に5つのフレームF1〜F5が格納されている。そして、人物HMが出現した最新(今回)のフレームの画像データが監視カメラ2から送信されると、最新フレームの画像データが最新フレームメモリ50に格納されるとともに、選択更新部34によって更新履歴の最も古いフレームF1の代わりに最新フレームF6がフレームメモリ群59に格納される。
【0043】
ここで、直前フレームメモリ51に格納されている直前(前回)のフレームF5と最新フレームF6との差分演算が差分部35で行われた後、空間ローパスフィルタ部36で高周波ノイズ成分が低減されて平滑化差分画像FDが生成される。
【0044】
そして、平滑化差分画像FDは、選択加算部37によりフレームメモリ群59に格納されるフレームF2〜F5にそれぞれ加算され、加算画像F2a〜F5aがフレームメモリ群59に格納される。
【0045】
最後に、総加算部38により、フレームメモリ群59に格納される4つの加算画像F2a〜F5aと最新フレームF6とが総加算されて出力画像FSが生成される。
【0046】
以上のように、前回以前に取得された4回分のフレームF2〜F5を互いに加算した画像と、平滑化差分画像FDを4回分加算した画像と、最新フレームF6とが総加算され出力画像FSが生成されることによって、n=5としたときに、n回分のフレームF2〜F6と、平滑化差分画像FSの(n−1)倍分との総和に対応する合成画像データ(出力画像FS)が得られることになる。したがって、低照度環境下でも輝度が高い、すなわち感度が高い画像を取得できるとともに、画像データの総加算によって高周波のランダムノイズが平均化されることでS/N比が改善され、画像全体として高いS/N比を達成できる。なお、人物HMが出現する直前の出力画像FBも、フレームF1〜F5が総加算されたものであるため、出力画像FSと同様である。
【0047】
また、平滑化差分画像FDをフレームF2〜F5に加算するため、人物HMの出現という画像変化が生じても、これを的確に反映した動画像の出力が可能となる。
【0048】
上記の画像処理では、被写体成分は画像からノイズ成分を除くものであるので、最新フレームF6が取得された時点で、フレームメモリ群59内の各フレームF2〜F5における被写体成分が実質的に同一となっているのが前提条件となるが、平滑化差分画像データが過去の各フレームに常に加算されるため、フレームF2a〜F5a、F6のような関係を持つ被写体成分の等しい画像が時々刻々と生成されるので上記条件は満たされることとなる。すなわち、第2〜第(n−1)フレームの画像データのそれぞれと平滑化差分画像FSとの和に相当する値、および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データが定義されることによって、動画出力の各フレームの生成プロセスを繰り返すことができる。
【0049】
なお、監視カメラ2での撮影開始直後には、フレームメモリ群59にフレームの画像データが存在せず空の画像データが格納されているが、ここで最新フレームの画像データが取得されると、空の画像データとの差分画像データが空の画像データに加算される、すなわち最新フレームの画像データが各フレームメモリに複写されるため、出力画像は輝度が改善されたものとなる。この場合には、最新フレームのノイズ成分まで同一の複写であるために、画像全体のS/N比の向上は見込めない。しかし、順次に取得されるフレームの画像データが蓄積されることにより、徐々にS/N比が改善できることとなる。そして、フレームメモリ群59で5つのフレームの画像データが蓄積された後には、一定の高S/N比が実現できる。
【0050】
<撮像システム1Aの動作>
図4は、撮像システム1Aの基本的な動作を説明するフローチャートである。本動作は、全体制御部30により実行される。ただし、撮影の初期状態では各フレームの画像データは入っていないが、撮影の最初に取得された1フレームの画像データを各フレームメモリに複写しておくことにより、下記の処理を開始可能である。もっとも、以下のルーチンは、既にある程度以上のフレーム数の画像データが取得されて各フレームメモリに格納され、上記の初期状態のダミー的状況が解消した後の期間に主として効果を発揮する。
【0051】
ステップS1では、変数iに1を代入する。
【0052】
ステップS2では、撮像素子22でフレーム(i)を取得する。このフレーム(i)とは、撮影開始から第i回目に取得されるフレームを示している。
【0053】
ステップS3では、ステップS2で取得されたフレーム(i)をA/D変換部23でデジタル信号に変換する。
【0054】
ステップS4では、選択更新部34により、フレームメモリ群59に格納される更新履歴の最も古いフレームを選択し、最新のフレーム(i)で更新する。
【0055】
ステップS5では、差分部35により、直前のフレーム(i−1)に対する最新のフレーム(i)の差分演算を行う。
【0056】
ステップS6では、空間ローパスフィルタ部36により、ステップS5で演算された差分画像データに対して空間ローパスフィルタ処理を施す。これにより、図3に示す画像FDのように、平滑化差分画像データが生成できる。
【0057】
ステップS7では、選択加算部37により、ステップS6で生成された平滑化差分画像データを、最新のフレーム(i)を除くフレームメモリ群59内の各フレームに加算する。これにより、図3に示す画像F2a〜F5aのような加算画像データが生成できる。
【0058】
ステップS8では、総加算部38により、フレームメモリ群59内の全フレーム、すなわち図3に示す加算画像F2a〜F5aおよび最新画像F6を加算する。これにより、図3に示す出力画像FSのような出力画像データが生成できる。
【0059】
ステップS9では、出力画像処理部39により、ステップS8で生成された画像を変換処理して、表示装置4などの外部機器に出力する。これにより、表示装置4では、低照度環境下の撮影画像であっても比較的鮮明に表示できることとなる。
【0060】
ステップS10では、直前フレームメモリ51に格納されているフレーム(i−1)を最新のフレーム(i)で更新する。
【0061】
ステップS11では、変数iにi+1を代入する。
【0062】
以上で説明した撮像システム1Aの動作を、以下でモデル式を用い補足的に説明する。図5は、撮像システム1Aにおける画像処理の概念を説明するための図である。なお、図5に表す各矩形内の曲線Gは、画像信号を示している。また、画像処理の概念を一般化するため、フレームメモリ群59内の単位フレームメモリの数をnとし、またフレーム(i)が取得された時点で、単位フレームメモリ(1)〜(n)のうち更新履歴が最も古い画像データを格納しているものが単位フレームメモリ(n)であると仮定する。
【0063】
上記のステップS2およびS3で生成される最新のフレーム(i)の画像データDiは、図5の画像信号Gtoに示すような純粋な被写体像成分Oiと、ノイズ成分Riとの合成信号Gtと考えられるため、次の式(1)のように表される。
【0064】
【数1】
【0065】
ステップS4でのフレームの更新により、単位フレームメモリ(n)に格納されるデータDi nは、次の式(2)で表される。
【0066】
【数2】
【0067】
また、単位フレームメモリ(n−1)に格納されているデータDi−1 n−1は、次の式(3)で表される。
【0068】
【数3】
【0069】
従って、ステップS5での差分演算により生成される差分画像データΔDiは、次の式(4)のように示される。
【0070】
【数4】
【0071】
ここで、差分画像データΔDiは、画面内で被写体が変化することによって発生する差分ΔOiと、ノイズ成分の時間変化によって発生する差分ΔRiとの合成信号Gdとなるため、次の式(5)で表される。
【0072】
【数5】
【0073】
画像データに含まれるノイズ成分は、その大部分が空間的および時間的に高周波でばらつくという特性がある。一方、純粋な被写体像の動きは、空間的および時間的に低周波であることが一般的である。
【0074】
よって、ステップS6における空間ローパスフィルタ処理により、ΔOiは殆ど影響を受けないが、一方ΔRiは低減されることとなる。すなわち、平滑化差分画像データΔDi’は、次の式(6)に示すように被写体像成分の差分ΔOiと近似できる。
【0075】
【数6】
【0076】
ステップS7では、画像信号Gfに示すような平滑化差分画像データΔDi’が、単位フレームメモリ(n)以外の各単位フレームメモリ(1)〜(n−1)に加算される。ここで、単位フレームメモリ(n−1)に着目すると、このメモリ(n−1)に格納されているデータDi n−1は、次の式(7)で表されることとなる。
【0077】
【数7】
【0078】
式(7)に式(3)を代入すると、次の式(8)が導かれる。
【0079】
【数8】
【0080】
ここで、Oi−1とΔOiとの加算は、フレーム(i−1)における純粋な被写体像成分と、フレーム(i−1)からフレーム(i)への純粋な被写体像成分の差分との加算を意味する。すなわち、Oi−1とΔOiとの加算は、フレーム(i)における純粋な被写体像の成分Oiを表すこととなる。よって、式(8)から次の式(9)が導かれ、この画像データDiが単位フレームメモリ(n−1)に格納される。
【0081】
【数9】
【0082】
上述した単位フレームメモリ(n−1)内の画像データと同様に、単位フレームメモリ(1)〜(n−2)内の画像データに対して平滑化差分画像データを加算すると、各単位フレームメモリ(1)〜(n)に格納される画像データDi 1〜Di nは、次の式(10)で表される。
【0083】
【数10】
【0084】
そして、ステップS8で単位フレームメモリ(1)〜(n)の各画像データDi 1〜Di nが総加算され、次の式(11)で表される出力画像データPi(画像信号Gk参照)が生成できる。
【0085】
【数11】
【0086】
ここで、式(11)の右辺第2項は、過去の各時点のフレームにおけるノイズ成分を加算したものである。上述したようにノイズ成分は空間的および時間的に高周波で分散するため、式(11)の右辺第2項のように時系列で連続する複数のフレームにわたり加算すると、加算されるフレームの数すなわちnの値が大きければ画像全体で均一な値に近づくこととなる。よって、式(11)は、定数cを使って次の式(12)のような近似が可能となる。
【0087】
【数12】
【0088】
ここで、式(12)の右辺第1項は、現時点の最新フレーム(i)における純粋な被写体像を倍率nで増倍したものである。また、式(12)の右辺第2項cは定数であるため、その除去が容易である。
【0089】
以上説明したように撮像システム1Aでは、純粋な被写体像Oiにノイズ成分Riが重畳した最新の画像データGtに基づき、画像信号Gkのように、最新の画像データGtと位相が等しく倍増された純粋な被写体像Oiに、低減されたノイズが重畳した画像データPiを、監視カメラ2と同一フレームレートで生成できることとなる。この生成される出力画像データは、複数のフレームにわたる単なる加算で生成される画像データGstのように最新の画像データGtと位相が異なる(画像変化が反映されない)ものでなく、また最新の画像データGtを単純に倍増して生成される画像データGtkのようにノイズ成分が大きくならない。すなわち、従来技術の欠点が改善されたものとなっている。
【0090】
以上の撮像システム1Aの動作により、最新のフレームと直前のフレームに基づき生成される平滑化差分画像データをフレームメモリに記憶される過去のフレームに加算した後に、これらと最新のフレームとの加算を行って出力画像データを生成するため、画像全体として比較的高いS/N比と高感度とを実現しつつ、滑らかな動画出力が可能となる。
【0091】
<第2実施形態>
図6は、本発明の第2実施形態に係る撮像システム1Bの機能的構成を示すブロック図である。
【0092】
撮像システム1Bのコントローラ3Bは、図2に示す第1実施形態のコントローラ3Aに対して、選択フレーム数制限部61と操作入力部62とが付加されている。この操作入力部62は、図1に示す操作ボタン33を有している。
【0093】
選択フレーム数制限部61は、フレームメモリ群59の5枚の単位フレームメモリ54〜58のうち、選択更新部34および選択加算部37で処理対象となる単位フレームメモリの数を制限する部位である。この選択フレーム数制限部61により、加算されるフレーム数nを変更できるため、出力画像データの輝度調整を行えることとなる。
【0094】
低照度環境といっても、実際の照度値は様々である。したがって、高感度化を目的として常にフレームメモリ群59の全フレームメモリを総加算するのでは、照度値が比較的高い場合に出力画像が露出オーバによる白飛び状態となる可能性がある。そこで、選択フレーム数制限部61は、単位フレームメモリ54〜58のうち処理対象の単位フレームメモリをNo枚、例えば3枚に制限する。具体的には、選択フレーム数制限部61は、A/D変換部23から受信する最新のフレームの画像データから導出される輝度情報に基づき、処理対象の単位フレームメモリを制限できる構成、より具体的には被写体の輝度が高いほど加算するフレームの数を減少させるという関係での制御構成となっている。
【0095】
また、選択フレーム数制限部61は、操作入力部62に対してユーザが操作入力を行うことにより、選択対象の単位フレームメモリ数を制限できる。
【0096】
撮像システム1Bの監視カメラ2Bは、図2に示す第1実施形態の監視カメラ2Aに対して、測光センサ24が付加されている。
【0097】
測光センサ24は、被写体の照度を測定する部位である。この測光センサ24で検出された被写体の照度に基づき、選択フレーム数制限部61では処理対象の単位フレームメモリ数を制限できる。
【0098】
撮像システム1Bの動作は、図4のフローチャートに示す動作に類似しているが、選択フレーム数制限部61によるフレーム数の制限動作が付加されている。
【0099】
すなわち、例えば操作入力部62に対するユーザの操作入力で設定された処理対象の単位フレームメモリに対して、平滑化差分データの加算処理が行われるとともに、これらのフレームの総加算が行われる。
【0100】
なお、操作入力部62から入力される設定値に基づき処理対象のフレームメモリを制限するのは必須でなく、上述した測光センサ24や、A/D変換部23から出力された最新のフレームの画像データに基づき制限しても良い。
【0101】
以上の撮像システム1Bにより、第1実施形態と同様の効果を奏することとなる。さらに、撮像システム1Bでは、処理対象のフレーム数を制限できるため、出力画像データの輝度調整を適切に行える。
【0102】
<変形例>
◎上記の各実施形態については、監視カメラとコントローラとが分離するのは必須でなく、監視カメラにコントローラの機能を搭載しても良い。この場合には、監視カメラの出力画像が、画像全体として比較的高いS/N比と高感度とを実現した画像となる。
【0103】
◎上記の各実施形態における撮像素子は、CCDであるのは必須でなく、CMOSイメージセンサでも良い。また、所定のフレームレートは、1/30秒に限らず1/60秒など一定の時間間隔であれば良い。
【0104】
◎上記の各実施形態におけるフレームメモリ群は、5個の単位フレームメモリから構成されているのは必須でなく、2個でも3個でも6個以上でも良い。また、第2実施形態に係る処理対象となるフレームの数nについても、2以上の任意の整数で良いが、好ましくは3以上、さらに好ましくは5以上である。
【0105】
◎上記の各実施形態においては、図3に示すように、以前に取得した各フレームF2〜F5に平滑化差分画像FDを加算した後に、これらの加算画像F2a〜F5aと最新のフレームF6とを加算して出力画像FSを生成するのは必須でなく、以前の各フレームF2〜F5を互いに加算した画像と、平滑化差分画像FDを4回加算した画像つまり4倍に増幅した画像と、最新のフレームF6とを加算して出力画像FSを生成しても良い。この場合にも、上記の各実施形態と同様の効果を発揮できる。
【0106】
◎上記の各実施形態において、平滑化差分画像FS(図3参照)を得るにあたっては、最新のフレームF6とその直前のフレームF5との差ではなく、それ以前のフレーム(たとえばF4)と最新のフレームF6との差を求めても良い。すなわち、最新のフレームを第nフレームとしたとき、第1〜第(n−1)フレームの被写体の画像状況は前回の更新によって実質的に同じになっているから、第nフレームの画像データとの差分を求める対象(基準画像データ)としては第1〜第(n−1)フレームのいずれでもよく、また、これらのうちの複数のフレームの平均や加重平均を使用してもよいことになる。
【0107】
◎上述した具体的実施形態には、以下の構成を有する発明が含まれている。
【0108】
(1)操作入力を受付ける操作入力部をさらに備え、設定手段は前記操作入力に応答して整数nの値を変更する手段を有することを特徴とする撮像システム。
【0109】
これにより、出力画像データの輝度調整をユーザが行える。
【0110】
【発明の効果】
以上説明したように、請求項1ないし請求項5の発明によれば、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データに対してローパスフィルタ処理を施して平滑化差分画像データを生成した後、第1〜第nフレームの画像データと、平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める。その結果、画像全体として比較的高いS/N比と高感度とを実現しつつ、滑らかな動画出力が可能となる。
【0111】
特に、請求項2の発明においては、整数nの値を変更する変更手段をさらに備えるため、合成画像データの輝度調整が容易となる。
【0112】
また、請求項3の発明においては、第nフレームの画像データに係る輝度情報に基づき、整数nの値を変更するため、合成画像データの輝度調整を適切に行える。
【0113】
また、請求項4の発明においては、被写体に係る照度に基づき、整数nの値を変更するため、合成画像データの輝度調整を適切に行える。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る撮像システム1の要部構成を示す概略図である。
【図2】撮像システム1Aの機能的構成を示すブロック図である。
【図3】撮像システム1Aにおける画像処理方法を説明するための図である。
【図4】撮像システム1Aの基本的な動作を説明するフローチャートである。
【図5】撮像システム1Aにおける画像処理の概念を説明するための図である。
【図6】本発明の第2実施形態に係る撮像システム1Bの機能的構成を示すブロック図である。
【図7】従来技術に係る撮像システム9の要部構成を示す概略図である。
【符号の説明】
1A、1B 撮像システム
2A、2B 監視カメラ
3A、3B コントローラ
4 表示装置
30 全体制御部
34 選択更新部
35 差分部
36 空間ローパスフィルタ部
37 選択加算部
38 総加算部
39 出力画像処理部
59 フレームメモリ群[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging technique capable of outputting a moving image based on output image data.
[0002]
[Prior art]
An imaging device (imaging system) for photographing a subject is classified into a plurality of types according to its principle, but the sensitivity of the imaging device used in each case is not necessarily high. In a CCD image sensor which is most widely used as an image sensor, 100[Lx] order, 10 on the imaging surface-1A minimum illuminance of the order [lx] is required. From this illuminance value, it can be said that, for example, it is extremely difficult to shoot at night without illumination.
[0003]
Therefore, various techniques have been tried to increase the sensitivity of the imaging device. Techniques for increasing the sensitivity are roughly classified into five types. Each feature is described below.
[0004]
(1) A technique for increasing the gain of an image signal output from an image sensor in a signal processing circuit at a subsequent stage, which is an extension of normal imaging. Thereby, a weak image signal is enhanced. However, since the noise component is also enhanced at the same time, there is a disadvantage that the quality of the output image becomes poor.
[0005]
(2) A technique of adding output values of a plurality of pixels having an adjacent relationship on an image sensor. For example, Japanese Patent Application Laid-Open No. 9-182090 uses this technique. Even if the output value of each pixel is weak, it can be enhanced by adding each other. However, since the output values of a plurality of pixels are summed, there is a disadvantage that the resolution is significantly reduced.
[0006]
(3) This is a technique in which a doubling element for optically multiplying a subject image is added to the configuration. As this doubling element, there is an element called an image intensifier. The optical image formed by the objective lens system is once converted into electrons by the photoelectric film, and the generated electrons are accelerated by the electric field and collide with the fluorescent film to form a fluorescent image with higher brightness than the original optical image I do. Thus, a real-time moving image can be captured with a relatively high S / N ratio. However, there are drawbacks in that it is difficult to take a color image and the cost is high.
[0007]
(4) A method of extending the accumulation time of light energy in the image sensor, which is a technique of extending the exposure time by a slow shutter, in short. For example, Japanese Patent Application Laid-Open No. 64-78081 discloses this technique. Increasing the amount of exposure increases the intensity of the image signal even for a weak image with low illuminance, and also increases the accumulation time to level out random noise and reduce its effect, thereby maintaining image quality. However, since the shutter speed is slow, it is not possible to follow a moving subject, and there is a drawback that the dynamic resolution is reduced such as an afterimage.
[0008]
(5) A method of repeatedly adding a plurality of image data shot sequentially on a memory, for example, Japanese Patent Application Laid-Open No. 5-103266 discloses a technique to which this method is applied. This technique is similar in principle to the method (4) described above, and aims to reduce random noise by substantially extending the exposure time.
[0009]
FIG. 7 is a schematic diagram illustrating a main configuration of the
[0010]
An optical image of a subject formed on an imaging surface via a lens optical system (not shown) is converted into an electric signal by the
[0011]
The
[0012]
In the
[0013]
By the operation of the
[0014]
[Problems to be solved by the invention]
However, in the method (5), since the exposure time is substantially equal to the extension of the exposure time, the frame rate of the image data output as a moving image from the output
[0015]
As a technique for solving this problem, for example, Japanese Patent Application Laid-Open No. 2001-230965 discloses that a moving part and a background part are separated from an image, a gain is applied to the former according to its size, and a data addition processing is performed to the latter. Is disclosed. However, in this method, afterimages can be reduced in the finally output image, but the continuity of operation decreases. That is, the frame rate decreases, and it becomes difficult to output a smooth moving image like a so-called frame skip.
[0016]
The present invention has been made in view of the above problems, and has as its object to provide an imaging technique capable of outputting a smooth moving image while realizing a relatively high S / N ratio and high sensitivity as a whole image. I do.
[0017]
[Means for Solving the Problems]
In order to solve the above problem, the invention according to
[0018]
According to a second aspect of the present invention, in the imaging system according to the first aspect of the present invention, the imaging system further includes a change unit for changing a value of the integer n.
[0019]
According to a third aspect of the present invention, in the imaging system according to the second aspect of the present invention, the change unit has a unit for changing a value of the integer n based on luminance information on the image data of the n-th frame.
[0020]
According to a fourth aspect of the present invention, in the imaging system according to the second or third aspect of the present invention, the imaging system further includes a detecting unit configured to detect the illuminance of the subject, and the changing unit detects the illuminance. Means for changing the value of the integer n based on the illuminance.
[0021]
According to a fifth aspect of the present invention, there is provided an image processing apparatus which is communicably connected to an imaging apparatus for sequentially acquiring image data of a frame related to a subject and can output a moving image, and which is sequentially acquired by the imaging apparatus. Means for storing image data of a predetermined number of frames in a new order from a series of frames, and n is an integer of 2 or more, and the latest frame among the predetermined number of frames is an n-th frame. a difference means for generating difference image data between the image data of n frames and reference image data representatively representing the first to (n-1) th frames, and performing a low-pass filter process on the difference image data A smoothing means for generating smoothed difference image data; a synthesized image data corresponding to the sum of the image data of the first to n-th frames and (n-1) times the smoothed difference image data. And a value corresponding to the sum of each of the image data of the second to (n-1) th frames and the smoothed difference image data and the value of the image data of the nth frame. Updating means for defining new image data for the (n-1) th frame is provided, and one frame of the moving image output is obtained based on the composite image data.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
<Main components of the imaging system>
FIG. 1 is a schematic diagram illustrating a main configuration of an
[0023]
The
[0024]
[0025]
The
[0026]
The
[0027]
FIG. 2 is a block diagram illustrating a functional configuration of the
[0028]
The
[0029]
The
[0030]
The A /
[0031]
The
[0032]
The image data of the latest frame transmitted from the
[0033]
The
[0034]
The
[0035]
The
[0036]
The spatial low-
[0037]
The
[0038]
The
[0039]
The output
[0040]
The
[0041]
<About image processing>
Image processing in a low illuminance environment in the
[0042]
Before the appearance of the person HM, five frames F1 to F5 are stored in the
[0043]
Here, after the difference operation between the immediately preceding (previous) frame F5 stored in the immediately preceding
[0044]
Then, the smoothed difference image FD is added to the frames F2 to F5 stored in the
[0045]
Finally, the
[0046]
As described above, the image obtained by adding the four frames F2 to F5 obtained before the previous time to each other, the image obtained by adding the smoothed difference image FD four times, and the latest frame F6 are added, and the output image FS is obtained. By generating, when n = 5, composite image data (output image FS) corresponding to the sum of n times of frames F2 to F6 and (n-1) times the smoothed difference image FS Is obtained. Therefore, an image having high luminance, that is, an image with high sensitivity can be acquired even in a low-illuminance environment, and the S / N ratio is improved by averaging high-frequency random noise by total addition of image data, so that the entire image is high. An S / N ratio can be achieved. Note that the output image FB immediately before the appearance of the person HM is also the same as the output image FS because the frames F1 to F5 are added together.
[0047]
In addition, since the smoothed difference image FD is added to the frames F2 to F5, even if an image change such as the appearance of the person HM occurs, it is possible to output a moving image that accurately reflects the change.
[0048]
In the above-described image processing, since the subject component removes the noise component from the image, the subject component in each of the frames F2 to F5 in the
[0049]
Immediately after the start of shooting with the
[0050]
<Operation of
FIG. 4 is a flowchart illustrating a basic operation of the
[0051]
In step S1, 1 is substituted for a variable i.
[0052]
In step S2, the frame (i) is acquired by the
[0053]
In step S3, the A /
[0054]
In step S4, the
[0055]
In step S5, the
[0056]
In step S6, the spatial low-
[0057]
In step S7, the
[0058]
In step S8, the
[0059]
In step S9, the output
[0060]
In step S10, the frame (i-1) stored in the immediately preceding
[0061]
In step S11, i + 1 is substituted for a variable i.
[0062]
The operation of the
[0063]
The image data D of the latest frame (i) generated in steps S2 and S3iIs a pure subject image component O as shown in the image signal Gto of FIG.iAnd the noise component RiTherefore, it is expressed as in the following equation (1).
[0064]
(Equation 1)
[0065]
By updating the frame in step S4, the data D stored in the unit frame memory (n)i nIs represented by the following equation (2).
[0066]
(Equation 2)
[0067]
The data D stored in the unit frame memory (n-1)i-1 n-1Is represented by the following equation (3).
[0068]
(Equation 3)
[0069]
Therefore, the difference image data ΔD generated by the difference calculation in step S5iIs expressed as in the following equation (4).
[0070]
(Equation 4)
[0071]
Here, the difference image data ΔDiIs the difference ΔO caused by the change of the subject in the screen.iAnd the difference ΔR generated by the time change of the noise componentiTherefore, the composite signal Gd is expressed by the following equation (5).
[0072]
(Equation 5)
[0073]
Most of the noise components included in the image data have a characteristic that they vary spatially and temporally at high frequencies. On the other hand, the movement of a pure subject image generally has a low frequency spatially and temporally.
[0074]
Therefore, by the spatial low-pass filter processing in step S6, ΔOiIs hardly affected, while ΔRiWill be reduced. That is, the smoothed difference image data ΔDi′ Is the difference ΔO between the subject image components as shown in the following equation (6).iCan be approximated.
[0075]
(Equation 6)
[0076]
In step S7, the smoothed difference image data ΔD as shown in the image signal Gfi'Is added to the unit frame memories (1) to (n-1) other than the unit frame memory (n). Here, paying attention to the unit frame memory (n-1), the data D stored in this memory (n-1)i n-1Is expressed by the following equation (7).
[0077]
(Equation 7)
[0078]
Substituting equation (3) into equation (7) leads to the following equation (8).
[0079]
(Equation 8)
[0080]
Where Oi-1And ΔOiMeans the addition of the pure subject image component in the frame (i-1) and the difference of the pure subject image component from the frame (i-1) to the frame (i). That is, Oi-1And ΔOiIs added to the component O of the pure subject image in the frame (i).iWill be expressed. Therefore, the following equation (9) is derived from equation (8), and this image data DiAre stored in the unit frame memory (n-1).
[0081]
(Equation 9)
[0082]
Similarly to the image data in the unit frame memory (n-1) described above, when the smoothed difference image data is added to the image data in the unit frame memories (1) to (n-2), each unit frame memory Image data D stored in (1) to (n)i 1~ Di nIs represented by the following equation (10).
[0083]
(Equation 10)
[0084]
Then, in step S8, each image data D in the unit frame memories (1) to (n) isi 1~ Di nAre added, and the output image data P expressed by the following equation (11) is obtained.i(See image signal Gk) can be generated.
[0085]
[Equation 11]
[0086]
Here, the second term on the right side of Expression (11) is obtained by adding the noise components in the frames at the respective past time points. As described above, since the noise component is spatially and temporally dispersed at a high frequency, when the noise component is added over a plurality of frames that are continuous in time series as in the second term on the right side of Expression (11), the number of frames to be added, If the value of n is large, it will approach a uniform value for the entire image. Therefore, Expression (11) can be approximated by Expression (12) using the constant c.
[0087]
(Equation 12)
[0088]
Here, the first term on the right side of Expression (12) is obtained by multiplying the pure subject image in the latest frame (i) at the present time by the magnification n. Since the second term c on the right side of the equation (12) is a constant, it can be easily removed.
[0089]
As described above, in the
[0090]
By the operation of the above-described
[0091]
<Second embodiment>
FIG. 6 is a block diagram illustrating a functional configuration of an imaging system 1B according to the second embodiment of the present invention.
[0092]
The controller 3B of the imaging system 1B is different from the
[0093]
The selection frame
[0094]
Even in a low illuminance environment, actual illuminance values vary. Therefore, if the total sum of all the frame memories of the
[0095]
In addition, the selection frame
[0096]
The
[0097]
The
[0098]
The operation of the imaging system 1B is similar to the operation shown in the flowchart of FIG. 4, but an operation of limiting the number of frames by the selected frame
[0099]
That is, for example, the addition processing of the smoothed difference data is performed on the unit frame memory of the processing target set by the user's operation input to the
[0100]
Note that it is not essential to limit the frame memory to be processed based on the setting value input from the
[0101]
With the above imaging system 1B, the same effects as in the first embodiment can be obtained. Further, in the imaging system 1B, since the number of frames to be processed can be limited, the brightness of output image data can be appropriately adjusted.
[0102]
<Modification>
In the above embodiments, it is not essential that the surveillance camera and the controller are separated from each other, and the surveillance camera may be provided with a controller function. In this case, the output image of the surveillance camera is an image that realizes a relatively high S / N ratio and high sensitivity as a whole image.
[0103]
The imaging device in each of the above embodiments is not necessarily a CCD, but may be a CMOS image sensor. Further, the predetermined frame rate is not limited to 1/30 second, but may be a constant time interval such as 1/60 second.
[0104]
It is not essential that the frame memory group in each of the above embodiments is composed of five unit frame memories, but may be two, three, six or more. Also, the number n of frames to be processed according to the second embodiment may be an arbitrary integer of 2 or more, but is preferably 3 or more, and more preferably 5 or more.
[0105]
In the above embodiments, as shown in FIG. 3, after adding the smoothed difference image FD to each of the previously acquired frames F2 to F5, these added images F2a to F5a and the latest frame F6 are added. It is not essential to generate the output image FS by adding the images. The image obtained by adding the previous frames F2 to F5 to each other, the image obtained by adding the smoothed difference image FD four times, that is, the image amplified four times, May be added to generate the output image FS. Also in this case, the same effects as those of the above embodiments can be exerted.
[0106]
In each of the above embodiments, in obtaining the smoothed difference image FS (see FIG. 3), not the difference between the latest frame F6 and the immediately preceding frame F5, but the previous frame (for example, F4) and the latest frame F6. The difference from the frame F6 may be obtained. That is, when the latest frame is the n-th frame, the image states of the subjects in the first to (n-1) th frames have been substantially the same by the previous update. (Reference image data) may be any of the first to (n-1) th frames, and an average or a weighted average of a plurality of frames may be used. .
[0107]
The specific embodiments described above include inventions having the following configurations.
[0108]
(1) An imaging system, further comprising an operation input unit that receives an operation input, wherein the setting unit includes a unit that changes a value of an integer n in response to the operation input.
[0109]
This allows the user to adjust the brightness of the output image data.
[0110]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, the difference image between the image data of the n-th frame and the reference image data representatively representing the first to (n-1) th frames After performing low-pass filtering on the data to generate smoothed difference image data, the data corresponds to the sum of the image data of the first to n-th frames and (n-1) times the smoothed difference image data. Find composite image data. As a result, a smooth moving image can be output while realizing a relatively high S / N ratio and high sensitivity for the entire image.
[0111]
In particular, according to the second aspect of the present invention, since there is further provided a changing means for changing the value of the integer n, it is easy to adjust the luminance of the composite image data.
[0112]
According to the third aspect of the present invention, since the value of the integer n is changed based on the luminance information on the image data of the n-th frame, the luminance of the composite image data can be appropriately adjusted.
[0113]
According to the fourth aspect of the present invention, since the value of the integer n is changed based on the illuminance of the subject, it is possible to appropriately adjust the luminance of the composite image data.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a main configuration of an
FIG. 2 is a block diagram illustrating a functional configuration of an
FIG. 3 is a diagram for explaining an image processing method in the
FIG. 4 is a flowchart illustrating a basic operation of the
FIG. 5 is a diagram for explaining the concept of image processing in the
FIG. 6 is a block diagram illustrating a functional configuration of an imaging system 1B according to a second embodiment of the present invention.
FIG. 7 is a schematic diagram showing a configuration of a main part of an
[Explanation of symbols]
1A, 1B imaging system
2A, 2B surveillance camera
3A, 3B controller
4 Display device
30 overall control unit
34 Selection update section
35 difference section
36 spatial low-pass filter
37 selective adder
38 Total adder
39 output image processing unit
59 frame memory group
Claims (5)
被写体に係るフレームの画像データを順次に取得する撮像手段と、
前記撮像手段で順次に取得される一連のフレームのうち、新しい順に所定数のフレームの画像データを格納する格納手段と、
nを2以上の整数とし、前記所定数のフレームのうち最新のフレームを第nフレームとしたとき、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データを生成する差分手段と、
前記差分画像データに対してローパスフィルタ処理を施し、平滑化差分画像データを生成する平滑化手段と、
第1〜第nフレームの画像データと、前記平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める合成手段と、
第2〜第(n−1)フレームの画像データのそれぞれと前記平滑化差分画像データとの和に相当する値、および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データを定義する更新手段、
を備え、
前記合成画像データに基づいて前記動画出力の1フレーム分を得ることを特徴とする撮像システム。An imaging system capable of outputting moving images,
Imaging means for sequentially acquiring image data of a frame related to a subject,
A storage unit that stores image data of a predetermined number of frames in a new order from a series of frames sequentially acquired by the imaging unit,
When n is an integer of 2 or more and the latest frame among the predetermined number of frames is the n-th frame, the image data of the n-th frame and the first to (n-1) th frames are typically represented. Difference means for generating difference image data from the reference image data;
A low-pass filter process is performed on the difference image data, and a smoothing unit that generates smoothed difference image data,
Synthesizing means for obtaining synthetic image data corresponding to the sum of the image data of the first to n-th frames and (n-1) times the smoothed difference image data;
The first to (n−1) th frames are determined by a value corresponding to the sum of each of the image data of the second to (n−1) th frames and the smoothed difference image data and the value of the image data of the nth frame. Updating means for defining new image data for the frame,
With
An imaging system, wherein one frame of the moving image output is obtained based on the composite image data.
整数nの値を変更する変更手段、
をさらに備えることを特徴とする撮像システム。The imaging system according to claim 1,
Changing means for changing the value of the integer n;
An imaging system, further comprising:
前記変更手段は、
第nフレームの画像データに係る輝度情報に基づき、整数nの値を変更する手段、
を有することを特徴とする撮像システム。The imaging system according to claim 2,
The changing means,
Means for changing the value of the integer n based on the luminance information relating to the image data of the n-th frame;
An imaging system comprising:
前記被写体に係る照度を検出する検出手段、
をさらに備え、
前記変更手段は、
前記検出手段で検出された前記照度に基づき、整数nの値を変更する手段、
を有することを特徴とする撮像システム。In the imaging system according to claim 2 or 3,
Detecting means for detecting the illuminance of the subject,
Further comprising
The changing means,
Means for changing a value of an integer n based on the illuminance detected by the detection means;
An imaging system comprising:
前記撮像装置で順次に取得される一連のフレームのうち、新しい順に所定数のフレームの画像データを格納する格納手段と、
nを2以上の整数とし、前記所定数のフレームのうち最新のフレームを第nフレームとしたとき、第nフレームの画像データと、第1〜第(n−1)フレームを代表的に表現した基準画像データとの差分画像データを生成する差分手段と、
前記差分画像データに対してローパスフィルタ処理を施し、平滑化差分画像データを生成する平滑化手段と、
第1〜第nフレームの画像データと、前記平滑化差分画像データの(n−1)倍分との総和に対応する合成画像データを求める合成手段と、
第2〜第(n−1)フレームの画像データのそれぞれと前記平滑化差分画像データとの和に相当する値、および第nフレームの画像データの値によって、第1〜第(n−1)フレームについての新たな画像データを定義する更新手段、
を備え、
前記合成画像データに基づいて前記動画出力の1フレーム分を得ることを特徴とする画像処理装置。An image processing apparatus capable of outputting a moving image, communicably connected to an imaging apparatus that sequentially acquires image data of frames related to a subject,
A storage unit that stores image data of a predetermined number of frames in a new order from a series of frames sequentially acquired by the imaging device,
When n is an integer of 2 or more and the latest frame among the predetermined number of frames is the n-th frame, the image data of the n-th frame and the first to (n-1) th frames are typically represented. Difference means for generating difference image data from the reference image data;
A low-pass filter process is performed on the difference image data, and a smoothing unit that generates smoothed difference image data,
Synthesizing means for obtaining synthetic image data corresponding to the sum of the image data of the first to n-th frames and (n-1) times the smoothed difference image data;
The first to (n−1) th frames are determined by a value corresponding to the sum of each of the image data of the second to (n−1) th frames and the smoothed difference image data and the value of the image data of the nth frame. Updating means for defining new image data for the frame,
With
An image processing apparatus, wherein one frame of the moving image output is obtained based on the composite image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002187990A JP2004032517A (en) | 2002-06-27 | 2002-06-27 | Image pickup system and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002187990A JP2004032517A (en) | 2002-06-27 | 2002-06-27 | Image pickup system and image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004032517A true JP2004032517A (en) | 2004-01-29 |
Family
ID=31182866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002187990A Pending JP2004032517A (en) | 2002-06-27 | 2002-06-27 | Image pickup system and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004032517A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006191340A (en) * | 2005-01-06 | 2006-07-20 | Fujitsu Ten Ltd | Radio communications system |
JP2007281548A (en) * | 2006-04-03 | 2007-10-25 | Samsung Techwin Co Ltd | Imaging apparatus and method |
JP2009005095A (en) * | 2007-06-21 | 2009-01-08 | Mitsubishi Electric Corp | Monitoring camera system |
US9635250B2 (en) | 2013-05-29 | 2017-04-25 | Panasonic Intellectual Property Management Co., Ltd. | Imaging device and imaging method using compressed sensing |
JP2019534518A (en) * | 2016-11-03 | 2019-11-28 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Optical imaging method and apparatus |
-
2002
- 2002-06-27 JP JP2002187990A patent/JP2004032517A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006191340A (en) * | 2005-01-06 | 2006-07-20 | Fujitsu Ten Ltd | Radio communications system |
JP2007281548A (en) * | 2006-04-03 | 2007-10-25 | Samsung Techwin Co Ltd | Imaging apparatus and method |
JP2009005095A (en) * | 2007-06-21 | 2009-01-08 | Mitsubishi Electric Corp | Monitoring camera system |
US9635250B2 (en) | 2013-05-29 | 2017-04-25 | Panasonic Intellectual Property Management Co., Ltd. | Imaging device and imaging method using compressed sensing |
US10110808B2 (en) | 2013-05-29 | 2018-10-23 | Panasonic Intellectual Property Management Co., Ltd. | Imaging device and imaging method using compressed sensing |
US10375299B2 (en) | 2013-05-29 | 2019-08-06 | Panasonic Intellectual Property Management Co., Ltd. | Imaging device and imaging method using compressed sensing |
JP2019534518A (en) * | 2016-11-03 | 2019-11-28 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Optical imaging method and apparatus |
US10810720B2 (en) | 2016-11-03 | 2020-10-20 | Huawei Technologies Co., Ltd. | Optical imaging method and apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105323474B (en) | Picture pick-up device and its control method | |
TWI390971B (en) | Imaging apparatus, imaging processing method, and imaging control program | |
JP5523124B2 (en) | Imaging device | |
JP2015115922A (en) | Imaging apparatus and imaging method | |
JP2012235332A (en) | Imaging apparatus, imaging apparatus control method and program | |
WO2005120047A1 (en) | Imaging device and signal processing method | |
JP2007074555A (en) | Flicker reduction method, flicker reduction circuit and imaging apparatus | |
WO2017090300A1 (en) | Image processing apparatus and image processing method, and program | |
US20110249143A1 (en) | Image processing apparatus, display apparatus and image capturing apparatus | |
JP2009212627A (en) | Image processing apparatus, flicker reduction method, imaging apparatus, and flicker reduction program | |
JP6643109B2 (en) | Imaging device, control method thereof, and program | |
JP2011254125A (en) | Image processing device, camera system, image processing method, and program | |
JP5581968B2 (en) | Imaging device | |
JP2018107705A (en) | Imaging apparatus, control method and program and recording medium for the imaging apparatus | |
JP2020109924A (en) | Image processing device and image processing method | |
US8035729B2 (en) | Imaging apparatus and program thereof | |
JP6429915B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
US20130063622A1 (en) | Image sensor and method of capturing an image | |
JP5298396B2 (en) | Electronic camera and image processing system | |
JP2014179920A (en) | Imaging apparatus, control method thereof, program, and storage medium | |
JP2004032517A (en) | Image pickup system and image processing apparatus | |
JP5980618B2 (en) | Image processing apparatus and image processing method | |
JP2006287330A (en) | Electronic camera and imaging control program | |
JP6242129B2 (en) | Imaging device, control method thereof, and control program | |
JP2010098553A (en) | Gradation correction device, gradation correction method, program, image capturing apparatus and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050613 |