[go: up one dir, main page]

JP2013029995A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP2013029995A
JP2013029995A JP2011165643A JP2011165643A JP2013029995A JP 2013029995 A JP2013029995 A JP 2013029995A JP 2011165643 A JP2011165643 A JP 2011165643A JP 2011165643 A JP2011165643 A JP 2011165643A JP 2013029995 A JP2013029995 A JP 2013029995A
Authority
JP
Japan
Prior art keywords
image
signal level
unit
imaging
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011165643A
Other languages
Japanese (ja)
Inventor
Tsutomu Usui
勉 薄井
Hirotomo Sai
寛知 齋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2011165643A priority Critical patent/JP2013029995A/en
Publication of JP2013029995A publication Critical patent/JP2013029995A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To inconspicuously display image gaps in all connection sections when images taken by a plurality of cameras are connected and displayed in one round manner.SOLUTION: An image processor 16 generates a synthesized image by synthesizing image signals from the plurality of imaging units 1 to 4, and applies gradation processing to a signal level in an image. A signal level detector 14 detects the signal levels of the image signals from the plurality of imaging units in an overlapping area of the image signals. A gradation controller 15 sets a gradation processing throughput to the image processor 16 so that the signal level of each photographed image in the overlapping area becomes a prescribed level difference or lower.

Description

本発明は、複数の撮像部からの画像を合成して表示する撮像システムに関する。   The present invention relates to an imaging system that synthesizes and displays images from a plurality of imaging units.

自動車の前後左右に複数のカメラ(撮像装置)を設置し、各カメラからの撮影画像を視点変換処理して車両周辺画像を生成して表示する技術が知られている。この技術に関して特許文献1には、輝度差による切れ目がなく、運転者にとって違和感の少ない車両周辺画像を少ない演算量で生成するための構成が記載される。該文献では、撮像装置が有する撮影領域の中から測光重点領域を決定し、測光重点領域を他の領域よりも重点的に測光して撮像領域の適正露光を算出することにより、測光重点領域において撮影領域の重なりを有する複数の画像の輝度は同程度となり、その画像間に輝度差に起因する切れ目は殆ど見えなくなると述べられている。   A technique is known in which a plurality of cameras (imaging devices) are installed on the front, rear, left, and right sides of an automobile, and a captured image from each camera is subjected to viewpoint conversion processing to generate and display a vehicle peripheral image. With respect to this technology, Patent Document 1 describes a configuration for generating a vehicle peripheral image that has no discontinuity due to a luminance difference and that is less uncomfortable for the driver with a small amount of calculation. In this document, a photometric priority area is determined from the imaging areas of the imaging apparatus, and the photometry important area is measured more preferentially than other areas to calculate the appropriate exposure of the imaging area. It is stated that the luminance of a plurality of images having overlapping imaging regions is almost the same, and the cuts caused by the luminance difference are hardly visible between the images.

特開2007−311970号公報JP 2007-31970 A

上記文献1を始めとする従来の技術では、隣接しているカメラの各画像のうち、撮影範囲が重複している領域の輝度やホワイトバランスが同等になるように調整することで、カメラ間の画像の切れ目を目立たなくするものである。その場合、カメラ間の輝度差等を調整するのは隣接する2台のカメラの撮影範囲が重複する領域の画像である。カメラを3台以上設置して各カメラの画像を連結し一巡して表示するような場合には、上記した輝度調整を各連結部で行なわねばならないが、調整を一巡して行う結果、いずれかの連結部において調整ずれが生じてしまう。すなわち、全ての連結部において画像の切れ目を目立たなくすることは困難であった。   In the conventional techniques including the above-mentioned document 1, among the images of adjacent cameras, by adjusting so that the luminance and white balance of the areas where the shooting ranges overlap are equal, This makes the cuts in the image inconspicuous. In that case, the brightness difference between the cameras is adjusted for an image of a region where the shooting ranges of two adjacent cameras overlap. When three or more cameras are installed and the images of each camera are connected and displayed in a round, the brightness adjustment described above must be performed in each connecting section. Adjustment deviation occurs at the connecting portion. That is, it is difficult to make the image cutout inconspicuous in all the connecting portions.

本発明の目的は、複数のカメラからの画像を連結し一巡して表示する場合にも、全ての連結部において画像の切れ目を目立たなく表示する撮像システムを提供することにある。   An object of the present invention is to provide an imaging system that displays image breaks inconspicuously at all connecting portions even when images from a plurality of cameras are connected and displayed in a round.

本発明は複数の撮影画像を連結して合成画像を生成する撮像システムにおいて、撮影領域を重複させながら被写体を撮影する複数の撮像部と、複数の撮像部からの画像信号を合成して合成画像を生成するとともに、画像内の信号レベルにグラデーション処理を行なう画像処理部と、複数の撮像部からの画像信号の信号レベルを検出する信号レベル検出部と、信号レベル検出部の検出した信号レベルに応じて画像処理部の行うグラデーション処理量を設定するグラデーション制御部とを備え、信号レベル検出部は各撮像部の撮影画像のうち互いに重複する領域における信号レベルを検出し、グラデーション制御部は、各撮像画像の重複領域における信号レベルを所定のレベル差以下となるようグラデーション処理量を設定する。   The present invention relates to an imaging system that combines a plurality of captured images to generate a composite image, and combines a plurality of image capturing units that capture a subject while overlapping the capturing regions and image signals from the plurality of image capturing units. An image processing unit that performs gradation processing on the signal level in the image, a signal level detection unit that detects the signal level of the image signal from the plurality of imaging units, and a signal level detected by the signal level detection unit And a gradation control unit that sets a gradation processing amount performed by the image processing unit, the signal level detection unit detects a signal level in an overlapping area among the captured images of each imaging unit, and the gradation control unit The gradation processing amount is set so that the signal level in the overlapped area of the captured images is equal to or less than a predetermined level difference.

さらに本発明の撮像システムは、信号レベル検出部の検出した信号レベルに応じて各撮像部の露光条件を制御する露光制御部を備え、露光制御部は、各撮像画像の重複領域における信号レベルを所定のレベル差以下となるよう露光量を調整する。   The imaging system of the present invention further includes an exposure control unit that controls the exposure condition of each imaging unit in accordance with the signal level detected by the signal level detection unit, and the exposure control unit determines the signal level in the overlapping region of each captured image. The exposure amount is adjusted so as to be less than a predetermined level difference.

本発明によれば、複数のカメラからの画像を連結し一巡して表示する場合にも、全ての連結部において画像の切れ目を目立たなく表示することができる。   According to the present invention, even when images from a plurality of cameras are connected and displayed in a round, the cuts in the images can be displayed inconspicuously at all the connecting portions.

本発明による撮像システムの一実施例を示すシステム構成図。1 is a system configuration diagram showing an embodiment of an imaging system according to the present invention. 撮像部の配置と撮影範囲の例を示す図。The figure which shows the example of arrangement | positioning of an imaging part, and an imaging | photography range. 図2の各撮像部からの撮影画像を連結した合成画面の例を示す図。The figure which shows the example of the synthetic | combination screen which connected the picked-up image from each imaging part of FIG. 露光制御とグラデーション制御による信号レベルの補正を示す図。The figure which shows correction | amendment of the signal level by exposure control and gradation control. 画像信号の補正方法の第1例を示す図(露光制御とグラデーション制御の組み合わせ)。The figure which shows the 1st example of the correction method of an image signal (combination of exposure control and gradation control). 図5の変形例を示す図。The figure which shows the modification of FIG. 図5の変形例を示す図。The figure which shows the modification of FIG. 図7の変形例を示す図。The figure which shows the modification of FIG. 画像信号の補正方法の第2例を示す図(グラデーション制御のみ)。The figure which shows the 2nd example of the correction method of an image signal (only gradation control). 図9の変形例を示す図。The figure which shows the modification of FIG. 図9の変形例を示す図。The figure which shows the modification of FIG. 本発明による撮像システムの他の実施例を示すシステム構成図。The system block diagram which shows the other Example of the imaging system by this invention. 重複領域決定部18の内部構成を示す図。The figure which shows the internal structure of the duplication area | region determination part 18. FIG. 露光補正量とグラデーション補正量を制限する動作を示す図。The figure which shows the operation | movement which restrict | limits exposure correction amount and gradation correction amount.

以下、本発明の実施例を図面を用いて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明による撮像システムの一実施例を示すシステム構成図である。ここでは、カメラ(撮像部)を4台設置し、各カメラの撮影画像を連結して表示する場合を例にする。撮像システム10の構成を説明する。   FIG. 1 is a system configuration diagram showing an embodiment of an imaging system according to the present invention. Here, as an example, four cameras (imaging units) are installed and the captured images of the cameras are connected and displayed. The configuration of the imaging system 10 will be described.

撮像部1〜4は、被写体からの入射光を集めるためのレンズ(図示せず)、該レンズが集めた光を光電変換し画像信号として出力する撮像素子と、各撮像素子には電子シャッタ制御部(図示せず)及び利得制御部(図示せず)を有する。また撮像部1〜4は、後述の露光制御部12からの制御信号を受け、露光条件(シャッター時間など)を変化させる。   The imaging units 1 to 4 include a lens (not shown) for collecting incident light from a subject, an image sensor that photoelectrically converts the light collected by the lens and outputs it as an image signal, and an electronic shutter control for each image sensor. Part (not shown) and a gain control part (not shown). The imaging units 1 to 4 receive a control signal from an exposure control unit 12 (to be described later) and change the exposure conditions (such as shutter time).

画像入力部11は、各撮像部1〜4からの画像信号を入力して後段の画像信号処理部へ送り出す入力インタフェースである。ここでは、信号レベル調整のための利得制御やフィルタ処理を行う。さらに、AD(Analog to Digital)変換処理、撮像素子と信号処理部との処理タイミングを調整する同期調整処理などを含んでも良い。   The image input unit 11 is an input interface that inputs image signals from the imaging units 1 to 4 and sends the image signals to a subsequent image signal processing unit. Here, gain control and filter processing for signal level adjustment are performed. Furthermore, an AD (Analog to Digital) conversion process, a synchronization adjustment process for adjusting the processing timing between the image sensor and the signal processing unit, and the like may be included.

露光制御部12は、撮像部1〜4に対する露光条件(絞り、撮像素子の電子シャッタ、および利得制御)と、画像入力部11の利得などの制御を行う。その際、後述の信号レベル検出部14から受けた信号レベルの情報に応じて、各撮像部1〜4からの画像の連結部に切れ目が目立たないように露光条件を制御する。   The exposure control unit 12 controls exposure conditions (aperture, electronic shutter of the image sensor, and gain control) for the imaging units 1 to 4 and a gain of the image input unit 11. At that time, in accordance with signal level information received from a signal level detection unit 14 to be described later, the exposure conditions are controlled so that the connection between the image capturing units 1 to 4 is not conspicuous.

重複領域記憶部13は、各撮像部1〜4の撮影画像のうち隣接する撮影画像と重複する領域を示す情報(以下、重複領域情報)を保持するメモリで、撮像部1〜4の配置に基づき予め記憶している。なお、重複領域情報はプログラム上に保持しても良い。   The overlapping area storage unit 13 is a memory that holds information (hereinafter referred to as overlapping area information) indicating an area overlapping with an adjacent captured image among the captured images of the imaging units 1 to 4, and is arranged in the arrangement of the imaging units 1 to 4. Pre-stored. Note that the overlap area information may be held on the program.

信号レベル検出部14は、画像入力部11から画像信号を受け、重複領域記憶部13に保持されている重複領域情報に従い、重複画像領域における信号レベルを検出する。ここで検出する信号レベルとは、入力した画素信号の絶対値(輝度レベル)、ヒストグラム分布、最大値・最小値、平均値など、重複画像領域での信号の輝度分布状態を示す情報である。信号レベル検出部14は、検出した信号レベルの情報を、前記露光制御部12と後述のグラデーション制御部15に出力する。   The signal level detection unit 14 receives an image signal from the image input unit 11 and detects a signal level in the overlapping image region according to the overlapping region information held in the overlapping region storage unit 13. The signal level detected here is information indicating the luminance distribution state of the signal in the overlapping image region, such as the absolute value (luminance level), histogram distribution, maximum value / minimum value, and average value of the input pixel signal. The signal level detection unit 14 outputs information on the detected signal level to the exposure control unit 12 and a gradation control unit 15 described later.

グラデーション制御部15は、信号レベル検出部14から受けた信号レベルの情報に応じて、各撮像部1〜4からの画像の連結部に切れ目が目立たないようにグラデーション処理の処理量を設定する。   The gradation control unit 15 sets the processing amount of the gradation processing so that the cuts are not conspicuous in the connection portion of the images from the imaging units 1 to 4 according to the signal level information received from the signal level detection unit 14.

画像処理部16は、グラデーション制御部15で設定したグラデーション処理量に従い、入力画像に対して信号レベルの変化を緩やかなるよう補正するグラデーション処理を行う。そして、各撮像部1〜4からの画像を連結して合成する。例えば車両周辺画像であれば、視点変換処理により、自車両の上方の仮想視点から見た車両周辺画像を生成する。またその他の画像処理として、ノイズ除去、ガンマ補正、輪郭強調、フィルタ処理、ズーム処理、手ぶれ補正、画像認識など処理を行う。   The image processing unit 16 performs gradation processing for correcting the change in signal level so as to be moderate with respect to the input image in accordance with the gradation processing amount set by the gradation control unit 15. And the image from each imaging part 1-4 is connected and synthesize | combined. For example, in the case of a vehicle peripheral image, a vehicle peripheral image viewed from a virtual viewpoint above the host vehicle is generated by viewpoint conversion processing. As other image processing, noise removal, gamma correction, contour enhancement, filter processing, zoom processing, camera shake correction, image recognition, and the like are performed.

画像出力部17は、画像処理部16で合成された画像信号を画像表示装置(モニタ、TV)や画像記録装置などに出力する。その際、出力機器の信号フォーマットに変換する処理を行う。例えば、NTSCやPAL変換、HDMI変換、ネットワーク伝送方式への変換などを行う。なお、画像出力部17は、信号レベル調整のための利得制御や、フィルタ処理、エンコードによる圧縮処理などを含む構成であっても良い。   The image output unit 17 outputs the image signal synthesized by the image processing unit 16 to an image display device (monitor, TV), an image recording device, or the like. At that time, a process of converting to the signal format of the output device is performed. For example, NTSC, PAL conversion, HDMI conversion, conversion to a network transmission system, and the like are performed. The image output unit 17 may be configured to include gain control for signal level adjustment, filter processing, compression processing by encoding, and the like.

本例の撮像システム10では撮像部1〜4を含む構成としたが、撮像部1〜4を外部機器として扱っても良い。また、画像表示装置を外部機器として扱っているが、撮像システム10内に含める構成でも良い。   Although the imaging system 10 of the present example includes the imaging units 1 to 4, the imaging units 1 to 4 may be handled as external devices. Further, although the image display apparatus is handled as an external device, a configuration including the image display apparatus in the imaging system 10 may be possible.

図2は、撮像部の配置と撮影範囲の例を示す図である。ここでは4台の撮像部1〜4を配置して自動車9の周囲を撮影する例を、自動車の上方から見た図を示す。撮像部1は自動車後部、撮像部2は自動車左側面、撮像部3は自動車前部、撮像部4は自動車右側面に配置し、それぞれの撮影範囲を符号91〜94で示す。各撮像部の撮影範囲の左右端領域は、隣接する撮像部の撮影範囲と重複させることで、自動車の周辺画像を欠落することなく取得するようにしている。   FIG. 2 is a diagram illustrating an example of the arrangement of the imaging unit and an imaging range. Here, an example in which four imaging units 1 to 4 are arranged to photograph the periphery of the automobile 9 is shown as viewed from above the automobile. The imaging unit 1 is disposed on the rear of the vehicle, the imaging unit 2 is disposed on the left side of the vehicle, the imaging unit 3 is disposed on the front of the vehicle, and the imaging unit 4 is disposed on the right side of the vehicle. The left and right end regions of the imaging range of each imaging unit overlap with the imaging range of the adjacent imaging unit, so that a peripheral image of the automobile is acquired without being lost.

図3は、図2の各撮像部からの撮影画像を連結した合成画面の例を示す図である。画面中央には撮像部3から得られる前方(正面)の撮影範囲93を配し、これに隣接して撮像部2、4から得られる左側面と右側面方向の撮影範囲92,94を配する。さらにその外側には、撮像部1から得られる後方(背面)の撮影範囲91を配する。これらの撮影範囲は隣接する撮影範囲との間で左右端部が重複し、その重複領域を斜線で示す。この重複領域の位置は、図1の重複領域記憶部13に記憶されている。   FIG. 3 is a diagram illustrating an example of a composite screen in which captured images from the imaging units illustrated in FIG. 2 are connected. A front (front) shooting range 93 obtained from the imaging unit 3 is arranged at the center of the screen, and a left side and right side shooting ranges 92 and 94 obtained from the imaging units 2 and 4 are arranged adjacent thereto. . Furthermore, a rear (back) imaging range 91 obtained from the imaging unit 1 is arranged on the outer side. These imaging ranges have overlapping left and right ends between adjacent imaging ranges, and the overlapping areas are indicated by diagonal lines. The position of this overlapping area is stored in the overlapping area storage unit 13 of FIG.

この重複領域において画像のつなぎ目となる連結部95〜98を設け、撮像部1〜4からの画像信号を切り替えて表示する。以下の説明では、正面の撮影範囲93で表示する画像をメイン画像、左右側面の撮影範囲92,94で表示する画像をサブ画像、後方(背面)の撮影範囲91、91’で表示する画像をリア画像とも呼ぶことにする。そして以下で説明する車両周辺画像の場合、メイン画像はサブ画像よりも運転者にとって重要な情報となるので、画質の優先度を高くして表示するものとする。またリア画像についてもメイン画像に次いで優先度を高くする。   In the overlapping area, connecting portions 95 to 98 that serve as joints of images are provided, and the image signals from the imaging portions 1 to 4 are switched and displayed. In the following description, the image displayed in the front shooting range 93 is the main image, the image displayed in the left and right shooting ranges 92 and 94 is the sub image, and the image displayed in the rear (back) shooting ranges 91 and 91 ′. It will also be called a rear image. In the case of the vehicle periphery image described below, the main image is information that is more important to the driver than the sub image, so that the image quality is displayed with higher priority. Also, the priority of the rear image is set next to the main image.

ここで、本実施例で行う露光制御とグラデーション制御について説明する。
図4は、露光制御とグラデーション制御による信号レベルの補正を示す図である。露光制御では、例えば露光時間を変えることになるが、補正区間(P1〜P2)の画像信号レベル(輝度レベル)に均一な補正係数kを乗算することに相当する。その結果、補正後の信号レベルは元の信号レベルの勾配を保ったまま上下方向に平行移動することになる。なお、補正区間(P1〜P2)は補正対象の撮像部から得られる画面全体に及ぶ。
Here, the exposure control and gradation control performed in this embodiment will be described.
FIG. 4 is a diagram showing signal level correction by exposure control and gradation control. In exposure control, for example, the exposure time is changed, which corresponds to multiplying the image signal level (luminance level) in the correction section (P1 to P2) by a uniform correction coefficient k. As a result, the corrected signal level is translated in the vertical direction while maintaining the original signal level gradient. The correction section (P1 to P2) covers the entire screen obtained from the imaging unit to be corrected.

一方グラデーション制御では、補正区間(P1〜P2)の画像信号レベル(輝度レベル)に位置に応じた補正係数kを乗算する演算処理を行う。例えば、位置P1、P2における補正係数k1、k2が与えられたとき、中間位置Pでの補正係数kを(1)式に示す線形補間法で求め、滑らかに変化させる。   On the other hand, in gradation control, calculation processing is performed to multiply the image signal level (luminance level) in the correction section (P1 to P2) by a correction coefficient k corresponding to the position. For example, when the correction coefficients k1 and k2 at the positions P1 and P2 are given, the correction coefficient k at the intermediate position P is obtained by the linear interpolation method shown in the equation (1) and smoothly changed.

k=(1−α)×k1+α×k2
ただしα=(P−P1)/(P2−P1) (1)
これによれば、補正区間での信号レベルの勾配を緩やかに変化させることになる。なお、補間式はこれに限らず、区間内の補正量について適宜重み付けを施しても良い。
k = (1−α) × k1 + α × k2
Where α = (P−P1) / (P2−P1) (1)
According to this, the gradient of the signal level in the correction section is gently changed. The interpolation formula is not limited to this, and the correction amount in the section may be appropriately weighted.

次に、上記の露光制御とグラデーション制御を適用した補正方法について、具体例を用いて説明する。
図5は、画像信号の補正方法の第1例を示す図である。各撮像部1〜4から得られる撮影画像を連結した合成画面において、各水平位置での平均輝度レベル(画面垂直方向の平均値)を示している。各撮像部1〜4から得られた撮影画像(輝度レベル)を符号101〜104で示し、連結部を符号95〜98で示す。
Next, a correction method to which the above exposure control and gradation control are applied will be described using a specific example.
FIG. 5 is a diagram illustrating a first example of a method for correcting an image signal. In the composite screen in which the captured images obtained from the imaging units 1 to 4 are connected, the average luminance level (average value in the vertical direction of the screen) at each horizontal position is shown. Photographed images (luminance levels) obtained from the respective imaging units 1 to 4 are denoted by reference numerals 101 to 104, and connecting portions are denoted by reference numerals 95 to 98.

この例は通常露光で得られる典型的な輝度分布を想定したものであり、次の特徴がある。正面の撮像部3からのメイン画像103は、画面中央に明るい被写体があり、画面の左右領域では輝度が低下しているが、画面全体としては最適露光範囲内に収まっている。背面の撮像部1からのリア画像101は、後方の自動車からのヘッドライトにより照射されていることを想定し、正面の撮像部3からのメイン画像103と同様の分布になる。   This example assumes a typical luminance distribution obtained by normal exposure and has the following characteristics. The main image 103 from the front imaging unit 3 has a bright subject at the center of the screen, and the luminance decreases in the left and right areas of the screen, but the entire screen is within the optimum exposure range. The rear image 101 from the rear imaging unit 1 is assumed to be illuminated by a headlight from a rear automobile, and has the same distribution as the main image 103 from the front imaging unit 3.

一方、左側面の撮像部2からのサブ画像102は、画面中央に暗い被写体があり、画面の左右領域では明るくなっている。これは、左側に隣接するリア画像101(後方に自動車あり)の影響で、自動車の側面よりも明るくなるからである。このようなシーンでサブ画像102の中央に重みを置いて露光制御をした場合、画面中央は最適露光となるが、画面の左右領域では露出がオーバーになりやすい。このことは、右側面の撮像部4からのサブ画像104についても同様である。   On the other hand, the sub image 102 from the imaging unit 2 on the left side has a dark subject in the center of the screen and is bright in the left and right areas of the screen. This is because the rear image 101 adjacent to the left side (there is a car behind) becomes brighter than the side of the car. In such a scene, when exposure control is performed with a weight placed at the center of the sub-image 102, the center of the screen is optimally exposed, but the left and right areas of the screen tend to be overexposed. The same applies to the sub image 104 from the imaging unit 4 on the right side surface.

この結果通常露光では、各撮影画像の連結部95〜98において輝度レベル差が生じ、画像の切れ目が非常に目立ちやすい状態になっている。そこで本実施例では、画像の切れ目を目立たなくするために、露光制御とグラデーション制御を組み合わせて実施する。   As a result, in normal exposure, a difference in luminance level occurs in the connection portions 95 to 98 of the respective photographed images, and the cuts between the images are very conspicuous. In this embodiment, therefore, exposure control and gradation control are combined to make the image cutout inconspicuous.

まず、メイン画像103とサブ画像102、104の連結部96,97に関しては、メイン画像103を優先させてその輝度レベルを固定し、これに隣接するサブ画像102、104の輝度レベルを合わせるように露光制御で補正する。すなわち、メイン画像103の左側の連結部96近傍におけるレベル3Lを検出し、これに隣接するサブ画像102の連結部96近傍におけるレベル2Rが同じレベルになるように、左側面の撮像部2の露光制御を実施する。この露光制御の結果、撮像部2から得られるサブ画像102のレベルは102aのように補正(平行移動)される。同様に、右側面の撮像部4から得られるサブ画像104についても露光制御を実施して、レベルを104aのように補正する。   First, with regard to the connecting portions 96 and 97 of the main image 103 and the sub images 102 and 104, the main image 103 is prioritized and its luminance level is fixed, and the luminance levels of the sub images 102 and 104 adjacent thereto are matched. Correct with exposure control. That is, the level 3L in the vicinity of the connecting portion 96 on the left side of the main image 103 is detected, and the exposure of the imaging unit 2 on the left side surface is set so that the level 2R in the vicinity of the connecting portion 96 of the sub image 102 adjacent thereto is the same level. Implement control. As a result of this exposure control, the level of the sub-image 102 obtained from the imaging unit 2 is corrected (translated) as indicated by 102a. Similarly, exposure control is performed on the sub-image 104 obtained from the imaging unit 4 on the right side surface, and the level is corrected as indicated by 104a.

この露光制御により、メイン画像103とこれに隣接するサブ画像102a,104aとの、連結部96,97における画像の切れ目を目立たなくすることができる。しかし、連結部95,98における画像の切れ目は残っており、上記した露光制御を繰り返しても全ての連結部の切れ目を解消することはできない。   By this exposure control, it is possible to make the image breaks between the main image 103 and the sub-images 102a and 104a adjacent to the main image 103 in the connecting portions 96 and 97 inconspicuous. However, the image breaks at the connecting portions 95 and 98 remain, and even if the above exposure control is repeated, the breaks at all the connecting portions cannot be resolved.

そこで、リア画像101と上記補正後のサブ画像102a、104aの連結部95,98に関しては、リア画像101を優先させてその輝度レベルを固定し、これに隣接するサブ画像102a、104aの輝度レベルを合わせるようにグラデーション制御で補正する。すなわち連結部95では、リア画像101の連結部95近傍におけるレベル1Rを検出し、これに隣接するサブ画像102aの連結部95近傍におけるレベル2aLが同じレベルになるように、補正係数kを乗算することでグラデーション制御を実施する。この例では、グラデーション処理を施す区間はP1〜P2までの部分とし、サブ画像102aの左側約1/2の領域に限定する。すなわちこの補正では、P2におけるサブ画像102aのレベル2aNを固定し、P1に至る部分の勾配を変化させて、リア画像101のレベル1Rに連結させるものである。このグラデーション制御の結果、撮像部2から得られるサブ画像102のレベルは102bのように補正される。同様に、撮像部4から得られるサブ画像104についても区間P5〜P6の部分でグラデーション制御を実施して、レベルを104bのように補正する。   Therefore, with respect to the connecting portions 95 and 98 of the rear image 101 and the corrected sub images 102a and 104a, the rear image 101 is prioritized and its luminance level is fixed, and the luminance levels of the sub images 102a and 104a adjacent thereto are fixed. Correct with gradation control to match. That is, the connecting unit 95 detects the level 1R in the vicinity of the connecting unit 95 of the rear image 101, and multiplies the correction coefficient k so that the level 2aL in the vicinity of the connecting unit 95 of the sub-image 102a adjacent thereto is the same level. In this way, gradation control is implemented. In this example, the section on which gradation processing is performed is a portion from P1 to P2, and is limited to an area of about ½ on the left side of the sub-image 102a. That is, in this correction, the level 2aN of the sub-image 102a at P2 is fixed, and the gradient of the portion reaching P1 is changed to connect to the level 1R of the rear image 101. As a result of this gradation control, the level of the sub-image 102 obtained from the imaging unit 2 is corrected as indicated by 102b. Similarly, gradation control is performed in the sections P5 to P6 for the sub-image 104 obtained from the imaging unit 4, and the level is corrected as indicated by 104b.

このようにグラデーション制御を追加することにより、各連結部でのレベル合わせを他の連結部でのレベル差状況とは無関係に自在に調整することができ、全ての連結部95,96,97,98において画像の切れ目を目立たなくすることができる。なお、グラデーション制御を適用する区間の大きさはこれに限らず、適宜変更しても良い。以下、露光制御とグラデーション制御を組合せる場合について、様々な変形例を示す。   By adding gradation control in this way, level adjustment at each connecting portion can be freely adjusted regardless of the level difference situation at other connecting portions, and all connecting portions 95, 96, 97, At 98, the image break can be made inconspicuous. The size of the section to which the gradation control is applied is not limited to this, and may be changed as appropriate. Hereinafter, various modifications will be described in the case of combining exposure control and gradation control.

図6は図5の変形例を示し、グラデーション制御の適用区間をさらに狭く限定する場合である。ここでは、サブ画像102a,104aの約1/3の領域(P1〜P2’、P5’〜P6)に限定して適用した場合を示す。グラデーション制御によれば滑らかな画像になるが階調差(分解能)が低下することになるので、両者の兼ね合いを考慮して適用区間を定めるようにすれば良い。   FIG. 6 shows a modification of FIG. 5 in which the gradation control application section is further narrowed. Here, a case is shown in which the present invention is applied to only about one third of the sub-images 102a and 104a (P1 to P2 ', P5' to P6). According to the gradation control, a smooth image is obtained, but the gradation difference (resolution) is lowered. Therefore, the application section may be determined in consideration of the balance between the two.

図7は図5の変形例を示し、メイン画像103についても露光制御により輝度レベルを補正する場合である。すなわち、左側の連結部96において、メイン画像103のレベル3Lとサブ画像102のレベル2Rの両方を露光制御により補正し、同じレベル3aLになるようにする。補正後のメイン画像103のレベルは103aとなり、サブ画像102のレベルは102aとなる。さらにサブ画像102aの区間P1〜P2については、リア画像101と連結するようグラデーション制御を施し、レベルを102bのように補正する。右側の連結部97についても同様である。図7の例では、メイン画像103の輝度レベルも補正することで、サブ画像102,104の輝度レベルが最適露光範囲から外れるのを防止し、合成画像全体の露光状態を改善することができる。   FIG. 7 shows a modification of FIG. 5, in which the luminance level of the main image 103 is corrected by exposure control. That is, in the left connecting portion 96, both the level 3L of the main image 103 and the level 2R of the sub-image 102 are corrected by exposure control so that the same level 3aL is obtained. The level of the corrected main image 103 is 103a, and the level of the sub image 102 is 102a. Further, gradation control is applied to the sections P1 to P2 of the sub image 102a so as to be connected to the rear image 101, and the level is corrected as indicated by 102b. The same applies to the right connecting portion 97. In the example of FIG. 7, by correcting the luminance level of the main image 103, it is possible to prevent the luminance levels of the sub images 102 and 104 from deviating from the optimum exposure range and improve the exposure state of the entire composite image.

図8は図7の変形例を示し、メイン画像に対し露光制御を行うとともに、サブ画像についてはグラデーション制御のみとする場合である。すなわち、メイン画像103の輝度レベルを露光制御により103aに補正した後、左側のサブ画像102については区間P1〜P2と区間P2〜P3に分けてそれぞれグラデーション制御を施す。その結果、中間位置P2ではレベル2Nに固定しながら、区間P1〜P2についてはレベル102bに、区間P2〜P3についてはレベル102cに補正する。右側のサブ画像104についても同様である。この場合の中間位置P2も、任意の位置に設定できる。   FIG. 8 shows a modification of FIG. 7 in which exposure control is performed on the main image and only gradation control is performed on the sub image. That is, after the luminance level of the main image 103 is corrected to 103a by exposure control, the left sub-image 102 is divided into sections P1 to P2 and sections P2 to P3, and gradation control is performed. As a result, while being fixed at the level 2N at the intermediate position P2, the section P1 to P2 is corrected to the level 102b, and the section P2 to P3 is corrected to the level 102c. The same applies to the right sub-image 104. The intermediate position P2 in this case can also be set to an arbitrary position.

実施例1では、隣接する画像の切れ目を目立たなくするために露光制御とグラデーション制御を組合せる方法を述べた。これに対し実施例2では、グラデーション制御のみで画像信号(輝度レベル)を補正する場合である。   In the first embodiment, the method of combining the exposure control and the gradation control in order to make the discontinuity between adjacent images inconspicuous has been described. On the other hand, in the second embodiment, the image signal (luminance level) is corrected only by gradation control.

図9は、画像信号の補正方法の第2例を示す図である。まず、優先するメイン画像103については輝度レベルを固定する。そして、これに隣接するサブ画像102,104に対しグラデーション制御を施す。具体的には、左側のサブ画像102については区間P1〜P2と区間P2〜P3に分ける。そして、中間位置P2ではレベル2Nに固定しながら、区間P1〜P2についてはレベル102bに、区間P2〜P3についてはレベル102cに補正する。その結果、連結部95における輝度レベルをリア画像101のレベル1Rに、連結部95における輝度レベルをメイン画像103のレベル3Lに合わせることができる。右側のサブ画像104についても同様に補正する。   FIG. 9 is a diagram illustrating a second example of the image signal correction method. First, the luminance level is fixed for the priority main image 103. Then, gradation control is performed on the sub-images 102 and 104 adjacent thereto. Specifically, the left sub-image 102 is divided into sections P1 to P2 and sections P2 to P3. Then, while being fixed at the level 2N at the intermediate position P2, the section P1 to P2 is corrected to the level 102b, and the section P2 to P3 is corrected to the level 102c. As a result, the luminance level in the connecting unit 95 can be adjusted to the level 1R of the rear image 101, and the luminance level in the connecting unit 95 can be adjusted to the level 3L of the main image 103. The right sub-image 104 is similarly corrected.

本実施例では、サブ画像102,104に対し、露光制御を行わずにグラデーション制御のみでメイン画像103の輝度レベルに連結するものである。通常メイン画像103は最適露光状態で撮影されるので、これに隣接するサブ画像の領域についても補正により最適露光から外れることが少ない。また、グラデーション制御をサブ画像の全区間に施すので、補正による画像の違和感が特定領域に集中することがない。   In this embodiment, the sub-images 102 and 104 are connected to the luminance level of the main image 103 only by gradation control without performing exposure control. Normally, the main image 103 is photographed in the optimum exposure state, so that the sub-image region adjacent to the main image 103 is less likely to deviate from the optimum exposure due to correction. In addition, since gradation control is applied to all sections of the sub-image, the uncomfortable feeling of the image due to the correction does not concentrate on the specific area.

図10は図9の変形例を示し、グラデーション制御の適用区間を限定する場合である。ここでは、サブ画像102,104の中央領域を除き、両側の連結部に近接する区間に限定して適用した場合を示す。具体的にはサブ画像102では、連結部95に近接する略1/3の領域P1〜P2’と、連結部96に近接する略1/3の領域P2”〜P3に限定している。その結果、サブ画像102の輝度レベルは102bと102cに補正され、区間P2’〜P2”では元のままである。右側のサブ画像104についても同様である。   FIG. 10 shows a modification of FIG. 9, which is a case where the application section of gradation control is limited. Here, a case is shown in which the present invention is applied only to a section close to the connecting portion on both sides except for the central region of the sub-images 102 and 104. Specifically, the sub-image 102 is limited to approximately 3 regions P1 to P2 ′ close to the connecting portion 95 and approximately 略 regions P2 ″ to P3 close to the connecting portion 96. As a result, the luminance level of the sub-image 102 is corrected to 102b and 102c, and remains unchanged in the sections P2 ′ to P2 ″. The same applies to the right sub-image 104.

図11は図9の変形例を示し、サブ画像の区間を分割せずにグラデーション制御する場合を示す。すなわち、サブ画像102の範囲P1〜P3に対し、これを1つの区間として補正する。これにより、サブ画像102の輝度レベルは102bに補正されるが、元の輝度分布の傾向が保持されるので、違和感が少なくなる。右側のサブ画像104についても同様である。   FIG. 11 shows a modification of FIG. 9 and shows a case where gradation control is performed without dividing a sub-image section. That is, this is corrected as one section for the ranges P1 to P3 of the sub-image 102. As a result, the luminance level of the sub-image 102 is corrected to 102b, but the tendency of the original luminance distribution is maintained, so that the uncomfortable feeling is reduced. The same applies to the right sub-image 104.

上記実施例1と実施例2においては、メイン画像103を中心に左右のサブ画像102,104に対し同様の処理(露光制御とグラデーション制御の選択)を行うものとしたが、画像の種類に応じて左右で異なる処理を選択しても良い。また、優先する画像を正面(前方)のメイン画像103に固定したが、例えば車両周辺画像の場合、車両走行状態に応じて優先する画像を左側面や右側面、あるいは背面(後方)の画像に切り替えることで、運転者にとってより見やすい画像表示となる。   In the first and second embodiments, the same processing (selection of exposure control and gradation control) is performed on the left and right sub-images 102 and 104 with the main image 103 as the center. Different processing may be selected on the left and right. In addition, the priority image is fixed to the front (front) main image 103. For example, in the case of a vehicle peripheral image, the priority image according to the vehicle running state is set to the left side surface, the right side surface, or the back (rear) image. By switching, the image display is easier to see for the driver.

図12は、本発明による撮像システムの他の実施例を示すシステム構成図である。本実施例では、実施例1(図1)の構成に対し、重複領域決定部18を追加している。重複領域決定部18は、画像信号から各撮像部の撮影重複領域を認識する機能を有する。そして、別途重複領域記憶部13に記憶している重複領域情報と、画像信号から認識して得られた重複領域情報のいずれかを選択して信号レベル検出部14へ出力する。この構成は、重複領域記憶部13において各撮像部間の重複領域情報を予め保持していない場合に有効である。また、露光制御部12とグラデーション制御部15は、補正による画質劣化を抑えるため補正量を制限する機能を有する。   FIG. 12 is a system configuration diagram showing another embodiment of the imaging system according to the present invention. In the present embodiment, an overlapping area determination unit 18 is added to the configuration of the first embodiment (FIG. 1). The overlapping area determination unit 18 has a function of recognizing the shooting overlapping area of each imaging unit from the image signal. Then, either the overlapping area information separately stored in the overlapping area storage unit 13 or the overlapping area information obtained by recognition from the image signal is selected and output to the signal level detection unit 14. This configuration is effective when the overlapping area information between the imaging units is not held in advance in the overlapping area storage unit 13. Further, the exposure control unit 12 and the gradation control unit 15 have a function of limiting the correction amount in order to suppress image quality deterioration due to correction.

図13は、重複領域決定部18の内部構成を示す図である。画像認識部21は、入力した各撮像部の画像信号から撮影画像の重複部分を抽出する。その際の認識方法には、画像のエッジ情報、色情報、輝度情報などの相関関係を利用することができる。次に重複領域情報生成部22は、抽出した重複画像部分の領域情報を生成する。選択部23は、予め重複領域記憶部13に保持された領域情報と、画像認識により重複領域情報生成部22で生成された領域情報のいずれかを選択する。この選択部23による選択はユーザが行なっても良く、重複領域記憶部13がない場合は自動的に重複領域情報生成部22側に切り替えても良い。選択された領域情報は信号レベル検出部14に送られ、当該領域での画像信号の信号レベルを検出する。   FIG. 13 is a diagram illustrating an internal configuration of the overlapping area determination unit 18. The image recognizing unit 21 extracts an overlapping portion of the captured image from the input image signal of each imaging unit. As a recognition method at that time, a correlation such as edge information, color information, and luminance information of an image can be used. Next, the overlapping area information generation unit 22 generates area information of the extracted overlapping image portion. The selection unit 23 selects either the region information stored in the overlapping region storage unit 13 in advance or the region information generated by the overlapping region information generation unit 22 through image recognition. The selection by the selection unit 23 may be performed by the user, or may be automatically switched to the overlap region information generation unit 22 side when there is no overlap region storage unit 13. The selected area information is sent to the signal level detection unit 14 to detect the signal level of the image signal in the area.

図14は、露光補正量とグラデーション補正量を制限する動作を示す図である。露光制御部12とグラデーション制御部15は、補正による画質劣化を抑えるため補正量の最大値を定め、補正量が最大値を超えないように制御する。例えば連結部96にて露光制御を行い、画像102の輝度レベルを画像103の輝度レベルに合わせる場合、レベルQ1からレベルQ3までシフトさせる必要があるが、その補正量は最大値kmaxを超えてしまう。この場合には補正量を最大値kmaxに抑え、レベルQ2までのシフトとし補正後の画像を102aとする。この制限によって、露光が過補正となることを抑え画質劣化を防止する。   FIG. 14 is a diagram illustrating an operation for limiting the exposure correction amount and the gradation correction amount. The exposure control unit 12 and the gradation control unit 15 determine the maximum value of the correction amount in order to suppress image quality deterioration due to the correction, and perform control so that the correction amount does not exceed the maximum value. For example, when exposure control is performed by the connecting unit 96 and the luminance level of the image 102 is matched with the luminance level of the image 103, it is necessary to shift from the level Q1 to the level Q3, but the correction amount exceeds the maximum value kmax. . In this case, the correction amount is suppressed to the maximum value kmax, the shift to level Q2 is performed, and the corrected image is 102a. Due to this limitation, the exposure is not over-corrected and image quality deterioration is prevented.

また連結部95にてグラデーション制御を行い、画像102aの輝度レベルを画像101の輝度レベルに合わせる場合、レベルQ4からレベルQ6までシフトさせる必要があるが、その補正量は最大値kmaxを超えてしまう。この場合には補正量を最大値kmaxに抑え、レベルQ5までのシフトとし補正後の画像を102bとする。この制限によって、グラデーションの過補正を抑え画質劣化を防止する。   Further, when gradation control is performed by the connecting unit 95 and the luminance level of the image 102a is adjusted to the luminance level of the image 101, it is necessary to shift from the level Q4 to the level Q6, but the correction amount exceeds the maximum value kmax. . In this case, the correction amount is suppressed to the maximum value kmax, the shift to level Q5 is performed, and the corrected image is set to 102b. By this limitation, gradation overcorrection is suppressed and image quality deterioration is prevented.

以上、本発明による撮像システムとその動作についていくつかの実施例を示したが、各実施例は単独でも、あるいは適宜組み合わせても有効である。これらの実施例によれば、複数のカメラからの画像を連結し一巡して表示する場合、全ての連結部において画像の切れ目を目立たなく表示することができる効果がある。   As mentioned above, although several Example was shown about the imaging system by this invention, and its operation | movement, each Example is effective even if it combines individually or suitably. According to these embodiments, when images from a plurality of cameras are connected and displayed in a round, there is an effect that the cuts of the images can be displayed inconspicuously at all the connecting portions.

1〜4…撮像部(カメラ)、
9…自動車、
10…撮像システム、
11…画像入力部、
12…露光制御部、
13…重複領域記憶部、
14…信号レベル検出部、
15…グラデーション制御部、
16…画像処理部、
17…画像出力部、
18…重複領域決定部、
21…画像認識部、
22…検出領域情報生成部、
23…選択部、
91〜94…撮影領域、
95〜98…連結部、
101〜104…撮像部からの画像(輝度レベル)。
1-4 ... Imaging unit (camera),
9 ... car,
10: Imaging system,
11: Image input unit,
12 ... Exposure control unit,
13: Overlapping area storage unit,
14 ... Signal level detection unit,
15 ... gradation control unit,
16: Image processing unit,
17 ... image output unit,
18 ... Overlapping region determination unit,
21 ... Image recognition unit,
22 ... detection area information generation unit,
23 ... selection part,
91-94 ... Shooting area,
95-98 ... connection part,
101-104: Images (luminance levels) from the imaging unit.

Claims (8)

複数の撮影画像を連結して合成画像を生成する撮像システムにおいて、
撮影領域を重複させながら被写体を撮影する複数の撮像部と、
該複数の撮像部からの画像信号を合成して合成画像を生成するとともに、画像内の信号レベルにグラデーション処理を行なう画像処理部と、
前記複数の撮像部からの画像信号の信号レベルを検出する信号レベル検出部と、
該信号レベル検出部の検出した信号レベルに応じて前記画像処理部の行うグラデーション処理量を設定するグラデーション制御部と、を備え、
前記信号レベル検出部は前記各撮像部の撮影画像のうち互いに重複する領域における信号レベルを検出し、
前記グラデーション制御部は、前記各撮像画像の重複領域における信号レベルを所定のレベル差以下となるようグラデーション処理量を設定することを特徴とする撮像システム。
In an imaging system that generates a composite image by connecting a plurality of captured images,
A plurality of imaging units that shoot subjects while overlapping the shooting areas;
An image processing unit that combines image signals from the plurality of imaging units to generate a composite image, and performs gradation processing on a signal level in the image;
A signal level detector that detects signal levels of image signals from the plurality of imaging units;
A gradation control unit that sets a gradation processing amount performed by the image processing unit in accordance with the signal level detected by the signal level detection unit,
The signal level detection unit detects a signal level in a region overlapping each other among the captured images of the imaging units,
The imaging system, wherein the gradation control unit sets a gradation processing amount so that a signal level in an overlapping region of the captured images is equal to or less than a predetermined level difference.
請求項1に記載の撮像システムにおいて、
前記信号レベル検出部の検出した信号レベルに応じて前記各撮像部の露光条件を制御する露光制御部を備え、
該露光制御部は、前記各撮像画像の重複領域における信号レベルを所定のレベル差以下となるよう露光量を調整することを特徴とする撮像システム。
The imaging system according to claim 1,
An exposure control unit that controls an exposure condition of each imaging unit according to the signal level detected by the signal level detection unit;
The exposure control unit adjusts an exposure amount so that a signal level in an overlapping region of the captured images is equal to or less than a predetermined level difference.
請求項1または2に記載の撮像システムにおいて、
前記各撮像部の撮影画像が互いに重複する領域の情報を保持する重複領域記憶部を備え、
前記信号レベル検出部は該重複領域記憶部の保持する重複領域情報に従い信号レベルを検出することを特徴とする撮像システム。
The imaging system according to claim 1 or 2,
An overlapping area storage unit that holds information of areas where the captured images of the respective imaging units overlap each other;
The imaging system according to claim 1, wherein the signal level detection unit detects a signal level in accordance with overlapping area information held by the overlapping area storage unit.
請求項1または2に記載の撮像システムにおいて、
前記各撮像部の撮影画像から互いに重複する領域を抽出して重複領域情報を生成する重複領域決定部を備え、
前記信号レベル検出部は該重複領域決定部の生成した重複領域情報に従い信号レベルを検出することを特徴とする撮像システム。
The imaging system according to claim 1 or 2,
An overlapping area determination unit that generates overlapping area information by extracting overlapping areas from the captured images of each imaging unit,
The imaging system according to claim 1, wherein the signal level detection unit detects a signal level in accordance with the overlapping region information generated by the overlapping region determination unit.
請求項1または2に記載の撮像システムにおいて、
前記撮像部からの撮影画像に優先順序を設けて優先度の高い画像をメイン画像、優先度の低い画像をサブ画像としたとき、
前記グラデーション制御部は、前記サブ画像に対してグラデーション処理を行うよう制御することを特徴とする撮像システム。
The imaging system according to claim 1 or 2,
When a priority order is set for the captured image from the imaging unit, an image with a high priority is a main image, and an image with a low priority is a sub-image,
The imaging system according to claim 1, wherein the gradation control unit controls the sub-image to perform gradation processing.
請求項5に記載の撮像システムにおいて、
前記グラデーション制御部は、前記サブ画像のうち前記メイン画像に隣接しない側の一部領域に対してグラデーション処理を行うよう制御することを特徴とする撮像システム。
The imaging system according to claim 5, wherein
The imaging system according to claim 1, wherein the gradation control unit performs control so that gradation processing is performed on a partial region of the sub-image that is not adjacent to the main image.
請求項1または2に記載の撮像システムにおいて、
前記グラデーション制御部は、グラデーション処理により信号レベルの補正量が所定量を超えないように処理量を制限することを特徴とする撮像システム。
The imaging system according to claim 1 or 2,
The gradation control unit limits an amount of processing so that a correction amount of a signal level does not exceed a predetermined amount by gradation processing.
請求項2に記載の撮像システムにおいて、
前記露光制御部は、露光量の調整により信号レベルの補正量が所定量を超えないように調整量を制限することを特徴とする撮像システム。
The imaging system according to claim 2,
The imaging system according to claim 1, wherein the exposure control unit limits the adjustment amount so that the signal level correction amount does not exceed a predetermined amount by adjusting the exposure amount.
JP2011165643A 2011-07-28 2011-07-28 Imaging system Pending JP2013029995A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011165643A JP2013029995A (en) 2011-07-28 2011-07-28 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011165643A JP2013029995A (en) 2011-07-28 2011-07-28 Imaging system

Publications (1)

Publication Number Publication Date
JP2013029995A true JP2013029995A (en) 2013-02-07

Family

ID=47786980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011165643A Pending JP2013029995A (en) 2011-07-28 2011-07-28 Imaging system

Country Status (1)

Country Link
JP (1) JP2013029995A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050498A (en) * 2013-08-30 2015-03-16 株式会社リコー Imaging device, imaging method, and recording medium
JP2015118582A (en) * 2013-12-19 2015-06-25 ソニー株式会社 Information processor, information processing method and program
KR101816038B1 (en) * 2016-08-25 2018-01-08 현대오트론 주식회사 Apparatus and method for revising brightness of image
WO2018150652A1 (en) 2017-02-15 2018-08-23 パナソニックIpマネジメント株式会社 Image processing device and image processing method
JP2019036906A (en) * 2017-08-21 2019-03-07 日本電信電話株式会社 Video processing apparatus, video processing method, and video processing program
WO2019194012A1 (en) * 2018-04-03 2019-10-10 アイシン精機株式会社 Image processing device
JP2022534046A (en) * 2019-05-31 2022-07-27 影石創新科技股▲ふん▼有限公司 Method and electronics for determining quasi-synchronous exposure parameters

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242737A (en) * 1998-02-26 1999-09-07 Ricoh Co Ltd Image processing method and apparatus, and information recording medium
JP2001333327A (en) * 2000-03-14 2001-11-30 Fuji Photo Film Co Ltd Digital camera and method for processing image
JP2002281379A (en) * 2001-03-21 2002-09-27 Ricoh Co Ltd Imaging system
JP2002335454A (en) * 2001-05-07 2002-11-22 Canon Inc Image processing apparatus, image processing method, and imaging apparatus
JP2004057506A (en) * 2002-07-29 2004-02-26 Toshiba Corp Digital image processing apparatus and X-ray diagnostic apparatus
JP2004139219A (en) * 2002-10-16 2004-05-13 Seiko Instruments Inc Image processing method and image processor
JP2007141098A (en) * 2005-11-21 2007-06-07 Nissan Motor Co Ltd Image processing apparatus and image processing method
JP2007158579A (en) * 2005-12-02 2007-06-21 Canon Inc Imaging device
JP2007180719A (en) * 2005-12-27 2007-07-12 Alpine Electronics Inc Vehicle drive support apparatus
JP2007334558A (en) * 2006-06-14 2007-12-27 Sony Corp Image processing apparatus and method, and program
JP2011071932A (en) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle surroundings monitoring apparatus

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242737A (en) * 1998-02-26 1999-09-07 Ricoh Co Ltd Image processing method and apparatus, and information recording medium
JP2001333327A (en) * 2000-03-14 2001-11-30 Fuji Photo Film Co Ltd Digital camera and method for processing image
JP2002281379A (en) * 2001-03-21 2002-09-27 Ricoh Co Ltd Imaging system
JP2002335454A (en) * 2001-05-07 2002-11-22 Canon Inc Image processing apparatus, image processing method, and imaging apparatus
JP2004057506A (en) * 2002-07-29 2004-02-26 Toshiba Corp Digital image processing apparatus and X-ray diagnostic apparatus
JP2004139219A (en) * 2002-10-16 2004-05-13 Seiko Instruments Inc Image processing method and image processor
JP2007141098A (en) * 2005-11-21 2007-06-07 Nissan Motor Co Ltd Image processing apparatus and image processing method
JP2007158579A (en) * 2005-12-02 2007-06-21 Canon Inc Imaging device
JP2007180719A (en) * 2005-12-27 2007-07-12 Alpine Electronics Inc Vehicle drive support apparatus
JP2007334558A (en) * 2006-06-14 2007-12-27 Sony Corp Image processing apparatus and method, and program
JP2011071932A (en) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle surroundings monitoring apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉岡 健司、外2名: ""全周囲カメラシステムの開発"", 松下テクニカルジャーナル, vol. 54, no. 2, JPN6014049616, 15 July 2008 (2008-07-15), JP, pages 16 - 21, ISSN: 0002948575 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050498A (en) * 2013-08-30 2015-03-16 株式会社リコー Imaging device, imaging method, and recording medium
JP2015118582A (en) * 2013-12-19 2015-06-25 ソニー株式会社 Information processor, information processing method and program
KR101816038B1 (en) * 2016-08-25 2018-01-08 현대오트론 주식회사 Apparatus and method for revising brightness of image
WO2018150652A1 (en) 2017-02-15 2018-08-23 パナソニックIpマネジメント株式会社 Image processing device and image processing method
US10957047B2 (en) 2017-02-15 2021-03-23 Panasonic Intellectual Property Management Co., Ltd. Image processing device and image processing method
JP2019036906A (en) * 2017-08-21 2019-03-07 日本電信電話株式会社 Video processing apparatus, video processing method, and video processing program
JP2019186622A (en) * 2018-04-03 2019-10-24 アイシン精機株式会社 Image processing system
CN111937380A (en) * 2018-04-03 2020-11-13 爱信精机株式会社 image processing device
WO2019194012A1 (en) * 2018-04-03 2019-10-10 アイシン精機株式会社 Image processing device
JP7047549B2 (en) 2018-04-03 2022-04-05 株式会社アイシン Image processing equipment
CN111937380B (en) * 2018-04-03 2022-07-01 株式会社爱信 image processing device
JP2022534046A (en) * 2019-05-31 2022-07-27 影石創新科技股▲ふん▼有限公司 Method and electronics for determining quasi-synchronous exposure parameters
JP7335981B2 (en) 2019-05-31 2023-08-30 影石創新科技股▲ふん▼有限公司 Method and electronics for determining quasi-synchronous exposure parameters

Similar Documents

Publication Publication Date Title
US8797462B2 (en) Image processing apparatus and image processing method
JP5367640B2 (en) Imaging apparatus and imaging method
JP2013029995A (en) Imaging system
JP6361931B2 (en) Image processing apparatus, imaging system including the same, and image processing method
JP2002232906A (en) White balance control device
WO2014027511A1 (en) Image processing device, image processing method, and program
WO2015011824A1 (en) Image pickup apparatus
JP2018186514A (en) Image processing device, imaging system having the same and image processing method
US11032463B2 (en) Image capture apparatus and control method thereof
JP2011171842A (en) Image processor and image processing program
JP5245648B2 (en) Image processing apparatus and program
JP5569617B2 (en) Image processing apparatus and program
JP7123568B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP4522307B2 (en) Image capturing apparatus and image capturing method
JP2010154478A (en) Compound-eye imaging apparatus and method for generating combined image thereof
JP2010213105A (en) Imaging apparatus
JP5365881B2 (en) Image processing apparatus and image processing method
JP2009296224A (en) Imaging means and program
WO2023189456A1 (en) Information processing device, information processing method, and recording medium
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP7237164B2 (en) IMAGING DEVICE, IMAGING METHOD, AND VIDEO PROCESSING PROGRAM
JP5520863B2 (en) Image signal processing device
KR20110060499A (en) Digital image processing device and control method
JP6725105B2 (en) Imaging device and image processing method
JP7038935B2 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140218

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150417

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150428

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150522