[go: up one dir, main page]

JP7492599B2 - Vehicle-mounted camera device - Google Patents

Vehicle-mounted camera device Download PDF

Info

Publication number
JP7492599B2
JP7492599B2 JP2022557355A JP2022557355A JP7492599B2 JP 7492599 B2 JP7492599 B2 JP 7492599B2 JP 2022557355 A JP2022557355 A JP 2022557355A JP 2022557355 A JP2022557355 A JP 2022557355A JP 7492599 B2 JP7492599 B2 JP 7492599B2
Authority
JP
Japan
Prior art keywords
sensitivity
arrangement
region
image
sensitivity region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022557355A
Other languages
Japanese (ja)
Other versions
JPWO2022080147A1 (en
Inventor
健 永崎
ユイビン ツーン
一雄 松浦
秀則 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2022080147A1 publication Critical patent/JPWO2022080147A1/ja
Application granted granted Critical
Publication of JP7492599B2 publication Critical patent/JP7492599B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像素子のハイダイナミックレンジ化の影響によりステレオカメラの距離計測が狂うという、測距誤差現象を解消するための車載カメラ装置に関する。 The present invention relates to an in-vehicle camera device that eliminates the ranging error phenomenon in which distance measurements by a stereo camera are distorted due to the high dynamic range of image sensors.

安全運転や自動運転に向けた社会的認知度の向上により、車載カメラ装置における各種物体認識や距離測定への要求精度が高まりつつある。ステレオカメラ装置は、画像による視覚的な情報と、画像内の対象物への距離情報を同時に計測するため、自動車周辺の様々な対象物(人、車、立体物、白線・路面、標識など)を詳細に把握でき、運転支援時の安全性の向上に寄与するデバイスである。また、ステレオカメラの特性として、対象とする物体の測距に関して空間分解能と精度が高いということが挙げられる。これは、単眼カメラと異なって三角測量に基づいて任意の物体への距離を測定できるためである。 As social awareness of safe driving and autonomous driving increases, the required accuracy for object recognition and distance measurement in vehicle-mounted camera devices is increasing. Stereo camera devices simultaneously measure visual information from images and distance information to objects in the images, allowing them to grasp various objects around the vehicle (people, cars, three-dimensional objects, white lines/road surfaces, signs, etc.) in detail, and are devices that contribute to improving safety during driving assistance. Another characteristic of stereo cameras is that they have high spatial resolution and accuracy when it comes to measuring the distance to the target object. This is because, unlike monocular cameras, they can measure the distance to any object based on triangulation.

車載カメラ装置の進化を支えるのが撮像素子の進化である。特に、今後の技術潮流の一つとして重要になって行くと考えられるのが、ハイダイナミックレンジ化(HDR:High Dynamic Range imaging)である。HDR撮像は、撮像素子や画像処理の工夫により、通常のCMOS素子で撮像するよりも、1枚の画像で撮像可能な対象物の明るさの幅が広がる。暗い所から明るい所までが、黒ツブレや白トビを起こさずに、1枚の画像として撮像できるため、特に外光・外環境の影響が大きい車載向けカメラにはメリットが大きい。 The evolution of in-vehicle camera equipment is driven by the evolution of image sensors. In particular, high dynamic range imaging (HDR) is expected to become an important technological trend in the future. HDR imaging uses ingenuity in image sensors and image processing to capture a wider range of subject brightness in a single image than with normal CMOS sensors. This is a major benefit for in-vehicle cameras, which are particularly susceptible to the effects of external light and the environment, as it can capture a wide range of subject brightness in a single image, from dark to bright areas, without causing shadow crush or white blowout.

一方で、ハイダイナミックレンジ対応の撮像素子を、ステレオカメラに適用しようとした場合の問題も見えてきた。これは、ステレオカメラに対する、物体への距離測定精度の要求レベルの高さに起因する問題である。車載ステレオカメラによる測距範囲は、基線長などのデバイスの規定にもよるが、最長で100から200mにも及ぶ。その際には、1画素未満のサブピクセルレベルで、左右カメラで撮像した画像同士の対応関係(視差)を調べる必要がある。サブピクセルレベルでの視差計算をする際に、さまざまな光学的外乱要因が存在する。例えば、フロントガラスの影響による光路の屈折や、レンズの焦点特性による投影光のぼかしなどである。また、ハイダイナミックレンジ化もまた測距に影響を与えることが分かってきた。On the other hand, problems have also emerged when applying high dynamic range imaging elements to stereo cameras. This problem is due to the high level of accuracy required for measuring the distance to an object for stereo cameras. The distance measurement range of an in-vehicle stereo camera can be as long as 100 to 200 m, depending on the device's specifications such as the baseline length. In this case, it is necessary to examine the correspondence (parallax) between the images captured by the left and right cameras at a sub-pixel level of less than one pixel. When calculating parallax at the sub-pixel level, there are various optical disturbance factors. For example, refraction of the light path due to the influence of the windshield and blurring of the projected light due to the focal characteristics of the lens. It has also been found that high dynamic range also affects distance measurement.

ハイダイナミックレンジ撮像は、カメラの撮像感度領域を広げる手段として一般的な技術であり、さまざまな処理手法・装置が提案されてきた。一般には、これをエーミング工程(エイミング工程)と称する。その例の一つとして特許文献1がある。High dynamic range imaging is a common technique for expanding the imaging sensitivity range of a camera, and various processing methods and devices have been proposed. This is generally referred to as the aiming process. One example is disclosed in Patent Document 1.

特許文献1は、画素アレイ部の低感度画素と高感度画素で撮像画素信号に基づいてダイナミックレンジが拡張された画像を生成する個体撮像装置に関する文献である。Patent document 1 is a document relating to a solid-state imaging device that generates an image with an expanded dynamic range based on imaging pixel signals using low sensitivity pixels and high sensitivity pixels in a pixel array section.

特開2015-201834号公報JP 2015-201834 A

特許文献1は、撮像素子の特長を生かしたハイダイナミックレンジ画像の撮像および合成について述べている。しかし、ハイダイナミックレンジ化に伴うステレオカメラ特有の課題、すなわちハイダイナミックレンジ化に伴う測距誤差の発生と、その対策については述べられていない。 Patent Document 1 describes the capturing and synthesis of high dynamic range images that take advantage of the characteristics of the image sensor. However, it does not discuss the issues specific to stereo cameras that come with a high dynamic range, namely the occurrence of distance measurement errors that come with a high dynamic range, and how to deal with these issues.

本発明は、上記の課題を鑑みてなされたものであり、その目的とするところは、例えば車載ステレオカメラ装置の特性に着目して、車載ステレオカメラ装置のみにて、ハイダイナミックレンジ化が与える測距誤差への影響を低減することであり、かつ、当該画像補正および撮像素子の配置構成を有した車載カメラ装置を提供することである。The present invention has been made in consideration of the above problems, and its purpose is to reduce the impact of high dynamic range on distance measurement errors using only an in-vehicle stereo camera device, for example, by focusing on the characteristics of the in-vehicle stereo camera device, and to provide an in-vehicle camera device having such image correction and image sensor arrangement configuration.

上記課題を解決する本発明の車載カメラ装置は、第1の感度領域、および前記第1の感度領域の周囲にある第2の感度領域をペアとして含む第1のHDR撮像素子と、第3の感度領域、および前記第3の感度領域の周囲にある第4の感度領域をペアとして含む第2のHDR撮像素子と、を有し、前記第1の感度領域からの信号、および前記第2の感度領域からの信号に対する重み、または前記第3の感度領域からの信号、および前記第4の感度領域からの信号に対する重み、の少なくとも1つを前記第1の感度領域と前記第2の感度領域との配列または前記第3の感度領域と前記第4の感度領域との配列の偏りに応じて変更する、もしくは、前記第1の感度領域と前記第2の感度領域との配列または前記第3の感度領域と前記第4の感度領域との配列に応じて、出力する信号のペアを変更する、あるいは、前記第1の感度領域と前記第2の感度領域との配列と前記第3の感度領域と前記第4の感度領域との配列とは同じ配列であることを特徴とする。The in-vehicle camera device of the present invention, which solves the above problem, has a first HDR imaging element including a first sensitivity area and a second sensitivity area around the first sensitivity area as a pair, and a second HDR imaging element including a third sensitivity area and a fourth sensitivity area around the third sensitivity area as a pair, and is characterized in that at least one of the weights for the signals from the first sensitivity area and the second sensitivity area, or the weights for the signals from the third sensitivity area and the fourth sensitivity area, is changed according to the bias of the arrangement of the first sensitivity area and the second sensitivity area or the arrangement of the third sensitivity area and the fourth sensitivity area, or the pair of signals to be output is changed according to the arrangement of the first sensitivity area and the second sensitivity area or the arrangement of the third sensitivity area and the fourth sensitivity area, or the arrangement of the first sensitivity area and the second sensitivity area and the arrangement of the third sensitivity area and the fourth sensitivity area are the same arrangement.

本発明によれば、例えば車載ステレオカメラ装置において、対象物の横位置や距離や輝度によって異なる、ハイダイナミックレンジ化の影響による測距誤差を吸収し、測距がより正確になるという効果がある。 According to the present invention, for example in an in-vehicle stereo camera device, the effect of absorbing distance measurement errors caused by high dynamic range, which vary depending on the lateral position, distance, and brightness of the object, is achieved, thereby making distance measurement more accurate.

また、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 In addition, issues, configurations and effects other than those described above will become clear from the description of the embodiments below.

本実施形態の車載ステレオカメラシステムの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an in-vehicle stereo camera system according to an embodiment of the present invention; 車載ステレオカメラ装置の内部における処理フロー図。FIG. 4 is a process flow diagram inside the vehicle-mounted stereo camera device. ハイダイナミックレンジ化の課題を示した図。A diagram showing the challenges of achieving a high dynamic range. 本実施形態によるデータ処理の全体像。1 shows an overall view of data processing according to this embodiment. 本実施形態による車載ステレオカメラ装置の内部のデータ処理の処理フロー図。FIG. 4 is a process flow diagram of data processing inside the vehicle-mounted stereo camera device according to the present embodiment. 画像合成イメージ図。Image synthesis concept diagram. 撮像素子上の受光部の配置イメージ図。An image of the arrangement of light receiving sections on an image sensor. 撮像素子配置の規定イメージ図。A diagram showing the prescribed arrangement of image sensors. 撮像素子上の受光部の配置イメージ図。An image of the arrangement of light receiving sections on an image sensor.

次に、本発明の実施形態について図面を用いて以下に説明する。なお、各図において同じ機能を有する部分には同じ符号を付して繰り返し説明は省略する場合がある。Next, an embodiment of the present invention will be described below with reference to the drawings. Note that in each drawing, parts having the same functions are designated by the same reference numerals, and repeated description may be omitted.

図1は、本発明の一実施形態に係る車載ステレオカメラ装置100を備える車載システム(車載ステレオカメラシステム)の概略構成を示すブロック図である。図2は、図1に示す車載ステレオカメラ装置100の内部における、認識アプリケーションが駆動する処理部の処理フロー図である。 Figure 1 is a block diagram showing a schematic configuration of an in-vehicle system (in-vehicle stereo camera system) including an in-vehicle stereo camera device 100 according to one embodiment of the present invention. Figure 2 is a process flow diagram of a processing unit driven by a recognition application inside the in-vehicle stereo camera device 100 shown in Figure 1.

本実施形態の車載ステレオカメラ装置100は、車両に搭載され、車両前方の撮影対象領域の画像情報に基づいて車外環境を認識する装置である。車載ステレオカメラ装置100は、例えば、道路の白線、歩行者、車両、その他の立体物、信号、標識、点灯ランプなどの認識を行い、当該車載ステレオカメラ装置100を搭載した車両(自車両)のブレーキ、ステアリング調整などの調整を行う。また、車載ステレオカメラ装置100を車両に搭載した後に、車両工場において光軸や測距誤差の補正量等を計算するエーミング処理も本装置によって行う。The in-vehicle stereo camera device 100 of this embodiment is a device that is mounted on a vehicle and recognizes the environment outside the vehicle based on image information of the area to be photographed in front of the vehicle. The in-vehicle stereo camera device 100 recognizes, for example, white lines on the road, pedestrians, vehicles, other three-dimensional objects, traffic lights, signs, and lit lamps, and adjusts the brakes, steering, and other adjustments of the vehicle (own vehicle) on which the in-vehicle stereo camera device 100 is mounted. In addition, after the in-vehicle stereo camera device 100 is mounted on the vehicle, the device also performs an aiming process in which the amount of correction for the optical axis and distance measurement error is calculated at the vehicle factory.

車載ステレオカメラ装置100は、画像情報を取得する左右に横並びに配置された2つのカメラ101、102(左カメラ101、右カメラ102)と、カメラ101、102で取得した画像情報に基づいて画像内の対象物(物体)の認識処理などを行う処理装置110とを有する。処理装置110は、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等のメモリ等を備えるコンピュータとして構成されている。処理装置110の各機能は、ROMに記憶されたプログラムをプロセッサが実行することによって実現される。RAMは、プロセッサが実行するプログラムによる演算の中間データ等を含むデータを格納する。The in-vehicle stereo camera device 100 has two cameras 101, 102 (left camera 101, right camera 102) arranged side by side to acquire image information, and a processing device 110 that performs recognition processing of objects in an image based on the image information acquired by the cameras 101, 102. The processing device 110 is configured as a computer equipped with a processor such as a CPU (Central Processing Unit), and memories such as a ROM (Read Only Memory), RAM (Random Access Memory), and HDD (Hard Disk Drive). Each function of the processing device 110 is realized by the processor executing a program stored in the ROM. The RAM stores data including intermediate data of calculations performed by the program executed by the processor.

処理装置110は、カメラ101、102の撮像を制御して、撮像した画像を取り込むための画像入力インタフェース103を持つ。この画像入力インタフェース103を通して取り込まれた画像は、内部バス109を通してデータが送られ、画像処理部104や、演算処理部105で処理され、処理途中の結果や最終結果となる画像データなどが記憶部106に記憶される。The processing device 110 has an image input interface 103 for controlling the imaging of the cameras 101 and 102 and importing the captured images. The image data imported through this image input interface 103 is sent via an internal bus 109 and processed by an image processing unit 104 and an arithmetic processing unit 105, and the intermediate results and image data that are the final results are stored in a storage unit 106.

画像処理部104は、カメラ101の撮像素子から得られる第1の画像(左画像)と、カメラ102の撮像素子から得られる第2の画像(右画像)とを比較して、それぞれの画像に対して、撮像素子に起因するデバイス固有の偏差の補正や、ノイズ補間などの画像補正を行い、これを記憶部106に記憶する。更に第1および第2の画像の間で、相互に対応する箇所を計算して、視差情報を計算し、先程と同様に、これを記憶部106に記憶する。The image processing unit 104 compares a first image (left image) obtained from the imaging element of the camera 101 with a second image (right image) obtained from the imaging element of the camera 102, performs image correction such as correction of device-specific deviations caused by the imaging element and noise interpolation on each image, and stores the results in the memory unit 106. Furthermore, it calculates the corresponding points between the first and second images to calculate disparity information, and stores this in the memory unit 106 as before.

演算処理部105は、記憶部106に蓄えられた画像および視差情報(画像上の各点に対する距離情報)を使い、車両周辺の環境を知覚するために必要な、各種物体の認識を行う。各種物体とは、人、車、その他の障害物、信号機、標識、車のテールランプやヘッドライト、などである。これら認識結果や中間的な計算結果の一部が、先程と同様に記憶部106に記録される。演算処理部105は、撮像した画像に対して各種物体認識を行った後に、これら認識結果を用いて車両の制御方針を計算する。The arithmetic processing unit 105 uses the images and parallax information (distance information for each point on the image) stored in the memory unit 106 to recognize various objects necessary for perceiving the environment around the vehicle. The various objects include people, cars, other obstacles, traffic lights, signs, car taillights and headlights, etc. These recognition results and some of the intermediate calculation results are recorded in the memory unit 106 as before. After performing various object recognition on the captured images, the arithmetic processing unit 105 uses these recognition results to calculate the vehicle control policy.

計算の結果として得られた車両の制御方針や、物体認識結果の一部は、CANインタフェース107を通して、車載ネットワークCAN111に伝えられ、これにより車両の制動が行われる。また、これらの動作について、各処理部が異常動作を起こしていないか、データ転送時にエラーが発生していないかどうかなどを、制御処理部108が監視しており、異常動作を防ぐ仕掛けとなっている。The vehicle control policy obtained as a result of the calculation and some of the object recognition results are transmitted to the in-vehicle network CAN 111 via the CAN interface 107, which causes the vehicle to brake. In addition, the control processing unit 108 monitors these operations to see if any of the processing units are operating abnormally or if any errors have occurred during data transfer, thus preventing any abnormal operations.

上記の画像処理部104は、内部バス109を介して制御処理部108、記憶部106、演算処理部105およびカメラ101、102の撮像素子との間の入出力部である画像入力インタフェース103と外部の車載ネットワークCAN111との入出力部であるCANインタフェース107に接続されている。制御処理部108、画像処理部104、記憶部106、演算処理部105、および入出力部103、107は、単一または複数のコンピュータユニットにより構成されている。記憶部106は、例えば画像処理部104によって得られた画像情報や、演算処理部105によって走査された結果作られた画像情報等を記憶するメモリ等により構成されている。外部の車載ネットワークCAN111との入出力部であるCANインタフェース107は、車載ステレオカメラ装置100から出力された情報を、車載ネットワークCAN111を介して自車両の制御システムに出力する。The image processing unit 104 is connected to the control processing unit 108, the storage unit 106, the arithmetic processing unit 105, and the image input interface 103, which is an input/output unit between the image pickup elements of the cameras 101 and 102, and the CAN interface 107, which is an input/output unit between the external in-vehicle network CAN 111, via the internal bus 109. The control processing unit 108, the image processing unit 104, the storage unit 106, the arithmetic processing unit 105, and the input/output units 103 and 107 are composed of a single or multiple computer units. The storage unit 106 is composed of a memory that stores, for example, image information obtained by the image processing unit 104 and image information created as a result of scanning by the arithmetic processing unit 105. The CAN interface 107, which is an input/output unit with the external in-vehicle network CAN 111, outputs information output from the in-vehicle stereo camera device 100 to the control system of the vehicle via the in-vehicle network CAN 111.

上記に各処理部の機能を述べたが、次に図2を基に、車載ステレオカメラ装置100の内部における処理フローを述べることにする。The functions of each processing unit have been described above. Next, we will describe the processing flow within the in-vehicle stereo camera device 100 with reference to Figure 2.

まず、左右のカメラ101、102により画像が撮像され(S201、S202)、各々で撮像した画像データ121、122のそれぞれについて、撮像素子が持つ固有の癖を吸収するための補正などの画像処理を行う(S203)。次に、左カメラ101と右カメラ102から得られた左右画像を比較して、左右画像の対応点を計算する視差計算を行う(S204)。その結果などは、図1の記憶部106に蓄えられる。視差計算の結果と左右カメラで撮像した画像を使って、物体検知を行う(S205)。さらに、検知した物体、すなわち何らかの立体物の塊に対して、物体認識を行い(S206)、当該物体が歩行者なのか車両なのかなどの判断を行う。物体認識の対象物としては、人、車、自転車、バイク、その他の立体物、標識、信号機、テールランプ等の自発光体などがあるが、撮像した画像および視差計算結果を使った物体認識を行う際には、必要に応じて認識辞書を利用する。認識辞書は、事前に機械学習などの手段によって作成されたデータであり、車載ステレオカメラ装置100上の記憶部106に蓄えられている。First, images are captured by the left and right cameras 101 and 102 (S201, S202), and image processing such as correction to absorb the inherent characteristics of the image sensor is performed on each of the image data 121 and 122 captured by each camera (S203). Next, the left and right images obtained from the left camera 101 and the right camera 102 are compared, and a parallax calculation is performed to calculate corresponding points in the left and right images (S204). The results are stored in the memory unit 106 in FIG. 1. Object detection is performed using the results of the parallax calculation and the images captured by the left and right cameras (S205). Furthermore, object recognition is performed on the detected object, i.e., a mass of some three-dimensional object (S206), and it is determined whether the object is a pedestrian or a vehicle. Objects to be recognized include people, cars, bicycles, motorcycles, other three-dimensional objects, signs, traffic lights, taillights, and other self-luminous objects, but when performing object recognition using the captured images and the parallax calculation results, a recognition dictionary is used as necessary. The recognition dictionary is data that has been created in advance by means of machine learning or the like, and is stored in the storage unit 106 of the in-vehicle stereo camera device 100 .

物体認識の結果と、自車両の状態(速度、舵角など)とを勘案して、車両制御処理が行われる(S207)。車両制御処理(S207)とは、例えば、乗員に警告を発し、自車両のブレーキングや舵角調整などの制動である。車両制御に関する情報は、車載ステレオカメラ装置100からCANインタフェース107を通して出力される。各種物体認識処理(S206)および車両制御処理(S207)は、図1の演算処理部105で行われ、車載ネットワークCAN111への出力は、CANインタフェース107にて行われる。これらの各処理・各手段は、例えば単一または複数のコンピュータユニットにより構成され、相互にデータを交換可能に構成されている。Taking into consideration the object recognition results and the state of the vehicle (speed, steering angle, etc.), vehicle control processing is performed (S207). The vehicle control processing (S207) is, for example, issuing a warning to the occupants and braking the vehicle, adjusting the steering angle, etc. Information related to vehicle control is output from the in-vehicle stereo camera device 100 through the CAN interface 107. Various object recognition processing (S206) and vehicle control processing (S207) are performed by the arithmetic processing unit 105 in FIG. 1, and output to the in-vehicle network CAN 111 is performed by the CAN interface 107. Each of these processing and means is, for example, configured by a single or multiple computer units, and is configured to be able to exchange data with each other.

図3は、ハイダイナミックレンジに対応した撮像素子(HDR撮像素子)を使った場合の、ステレオカメラに与える影響を示したものである。ハイダイナミックレンジに対応した撮像素子の種類及び手法には様々な方法があるが、ここでは受光感度の異なる素子(感度領域)が撮像素子上に配置されたものを対象とする。301は撮像素子のイメージであり、この上に受光感度の異なる2つの受光部A(302)(第1の感度領域、第3の感度領域)と受光部B(303)(第2の感度領域、第4の感度領域)が配置されているとする。仮に、受光部Aは通常の明るさを撮像するのに向いている通常感度受光部、受光部Bは明るい物体を撮像するのに向いている低感度受光部、とする。一般には2つの受光部A、受光部Bが304のようにペアとなっていて、この2つの受光部A、受光部Bで受けた光量を電子として蓄積し、2つの受光素子から得られた電子データ(信号)を何らかの形で合成して、1ピクセル分の画素値とする。 Figure 3 shows the effect on a stereo camera when an image sensor (HDR image sensor) compatible with a high dynamic range is used. There are various types and methods of image sensors compatible with a high dynamic range, but here we focus on an image sensor in which elements (sensitivity regions) with different light receiving sensitivities are arranged on the image sensor. 301 is an image of an image sensor, on which two light receiving sections A (302) (first sensitivity region, third sensitivity region) and light receiving section B (303) (second sensitivity region, fourth sensitivity region) with different light receiving sensitivities are arranged. Assuming that light receiving section A is a normal sensitivity light receiving section suitable for capturing images of normal brightness, and light receiving section B is a low sensitivity light receiving section suitable for capturing images of bright objects. Generally, two light receiving sections A and B are paired as shown in 304, and the amount of light received by these two light receiving sections A and B is stored as electrons, and the electronic data (signals) obtained from the two light receiving elements are somehow combined to obtain the pixel value for one pixel.

このようにハイダイナミックレンジに対応した撮像素子をステレオカメラのステレオ視に向けて適用しようとした場合、撮像素子の配置と対象物体の輝度が視差計算に影響するという問題が生じる。図3の下段に示した305と307はステレオカメラの左右において撮像素子の配置を左右対称にした場合の事例である。ここでは、左カメラ101の撮像素子のイメージが305であり、その上に、外界にある物体から投影された光が306に投影されているとする。同様に、307は右カメラ102の撮像素子のイメージであり、その上の受光部A・Bの並びは305に対して線対称となっている。また、右カメラ102への物体の投影位置は308とする。 When applying an image sensor compatible with such a high dynamic range to the stereo vision of a stereo camera, a problem occurs in that the arrangement of the image sensor and the brightness of the target object affect the parallax calculation. 305 and 307 shown in the lower part of Figure 3 are examples of the case where the image sensor is arranged symmetrically on the left and right of the stereo camera. Here, the image of the image sensor of the left camera 101 is 305, and light projected from an object in the outside world is projected onto it at 306. Similarly, 307 is the image of the image sensor of the right camera 102, and the arrangement of light receiving parts A and B above it is line-symmetrical with respect to 305. The projection position of the object onto the right camera 102 is 308.

このような撮像素子の配置において生じる問題は、物体の輝度による視差のズレである。例えば、物体の輝度が低い場合は、受光部A(302)で撮像した信号強度が画像の輝度値となる。ここから物体の輝度値が上がっていった場合、左カメラ101では右上の受光部B(303)で受けた光量が画像の輝度値に反映されていくことになる。一方で、右カメラ102で受けた場合は、ペアとなっている受光部が左上の受光部B(303)であるため、ここで受けた輝度値が反映されることになる。このことは、物体の輝度値が上がるにつれて、左右のカメラ101、102において受光する物理的位置が、左右で異なる方向に移動して行くことを意味する。このことは、ステレオ視における視差計算において、異なる距離の算出に結び付くことになる。具体的な例では、夕暮れや夜間などの車両検知において、車両の胴体部分とランプ部分において視差値、すなわち距離が異なってくると、1つの物体としてまとめることができなくなったり、車体の傾きの計算に悪影響を生じるといったことが考えられる。A problem that arises in such an arrangement of imaging elements is the shift in parallax due to the luminance of the object. For example, when the luminance of the object is low, the signal strength captured by the light receiving unit A (302) becomes the luminance value of the image. If the luminance value of the object increases from here, the amount of light received by the light receiving unit B (303) in the upper right of the left camera 101 will be reflected in the luminance value of the image. On the other hand, when the light receiving unit is received by the right camera 102, the paired light receiving unit is the light receiving unit B (303) in the upper left, so the luminance value received here will be reflected. This means that as the luminance value of the object increases, the physical positions at which light is received by the left and right cameras 101 and 102 move in different directions on the left and right. This leads to the calculation of different distances in the parallax calculation in stereo vision. As a specific example, when detecting a vehicle at dusk or night, if the parallax value, i.e., the distance, differs between the body part and the lamp part of the vehicle, it may not be possible to group them together as one object, or it may have a negative effect on the calculation of the inclination of the vehicle body.

この問題を解決するためには、ステレオ視に使うための左右カメラ101、102の画像を作る場合に、撮像素子の配置に応じて処理を変更しなければならない。このデータ処理の全体像を示したものが図4である。To solve this problem, when creating images from the left and right cameras 101 and 102 for stereo vision, the processing must be changed according to the arrangement of the image sensors. Figure 4 shows an overview of this data processing.

まず、ステレオカメラ製造時の工程(S401)では、撮像素子とレンズなどを組み合わせた撮像モジュールを組み立てて(S402)、次に撮像モジュールを2個使ってステレオカメラとして組み立てて(S403)、正しく組み立てられたか、撮像素子は機能するかなどをチェックする(S404)という工程からなる。このとき、S402の撮像モジュール組み立てと、S403のステレオカメラ組み立てのプロセス・設計によって、どのような撮像素子が、左右にどのように配置されるかが決まることになる。これをS410のように配置特性情報としてステレオカメラ上に記録しておく。 First, the process for manufacturing a stereo camera (S401) involves assembling an imaging module combining an imaging element and a lens, etc. (S402), then assembling two imaging modules into a stereo camera (S403), and checking whether the assembly is correct and whether the imaging elements function (S404). At this time, the type of imaging element to be arranged on the left and right and how it will be arranged are determined by the process and design of the imaging module assembly in S402 and the stereo camera assembly in S403. This is recorded on the stereo camera as arrangement characteristic information as in S410.

次に、車載ステレオカメラ装置100を装着した車両が実路を走行する場合においては(S405)、左右カメラ101、102の受光部A(302)及び受光部B(303)で画像を撮像し(S406、S407)、撮像した画像を、一旦、局所バッファまたはメモリに格納し(S408)、ステレオカメラ製造時の情報を基に定まった配置特性情報(S410)に応じて、受光部A(302)により得た画像・輝度値と、受光部B(303)により得た画像・輝度値とを合成して(S409)、これを後段の画像処理および視差計算処理に回す(S411)という流れになる。すなわち、ステレオカメラのハイダイナミックレンジ化への対応には、何らかの形での左右撮像素子の配置特性との連携または制約が必要となる。Next, when a vehicle equipped with the in-vehicle stereo camera device 100 travels on a real road (S405), images are captured by the light receiving units A (302) and B (303) of the left and right cameras 101 and 102 (S406, S407), the captured images are temporarily stored in a local buffer or memory (S408), and the image and brightness values obtained by the light receiving unit A (302) and the image and brightness values obtained by the light receiving unit B (303) are synthesized (S409) according to the arrangement characteristic information (S410) determined based on the information at the time of manufacturing the stereo camera, and this is sent to the subsequent image processing and parallax calculation processing (S411). In other words, in order to respond to the high dynamic range of the stereo camera, some kind of cooperation or constraint with the arrangement characteristics of the left and right image pickup elements is required.

配置特性情報S410に応じた画像合成S409の処理については、後程、図6~図8の説明のところで述べる。基本的な考え方は、感度の異なる受光素子(感度領域)の配置位置や各感度の受光素子の配置面積などを考慮して、感度別の受光素子によって得られた各画像から重み付き線形演算などの計算量の軽い演算によって、新しい合成画像を得るという処理となる。重み付き線形演算の際に用いる係数は、受光素子の配置位置および配置面積などを考慮して決められる。The image synthesis S409 process according to the arrangement characteristic information S410 will be described later in the explanation of Figures 6 to 8. The basic idea is to take into account the arrangement positions of light receiving elements (sensitivity areas) with different sensitivities and the arrangement area of the light receiving elements of each sensitivity, and to obtain a new synthesized image by a light-intensive calculation such as a weighted linear calculation from each image obtained by light receiving elements with different sensitivities. The coefficients used in the weighted linear calculation are determined taking into account the arrangement positions and arrangement area of the light receiving elements.

図5は、前述の処理を、より車載ステレオカメラ装置100の内部のデータ処理において位置付けた図である。左カメラ101または右カメラ102における受光部A群(複数の受光部A)または受光部B群(複数の受光部B)から得られた画像は(S501、S502)、先ほど述べたように製造情報または設計情報として得られる撮像素子の配置特性情報(S505)を使って、それぞれにおいて受光部Aの画像および受光部Bの画像を合成し(S503、S504)、左カメラ101からの出力画像、右カメラ102からの出力画像とする。この画像合成は、カメラモジュールにおいて処理されても良いし、データをメモリに送ったのちに、視差計算の直前で左右それぞれで画像を合成する処理を行っても良い。更に、S506ではレンズ歪などを補正するための画像補正を行う。以上の処理を経て、左カメラ101、右カメラ102により得られた正規化された左右画像を基に視差計算(S507)を行う。視差計算の結果として得られた視差画像を基に、物体の検知(S508)および測距・認識(S509)を行い、その結果を用いて車両制御の計算を行い(S510)、その結果を車載ネットワークCAN111などを通して出力する。 Figure 5 is a diagram in which the above-mentioned processing is positioned in the data processing inside the in-vehicle stereo camera device 100. Images obtained from the light receiving unit A group (multiple light receiving units A) or the light receiving unit B group (multiple light receiving units B) in the left camera 101 or the right camera 102 (S501, S502) are synthesized (S503, S504) using the arrangement characteristic information of the imaging element obtained as manufacturing information or design information as described above (S505), and the image of the light receiving unit A and the image of the light receiving unit B are output from the left camera 101 and the right camera 102. This image synthesis may be processed in the camera module, or after sending the data to memory, a process of synthesizing the left and right images may be performed immediately before the parallax calculation. Furthermore, in S506, image correction is performed to correct lens distortion, etc. After the above processing, parallax calculation (S507) is performed based on the normalized left and right images obtained by the left camera 101 and the right camera 102. Based on the disparity image obtained as a result of the disparity calculation, object detection (S508) and distance measurement/recognition (S509) are performed, and the results are used to perform vehicle control calculations (S510), and the results are output via the in-vehicle network CAN 111 or the like.

図6は画像合成のイメージである。先ほど述べたように、受光部A画像601と受光部B画像602を基に、合成画像603を作成する。これを左右カメラ101、102の画像に対してそれぞれ実施し、正規化された左右画像を対象として視差計算を行うことで、ステレオカメラのハイダイナミックレンジ化によって生じた視差計算上の不具合(対象物の輝度による距離のズレ等)に対処することができる。 Figure 6 shows an image synthesis. As mentioned earlier, a synthetic image 603 is created based on a light receiving unit A image 601 and a light receiving unit B image 602. This is performed on the images from the left and right cameras 101 and 102, respectively, and disparity calculation is performed on the normalized left and right images, which makes it possible to address problems in disparity calculation caused by the high dynamic range of the stereo camera (such as distance discrepancies due to the brightness of the object).

図7は撮像素子上の受光部の配置のイメージであり、図7および数式1、数式2は画像合成の際の重みを示したものである。本例の画像合成は、受光部A(302)で得た輝度値と、周辺の受光部B(303)で得た輝度値とを勘案して、ある画像の輝度値を決定する処理である。単純にはステレオカメラの撮像素子の配置によって(すなわち、受光部Aと受光部Bとの配列に応じて)、計算する受光部A/B(出力する輝度値に対応)のペアの配置を変更する(例えば、図3の下段に示した右カメラ102で、受光部A(302)のペアとなっている受光部B(303)を左上から右上に変更し、受光する物理的位置を同じ方向にする)といったことが考えられるが、もう少し高級な処理としては受光部A(302)の四隅周辺にある受光部B(303)の配置によって(すなわち、受光部Aと受光部Bとの配列の偏りに応じて)、輝度値に対する重みを変えることが考えられる。この重みは、受光部A(302)および受光部B(303)が撮像素子上に物理的に実際に配置されている位置および面積などを考慮して決めた方が、視差に与える影響が少なくなる。 Figure 7 shows an image of the arrangement of light receiving parts on the image sensor, and Figure 7, Equation 1, and Equation 2 show the weights used in image synthesis. Image synthesis in this example is a process that determines the luminance value of an image by taking into account the luminance value obtained by light receiving part A (302) and the luminance value obtained by the surrounding light receiving part B (303). A simple method would be to change the arrangement of the pair of light receiving parts A/B (corresponding to the output luminance value) to be calculated depending on the arrangement of the image sensor of the stereo camera (i.e., depending on the arrangement of light receiving parts A and B) (for example, in the right camera 102 shown in the lower part of Figure 3, the light receiving part B (303) paired with light receiving part A (302) is changed from the upper left to the upper right, so that the physical position of receiving light is in the same direction), but a more advanced process would be to change the weight for the luminance value depending on the arrangement of light receiving part B (303) around the four corners of light receiving part A (302) (i.e., depending on the bias in the arrangement of light receiving part A and light receiving part B). The influence on the parallax is reduced if the weights are determined taking into consideration the actual physical positions and areas of the light receiving section A (302) and the light receiving section B (303) on the image sensor.

例えば、701は受光部A(302)に対して受光部B(303)が四隅で均等に配置されている事例である(領域702参照)。この場合は以下の数式1のように、受光部A(302)の輝度値に対して受光部B(303)の輝度値がある割合で均等になっている配置ということが考えられる。

Figure 0007492599000001
For example, 701 is an example where light receiving section B (303) is evenly arranged at the four corners relative to light receiving section A (302) (see area 702). In this case, it is considered that the arrangement is such that the luminance value of light receiving section B (303) is equal to the luminance value of light receiving section A (302) at a certain ratio, as shown in the following formula 1.
Figure 0007492599000001

一方で、703は受光部B(303)の物理的配置が受光部A(302)に対して不均等になっている例である(領域704参照)。この場合は、受光部B(303)の面積や、受光部B(303)のそれぞれの位置に応じて(つまり、受光部Aに対する受光部Bの配列の偏りに応じて)、輝度値に対する重みを変更することが考えられる。以下の数式2はその一例である。この重みをどのように設計するかについては、様々なアプローチが考えられるが、例えば積分画像の考え方を用いたり、サンプリング理論に基づく重み配置などが考えらえる。また、左右のカメラ101、102において受光素子のペアを合わせるという処理を、重み付き画像合成で行う場合は、ペアとして設定する受光素子に対する係数を1とし、その他の係数を0とすることで、同様の効果を得ることができる。

Figure 0007492599000002
On the other hand, 703 is an example where the physical arrangement of the light receiving unit B (303) is uneven with respect to the light receiving unit A (302) (see region 704). In this case, it is possible to change the weight for the luminance value according to the area of the light receiving unit B (303) and the respective positions of the light receiving unit B (303) (i.e., according to the bias of the arrangement of the light receiving unit B with respect to the light receiving unit A). The following formula 2 is an example. There are various approaches to designing the weight, for example, the idea of integral images can be used, or weight arrangement based on sampling theory can be considered. In addition, when the process of matching pairs of light receiving elements in the left and right cameras 101 and 102 is performed by weighted image synthesis, the same effect can be obtained by setting the coefficient for the light receiving elements set as a pair to 1 and the other coefficients to 0.
Figure 0007492599000002

積分画像によるサンプリングについて図8を基に述べる。図8は、撮像素子配置の規定のイメージである。801にあるように、感度Bの撮像素子802に着目して、そこから画像P(i,j)が得られたとする。仮に、感度Aの撮像素子の存在する星領域803の位置に、もしも感度Bの撮像素子が存在した場合に得られる輝度値を推定できれば、対象物の輝度差によるステレオ視上の測距誤差は生じないはずである。そこで星領域803における感度Bの撮像素子での輝度値を、重みづけして求めることになるが、その際に、積分画像の考え方から重みを導くことができる。まず、感度Bの撮像素子から得られた画像P(i,j)から、その積分画像値S(i,j)を以下の数式3によって求める。

Figure 0007492599000003
Sampling by integral image will be described with reference to FIG. 8. FIG. 8 is a standard image of the arrangement of image sensors. As shown in 801, focus on the image sensor 802 with sensitivity B, and assume that an image P(i,j) is obtained from it. If it is possible to estimate the luminance value obtained when an image sensor with sensitivity B exists at the position of the star region 803 where the image sensor with sensitivity A exists, a distance measurement error in stereo vision due to the luminance difference of the object should not occur. Therefore, the luminance value of the image sensor with sensitivity B in the star region 803 is obtained by weighting, and at that time, the weighting can be derived from the concept of integral images. First, the integral image value S(i,j) of the image P(i,j) obtained from the image sensor with sensitivity B is obtained by the following formula 3.
Figure 0007492599000003

これによって得られた積分画像804に対して、星領域803に対応する輝度値は、805の矩形エリア内の輝度値として以下の数式4により計算できる。

Figure 0007492599000004
For the integral image 804 obtained in this way, the luminance value corresponding to the star region 803 can be calculated as the luminance value within a rectangular area 805 by the following Equation 4.
Figure 0007492599000004

この数式4では、輝度値は、積分画像の特性を利用して、矩形エリア805の四隅の座標(左上点、左下点、右上点、右下点)から、積分画像上の線形和によって計算できる。矩形エリア805の四隅の座標は、撮像素子上の感度Bの撮像素子の位置・面積および、感度Aの撮像素子の位置・面積から導かれ、一般には整数値にならない。従って、非整数座標値(x,y)に対する積分画像値S(x,y)は、その周辺の整数値から線形補完などで求めることになる。非整数座標値(x,y)に対する積分画像値S(x,y)は、その周辺の整数座標に関する積分画像値S(i,j)の線形関数として表すことができ、更に整数座標に対する積分画像値S(i,j)は、感度Bから得られる原画像P(i,j)の線形和で表されるため、よって、星領域803に対する感度Bによる推定輝度値は、原画像P(i,j)の線形和として表現することができる。このときの係数が、画像合成の際の重みとして利用できる。In this formula 4, the brightness value can be calculated by linear summation on the integral image from the coordinates of the four corners of the rectangular area 805 (upper left point, lower left point, upper right point, lower right point) using the characteristics of the integral image. The coordinates of the four corners of the rectangular area 805 are derived from the position and area of the image sensor with sensitivity B on the image sensor and the position and area of the image sensor with sensitivity A, and generally do not become integer values. Therefore, the integral image value S(x,y) for the non-integer coordinate value (x,y) is obtained by linear interpolation from the integer values around it. The integral image value S(x,y) for the non-integer coordinate value (x,y) can be expressed as a linear function of the integral image value S(i,j) for the integer coordinates around it, and further, the integral image value S(i,j) for the integer coordinates is expressed as a linear sum of the original image P(i,j) obtained from the sensitivity B. Therefore, the estimated brightness value by the sensitivity B for the star region 803 can be expressed as a linear sum of the original image P(i,j). The coefficients at this time can be used as weights when synthesizing images.

また、これらの重み変更処理を計算量軽減化のために減らしたい場合は、そもそもの撮像素子の配置を左右において、複数ある受光感度の素子の配置が一致する形に(詳しくは、受光感度の異なるペアとなる素子が同一方向になるように)、左右カメラ101、102で配置するという工夫もある。それを示したのが図9である。ここでは、重み付き画像合成ではなく、あらかじめ左右で受光素子の配置を統一する(同じ配列にする)場合に想定される左右カメラ101、102への撮像素子の配置の例を挙げている(図9では、4例)。重み付き画像合成が困難な場合は、図9に示すように、左右カメラ101、102における受光素子の配置を工夫することにより、ハイダイナミックレンジ化された車載ステレオカメラ装置100における課題に対処することが可能となる。 In addition, if you want to reduce the amount of calculation required for these weight change processes, you can arrange the image pickup elements on the left and right cameras 101 and 102 so that the arrangement of the elements with multiple light receiving sensitivities matches (more specifically, so that the elements that form a pair with different light receiving sensitivities are in the same direction). This is shown in Figure 9. Here, we list examples of the arrangement of image pickup elements on the left and right cameras 101 and 102 that are assumed when the arrangement of the light receiving elements on the left and right is unified (the same arrangement) in advance, rather than weighted image synthesis (four examples in Figure 9). If weighted image synthesis is difficult, it is possible to address the issues in the high dynamic range in-vehicle stereo camera device 100 by devising the arrangement of the light receiving elements in the left and right cameras 101 and 102 as shown in Figure 9.

以上で説明したように、本実施形態の車載ステレオカメラ装置(車載カメラ装置)100は、第1の感度領域、および前記第1の感度領域の周囲にある第2の感度領域を(画像合成の際の)ペアとして含む(つまり、第1の感度領域から得られた信号(画像の輝度値)と第2の感度領域から得られた信号(画像の輝度値)とを合成して、画像の1ピクセル分の画素値として出力する)第1のHDR撮像素子と、第3の感度領域、および前記第3の感度領域の周囲にある第4の感度領域を(画像合成の際の)ペアとして含む(つまり、第3の感度領域から得られた信号(画像の輝度値)と第4の感度領域から得られた信号(画像の輝度値)とを合成して、画像の1画素分の画素値として出力する)第2のHDR撮像素子と、を有し、(画像・輝度値を合成する際の)前記第1の感度領域からの信号、および前記第2の感度領域からの信号に対する重み、または前記第3の感度領域からの信号、および前記第4の感度領域からの信号に対する重み、の少なくとも1つを前記第1の感度領域と前記第2の感度領域との配列または前記第3の感度領域と前記第4の感度領域との配列の偏りに応じて変更する、もしくは、前記第1の感度領域と前記第2の感度領域との配列または前記第3の感度領域と前記第4の感度領域との配列に応じて、出力する信号(輝度値)のペアを変更する、あるいは、前記第1の感度領域と前記第2の感度領域との配列と前記第3の感度領域と前記第4の感度領域との配列とは同じ配列であることを特徴とする。As described above, the in-vehicle stereo camera device (in-vehicle camera device) 100 of this embodiment includes a first HDR imaging element including a first sensitivity region and a second sensitivity region surrounding the first sensitivity region as a pair (when synthesizing images) (i.e., a signal obtained from the first sensitivity region (brightness value of the image) and a signal obtained from the second sensitivity region (brightness value of the image) are synthesized to output as a pixel value for one pixel of the image), and a second HDR imaging element including a third sensitivity region and a fourth sensitivity region surrounding the third sensitivity region as a pair (when synthesizing images) (i.e., a signal obtained from the third sensitivity region (brightness value of the image) and a signal obtained from the fourth sensitivity region (brightness value of the image) are synthesized to output as a pixel value for one pixel of the image). and a weighting factor for the signal from the first sensitivity region and the signal from the second sensitivity region, or a weighting factor for the signal from the third sensitivity region and the signal from the fourth sensitivity region (when synthesizing an image/brightness value) is changed in accordance with a bias in an arrangement of the first sensitivity region and the second sensitivity region or an arrangement of the third sensitivity region and the fourth sensitivity region, or a pair of signals (brightness values) to be output is changed in accordance with an arrangement of the first sensitivity region and the second sensitivity region or an arrangement of the third sensitivity region and the fourth sensitivity region, or an arrangement of the first sensitivity region and the second sensitivity region and an arrangement of the third sensitivity region and the fourth sensitivity region are the same arrangement.

また、前記第1の感度領域と前記第2の感度領域との配列と前記第3の感度領域と前記第4の感度領域との配列とは同じ配列である場合、前記第1および第2のHDR撮像素子の(感度領域の)配置は、受光感度の異なるペアとなる感度領域が同一方向になるように設計されている。 Furthermore, when the arrangement of the first sensitivity area and the second sensitivity area and the arrangement of the third sensitivity area and the fourth sensitivity area are the same arrangement, the arrangement (of the sensitivity areas) of the first and second HDR imaging elements is designed so that the pair of sensitivity areas having different light receiving sensitivities are oriented in the same direction.

すなわち、本実施形態の車載ステレオカメラ装置(車載カメラ装置)100は、一対のカメラで撮像した画像を画像処理する車載ステレオカメラ装置であって、撮像素子部はハイダイナミックレンジ露光に対応したものとして、双方のカメラで撮像した画像から視差計算を行う場合において、撮像素子の配置が一定の規約を満たすこと、あるいは規約を満たさない場合は、撮像素子の受光部の特性に応じて画像合成のパラメータ(ペア特性や重みなど)を設計し、これを用いて左右画像をステレオ視に適するように補正した上で、ステレオ視を行う手段を持つことを特徴とする。That is, the in-vehicle stereo camera device (in-vehicle camera device) 100 of this embodiment is an in-vehicle stereo camera device that processes images captured by a pair of cameras, and is characterized in that when the image sensor section is compatible with high dynamic range exposure and disparity calculation is performed from images captured by both cameras, the arrangement of the image sensors must satisfy certain regulations, or if the regulations are not satisfied, image synthesis parameters (pair characteristics, weights, etc.) are designed according to the characteristics of the light receiving sections of the image sensors, and the left and right images are corrected using this to make them suitable for stereoscopic viewing, and then stereoscopic viewing is performed.

換言すれば、本実施形態は、撮像素子のハイダイナミックレンジ化に伴う測距誤差の影響を低減するため、受光感度の異なる撮像素子中の受光部の配置を左右カメラにおいて一致させる、または左右カメラにおける撮像素子の配置特性情報に応じて受光感度が異なる受光部において得られた画像を、ステレオ視に供する左右カメラ画像に変換するための画像合成処理において、撮像素子の配置特性情報に基づいて重み及び計算方法を変更する、ことを特徴とする。In other words, this embodiment is characterized in that, in order to reduce the effect of distance measurement errors associated with the high dynamic range of the image sensor, the arrangement of the light receiving sections in the image sensor with different light receiving sensitivities is matched in the left and right cameras, or the weights and calculation methods are changed based on the arrangement characteristic information of the image sensor in the image synthesis process for converting images obtained in light receiving sections with different light receiving sensitivities according to the arrangement characteristic information of the image sensor in the left and right cameras into left and right camera images for stereoscopic vision.

つまり、本実施形態は、撮像素子のハイダイナミックレンジ化による測距誤差の影響を低減するため、1)ステレオカメラの製造時において、撮像素子の方向に一定の規制を設ける、または撮像素子の受光素子部の配置の特性に応じた補正パラメータを用意し、2)車両に取り付けたステレオカメラで外界認識を行う場合に、ステレオ視のための左右カメラの入力画像を、ステレオカメラ製造時に定められた特定パラメータに従って処理を行う、ことでハイダイナミックレンジ化に対応する、ことを特徴とする。In other words, this embodiment is characterized by the following: in order to reduce the effect of distance measurement errors caused by the high dynamic range of the image sensor, 1) when manufacturing the stereo camera, certain restrictions are placed on the direction of the image sensor, or correction parameters are prepared according to the characteristics of the arrangement of the light receiving element of the image sensor, and 2) when recognizing the outside world with a stereo camera attached to a vehicle, the input images from the left and right cameras for stereo vision are processed according to specific parameters determined when the stereo camera was manufactured, thereby dealing with the high dynamic range.

本実施形態によれば、例えば車載ステレオカメラ装置において、対象物の横位置や距離や輝度によって異なる、ハイダイナミックレンジ化の影響による測距誤差を吸収し、測距がより正確になるという効果がある。 According to this embodiment, for example in an in-vehicle stereo camera device, the effect is to absorb distance measurement errors caused by high dynamic range, which vary depending on the lateral position, distance, and brightness of the target object, thereby making distance measurement more accurate.

なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。Note that the present invention is not limited to the above-described embodiment, but includes various modified forms. For example, the above-described embodiment has been described in detail to clearly explain the present invention, and is not necessarily limited to having all of the configurations described.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 In addition, the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in hardware, in part or in whole, for example by designing them as integrated circuits. In addition, the above-mentioned configurations, functions, etc. may be realized in software by a processor interpreting and executing a program that realizes each function. Information such as the programs, tables, files, etc. that realize each function can be stored in a memory, a storage device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines shown are those considered necessary for the explanation, and not all control lines and information lines in the product are necessarily shown. In reality, it can be assumed that almost all components are interconnected.

100…車載ステレオカメラ装置(車載カメラ装置)
101…左カメラ
102…右カメラ
103…画像入力インタフェース
104…画像処理部
105…演算処理部
106…記憶部
107…CANインタフェース
108…制御処理部
109…内部バス
110…処理装置
111…車載ネットワークCAN
301…撮像素子
302…受光部A(第1の感度領域、第3の感度領域)
303…受光部B(第2の感度領域、第4の感度領域)
305…左カメラの撮像素子
307…右カメラの撮像素子
100...vehicle-mounted stereo camera device (vehicle-mounted camera device)
Reference Signs List 101: Left camera 102: Right camera 103: Image input interface 104: Image processing unit 105: Arithmetic processing unit 106: Storage unit 107: CAN interface 108: Control processing unit 109: Internal bus 110: Processing device 111: In-vehicle network CAN
301: Image sensor 302: Light receiving section A (first sensitivity area, third sensitivity area)
303: Light receiving section B (second sensitivity area, fourth sensitivity area)
305: Imaging element of left camera 307: Imaging element of right camera

Claims (4)

第1の感度領域、および前記第1の感度領域の周囲にある第2の感度領域をペアとして含む第1のHDR撮像素子と、第3の感度領域、および前記第3の感度領域の周囲にある第4の感度領域をペアとして含む第2のHDR撮像素子と、を有し、
前記第1の感度領域からの信号、および前記第2の感度領域からの信号に対する重み、または前記第3の感度領域からの信号、および前記第4の感度領域からの信号に対する重み、の少なくとも1つを前記第1の感度領域と前記第2の感度領域との配列または前記第3の感度領域と前記第4の感度領域との配列の偏りに応じて変更する、もしくは、前記第1の感度領域と前記第2の感度領域との配列または前記第3の感度領域と前記第4の感度領域との配列に応じて、出力する信号のペアを変更する、あるいは、
前記第1の感度領域と前記第2の感度領域との配列と前記第3の感度領域と前記第4の感度領域との配列とは同じ配列であり、
前記第1のHDR撮像素子の前記重みは、前記第1のHDR撮像素子における前記第1の感度領域と前記第2の感度領域の配置位置または配置面積の少なくとも1つに基づき変更し、前記第2のHDR撮像素子の前記重みは、前記第2のHDR撮像素子における前記第3の感度領域と前記第4の感度領域の配置位置または配置面積の少なくとも1つに基づき変更することを特徴とする車載カメラ装置。
A first HDR imaging element including a first sensitivity region and a second sensitivity region around the first sensitivity region as a pair, and a second HDR imaging element including a third sensitivity region and a fourth sensitivity region around the third sensitivity region as a pair,
At least one of weights for the signals from the first sensitivity region and the second sensitivity region, or weights for the signals from the third sensitivity region and the fourth sensitivity region is changed in accordance with the bias of the arrangement of the first sensitivity region and the second sensitivity region or the arrangement of the third sensitivity region and the fourth sensitivity region, or a pair of signals to be output is changed in accordance with the arrangement of the first sensitivity region and the second sensitivity region or the arrangement of the third sensitivity region and the fourth sensitivity region, or
an arrangement of the first sensitive region and the second sensitive region and an arrangement of the third sensitive region and the fourth sensitive region are the same arrangement,
The weight of the first HDR imaging element is changed based on at least one of the placement positions or placement areas of the first sensitivity area and the second sensitivity area in the first HDR imaging element, and the weight of the second HDR imaging element is changed based on at least one of the placement positions or placement areas of the third sensitivity area and the fourth sensitivity area in the second HDR imaging element .
第1の感度領域、および前記第1の感度領域の周囲にある第2の感度領域をペアとして含む第1のHDR撮像素子と、第3の感度領域、および前記第3の感度領域の周囲にある第4の感度領域をペアとして含む第2のHDR撮像素子と、を有し、
前記第1の感度領域からの信号、および前記第2の感度領域からの信号に対する重み、または前記第3の感度領域からの信号、および前記第4の感度領域からの信号に対する重み、の少なくとも1つを前記第1の感度領域と前記第2の感度領域との配列または前記第3の感度領域と前記第4の感度領域との配列の偏りに応じて変更する、もしくは、前記第1の感度領域と前記第2の感度領域との配列または前記第3の感度領域と前記第4の感度領域との配列に応じて、出力する信号のペアを変更する、あるいは、
前記第1の感度領域と前記第2の感度領域との配列と前記第3の感度領域と前記第4の感度領域との配列とは同じ配列であり、
前記重みは、積分画像によるサンプリングを用いて設定されることを特徴とする車載カメラ装置。
A first HDR imaging element including a first sensitivity region and a second sensitivity region around the first sensitivity region as a pair, and a second HDR imaging element including a third sensitivity region and a fourth sensitivity region around the third sensitivity region as a pair,
At least one of weights for the signals from the first sensitivity region and the second sensitivity region, or weights for the signals from the third sensitivity region and the fourth sensitivity region is changed in accordance with the bias of the arrangement of the first sensitivity region and the second sensitivity region or the arrangement of the third sensitivity region and the fourth sensitivity region, or a pair of signals to be output is changed in accordance with the arrangement of the first sensitivity region and the second sensitivity region or the arrangement of the third sensitivity region and the fourth sensitivity region, or
an arrangement of the first sensitive region and the second sensitive region and an arrangement of the third sensitive region and the fourth sensitive region are the same arrangement,
An in-vehicle camera device , wherein the weights are set using sampling with an integral image .
請求項1または2に記載の車載カメラ装置において、
前記第1の感度領域と前記第2の感度領域との配列と前記第3の感度領域と前記第4の感度領域との配列とは同じ配列である場合、前記第1および第2のHDR撮像素子の配置は、受光感度の異なるペアとなる感度領域が同一方向になるように設計されていることを特徴とする車載カメラ装置。
The vehicle-mounted camera device according to claim 1 or 2 ,
An in-vehicle camera device characterized in that, when the arrangement of the first sensitivity area and the second sensitivity area and the arrangement of the third sensitivity area and the fourth sensitivity area are the same arrangement, the arrangement of the first and second HDR imaging elements is designed so that pairs of sensitivity areas having different light receiving sensitivities are oriented in the same direction.
請求項1に記載の車載カメラ装置において、
前記重みは、積分画像によるサンプリングを用いて設定されることを特徴とする車載カメラ装置。
The vehicle-mounted camera device according to claim 1,
An in-vehicle camera device, wherein the weights are set using sampling with an integral image.
JP2022557355A 2020-10-14 2021-09-30 Vehicle-mounted camera device Active JP7492599B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020173470 2020-10-14
JP2020173470 2020-10-14
PCT/JP2021/036221 WO2022080147A1 (en) 2020-10-14 2021-09-30 Vehicle-mounted camera device

Publications (2)

Publication Number Publication Date
JPWO2022080147A1 JPWO2022080147A1 (en) 2022-04-21
JP7492599B2 true JP7492599B2 (en) 2024-05-29

Family

ID=81207958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022557355A Active JP7492599B2 (en) 2020-10-14 2021-09-30 Vehicle-mounted camera device

Country Status (3)

Country Link
JP (1) JP7492599B2 (en)
DE (1) DE112021004185T5 (en)
WO (1) WO2022080147A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023003247A1 (en) * 2023-08-22 2025-02-27 Mercedes-Benz Group AG Method for testing an optical path of a camera of a vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019102887A1 (en) 2017-11-22 2019-05-31 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging element and electronic device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6762766B2 (en) * 2016-06-01 2020-09-30 キヤノン株式会社 Image sensor, image sensor, and image signal processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019102887A1 (en) 2017-11-22 2019-05-31 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging element and electronic device

Also Published As

Publication number Publication date
WO2022080147A1 (en) 2022-04-21
JPWO2022080147A1 (en) 2022-04-21
DE112021004185T5 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
US11131753B2 (en) Method, apparatus and computer program for a vehicle
JP6545997B2 (en) Image processing device
JP6522076B2 (en) Method, apparatus, storage medium and program product for lateral vehicle positioning
JP5906272B2 (en) Stereo image processing apparatus for vehicle
WO2016056197A1 (en) In-vehicle camera calibration device, image generation device, in-vehicle camera calibration method, and image generation method
CN107122770B (en) Multi-camera system, intelligent driving system, automobile, method and storage medium
US20160379066A1 (en) Method and Camera System for Distance Determination of Objects from a Vehicle
JP2008039491A (en) Stereo image processing device
JP6599685B2 (en) Image processing apparatus and error determination method
JP2021025868A (en) Stereo camera
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
US10026158B2 (en) Imaging device
JP6082556B2 (en) Imaging device
JP6838225B2 (en) Stereo camera
JP7492599B2 (en) Vehicle-mounted camera device
JP2018085059A (en) Information processing device, imaging apparatus, device control system, information processing method and program
JP7062904B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
WO2024122135A1 (en) Image processing device and image processing method
JP6983740B2 (en) Stereo camera system and distance measurement method
JP2018088217A (en) Information processing device, imaging device, apparatus control system, information processing method, and program
EP2642759A1 (en) Multi-lens camera system
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
JP7207889B2 (en) Range finder and in-vehicle camera system
US11010625B2 (en) Vehicle exterior environment recognition apparatus and method of recognizing exterior environment outside vehicle
WO2024150480A1 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240517

R150 Certificate of patent or registration of utility model

Ref document number: 7492599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150