[go: up one dir, main page]

JP6668975B2 - Electronics and vehicles - Google Patents

Electronics and vehicles Download PDF

Info

Publication number
JP6668975B2
JP6668975B2 JP2016131881A JP2016131881A JP6668975B2 JP 6668975 B2 JP6668975 B2 JP 6668975B2 JP 2016131881 A JP2016131881 A JP 2016131881A JP 2016131881 A JP2016131881 A JP 2016131881A JP 6668975 B2 JP6668975 B2 JP 6668975B2
Authority
JP
Japan
Prior art keywords
area
image
imaging
control device
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016131881A
Other languages
Japanese (ja)
Other versions
JP2018007038A (en
JP2018007038A5 (en
Inventor
ひとみ 長沼
ひとみ 長沼
栗山 孝司
孝司 栗山
幸一 福田
幸一 福田
祐起 喜多
祐起 喜多
長岡 弘仁
弘仁 長岡
知哉 中川
知哉 中川
政一 関口
政一 関口
孝 塩野谷
孝 塩野谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016131881A priority Critical patent/JP6668975B2/en
Publication of JP2018007038A publication Critical patent/JP2018007038A/en
Publication of JP2018007038A5 publication Critical patent/JP2018007038A5/en
Application granted granted Critical
Publication of JP6668975B2 publication Critical patent/JP6668975B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、電子機器および自動車に関する。 The present invention relates to an electronic device and automotive.

車両に搭載したカメラが知られている(特許文献1参照)。従来の車両に搭載したカメラでは、対象物を検出する撮像条件と表示用画像を生成する撮像条件とを設定することができないという問題がある。   A camera mounted on a vehicle is known (see Patent Document 1). In a conventional camera mounted on a vehicle, there is a problem that an imaging condition for detecting a target object and an imaging condition for generating a display image cannot be set.

特開2010−79424号公報JP 2010-79424 A

本発明の第1の態様による電子機器は、車に搭載される電子機器において、第1の撮像条件により被写体を撮像する第1領域と、前記第1の撮像条件とは異なる第2の撮像条件により被写体を撮像する第2領域と、をそれぞれ複数有する撮像部と、前記第1領域により生成された第1画像信号に基づいて対象物の検出を行う検出部と、前記第2領域により生成された第2画像信号に基づいて表示部に画像を表示する表示制御部と、を備える。An electronic device according to a first aspect of the present invention is an electronic device mounted on a car, wherein a first region for imaging a subject under a first imaging condition and a second imaging condition different from the first imaging condition. An imaging unit having a plurality of second regions for imaging a subject, a detection unit for detecting an object based on a first image signal generated by the first region, and a second unit generated by the second region. A display control unit that displays an image on the display unit based on the second image signal.
本発明の第2の態様による自動車は、第1の態様による電子機器を搭載する。  An automobile according to a second aspect of the present invention includes the electronic device according to the first aspect.

車両の運転支援装置の概略構成図である。1 is a schematic configuration diagram of a driving support device for a vehicle. 撮像チップの画素配列と単位領域を説明する図である。FIG. 3 is a diagram illustrating a pixel array and a unit area of an imaging chip. カメラの構成を例示するブロック図である。FIG. 2 is a block diagram illustrating a configuration of a camera. 図4(a) から図4(c) は、分割された第1領域および第2領域を例示する図である。FIGS. 4A to 4C are diagrams illustrating the divided first region and second region. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図であり、図7(a) は直進時を示す図、図7(b) は高速時を示す図である。FIGS. 7A and 7B are diagrams schematically illustrating an image on an imaging surface of an imaging chip, wherein FIG. 7A is a diagram illustrating a straight traveling state, and FIG. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 制御部が実行するカメラの制御処理の流れを説明するフローチャートである。5 is a flowchart illustrating a flow of a camera control process executed by a control unit. 撮像条件設定処理の詳細を説明するフローチャートである。9 is a flowchart illustrating details of an imaging condition setting process. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 表示画像を例示する図である。It is a figure which illustrates a display image. 撮像条件設定処理の詳細を説明するフローチャートである。9 is a flowchart illustrating details of an imaging condition setting process. 撮像素子に結像される像を模式的に示す図である。FIG. 3 is a diagram schematically illustrating an image formed on an image sensor. 撮像素子に結像される像を模式的に示す図である。FIG. 3 is a diagram schematically illustrating an image formed on an image sensor. 撮像素子に結像される像を模式的に示す図である。FIG. 3 is a diagram schematically illustrating an image formed on an image sensor. 撮像素子に結像される像を模式的に示す図である。FIG. 3 is a diagram schematically illustrating an image formed on an image sensor. カメラの制御処理の流れを説明するフローチャートである。5 is a flowchart illustrating a flow of a camera control process. 撮像条件設定処理の詳細を説明するフローチャートである。9 is a flowchart illustrating details of an imaging condition setting process. 撮像条件設定処理の詳細を説明するフローチャートである。9 is a flowchart illustrating details of an imaging condition setting process. 図24(A)、図24(B)は像面移動量に応じたフレームレートを例示する図である。FIGS. 24A and 24B are diagrams illustrating a frame rate according to the image plane movement amount. カメラのヨー角を説明する図である。FIG. 3 is a diagram illustrating a yaw angle of a camera. 撮像条件設定処理の詳細を説明するフローチャートである。9 is a flowchart illustrating details of an imaging condition setting process. 図27(a)は、第三の実施の形態を説明する図である。補助光源による投影パターンを説明する図である。赤外光が照射された対象物を例示する図である。FIG. 27A is a diagram illustrating the third embodiment. FIG. 3 is a diagram illustrating a projection pattern by an auxiliary light source. It is a figure which illustrates the object irradiated with infrared light. 図28(a)および図28(b)は、第四の実施の形態を説明する図である。FIGS. 28A and 28B are diagrams for explaining the fourth embodiment. 図29(a)は、第五の実施の形態を説明する図である。図29(b)は、撮像面の第1領域と第2領域を説明する図である。FIG. 29A is a diagram for explaining the fifth embodiment. FIG. 29B is a diagram illustrating a first area and a second area on the imaging surface.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施の形態)
<カメラの使用場面>
図1は、第一の実施の形態によるカメラ3A、3Bを搭載した車両1の運転支援装置2の概略構成図である。図1において、自動車等の車両1に運転支援装置2が搭載されている。運転支援装置2は、カメラ3Aと、カメラ3Bと、制御装置4と、第1の走行制御ユニット5と、第2の走行制御ユニット6等により構成される。なお、本実施の形態では内燃機関を駆動源とする例を説明するが、モータを駆動源とするものでもよい。
Hereinafter, embodiments for implementing the present invention will be described with reference to the drawings.
(First embodiment)
<Scene where the camera is used>
FIG. 1 is a schematic configuration diagram of a driving support device 2 of a vehicle 1 equipped with cameras 3A and 3B according to the first embodiment. In FIG. 1, a driving support device 2 is mounted on a vehicle 1 such as an automobile. The driving support device 2 includes a camera 3A, a camera 3B, a control device 4, a first travel control unit 5, a second travel control unit 6, and the like. In this embodiment, an example in which an internal combustion engine is used as a drive source will be described, but a motor may be used as a drive source.

本実施の形態では、カメラ3Aとカメラ3Bとを同じカメラによって構成する。カメラ3A(3B)は、複数のレンズを有する撮像光学系と、後述する積層型撮像素子とを備える。カメラ3Aは、例えば車室内の天井前方に取り付けられ、車両1の前方の画像を取得する。カメラ3Bは、例えば車室内の天井後方に取り付けられ、車両1の後方の画像を取得する。   In the present embodiment, the cameras 3A and 3B are configured by the same camera. The camera 3A (3B) includes an imaging optical system having a plurality of lenses, and a stacked imaging device described later. The camera 3 </ b> A is attached, for example, in front of the ceiling in the vehicle compartment, and acquires an image in front of the vehicle 1. The camera 3 </ b> B is attached, for example, behind the ceiling in the vehicle interior, and acquires an image behind the vehicle 1.

カメラ3Aおよび3Bは、それぞれ、取得した画像(後述する撮像素子100における第1領域に基づいて取得した画像)に基づいて撮影画面内の複数の位置における各被写体(対象物)までの距離測定(測距)を行う。距離測定は、撮像素子に備えられている焦点検出用画素からの画像信号を用いた測距演算により算出する。カメラ3A(3B)により取得された画像のデータおよび測距データは、制御装置4へ送出される。なお、カメラ3A(3B)を車外に設けてもよい。   Each of the cameras 3A and 3B measures the distance to each subject (object) at a plurality of positions on the shooting screen based on the acquired image (an image acquired based on a first region in the image sensor 100 described later). Distance measurement). The distance measurement is calculated by a distance measurement operation using an image signal from a focus detection pixel provided in the image sensor. Image data and distance measurement data acquired by the camera 3A (3B) are sent to the control device 4. Note that the camera 3A (3B) may be provided outside the vehicle.

制御装置4は、CPU4aおよび記憶部4bを含む。CPU4aは、記憶部4bに記憶されている各種プログラムに基づいて、記憶部4bに記憶されている制御パラメータや後述する各センサによる検出信号などを用いて各種演算を行う。   Control device 4 includes a CPU 4a and a storage unit 4b. The CPU 4a performs various calculations based on various programs stored in the storage unit 4b, using control parameters stored in the storage unit 4b, detection signals from sensors described below, and the like.

第1の走行制御ユニット5は、制御装置4からの指示に基づいて、定速走行制御および追従走行制御を行う。定速走行制御は、所定の制御プログラムに基づいて、車両1を一定速度で走行させる制御である。追従走行制御は、定速走行制御を行っている際に、制御装置4にて認識された先行車の速度が車両1に設定されている目標速度以下の場合には、先行車に対して一定の車間距離を保持した状態で走行させる制御である。   The first travel control unit 5 performs constant-speed travel control and follow-up travel control based on an instruction from the control device 4. The constant speed traveling control is control for causing the vehicle 1 to travel at a constant speed based on a predetermined control program. When the speed of the preceding vehicle recognized by the control device 4 is equal to or lower than the target speed set in the vehicle 1 during the constant speed traveling control, the following traveling control is performed with respect to the preceding vehicle. This is control for running the vehicle while maintaining the inter-vehicle distance.

第2の走行制御ユニット6は、制御装置4からの指示に基づいて、運転支援制御を行う。運転支援制御は、所定の制御プログラムに基づいて、車両1が道路に沿って走行するように操舵制御装置9にステアリング制御信号を出力したり、車両1が対象物と衝突するのを回避するようにブレーキ制御装置8にブレーキ制御信号を出力したりする制御である。   The second travel control unit 6 performs driving support control based on an instruction from the control device 4. The driving support control outputs a steering control signal to the steering control device 9 so that the vehicle 1 travels along the road based on a predetermined control program, or avoids the vehicle 1 from colliding with an object. Is a control for outputting a brake control signal to the brake control device 8.

図1にはさらに、スロットル制御装置7と、ブレーキ制御装置8と、操舵制御装置9と、ステアリングホイール10と、ターンシグナルスイッチ11と、車速センサ12と、ヨーレートセンサ13と、表示・再生装置14と、GPS装置15と、視線検出装置16と、が図示されている。
なお、通信部17は、後述する変形例4において用いるものであり、レーダー18は、第二の実施の形態において用いるものである。これらは、第一の実施の形態では必須の構成ではない。
FIG. 1 further shows a throttle control device 7, a brake control device 8, a steering control device 9, a steering wheel 10, a turn signal switch 11, a vehicle speed sensor 12, a yaw rate sensor 13, a display / reproduction device 14, , A GPS device 15 and a visual line detection device 16 are illustrated.
The communication unit 17 is used in a modified example 4 described later, and the radar 18 is used in the second embodiment. These are not essential components in the first embodiment.

スロットル制御装置7は、アクセルペダル7aの踏み込み量に応じて不図示のスロットルバルブの開度を制御する。また、スロットル制御装置7は、第1の走行制御ユニット5から送出されるスロットル制御信号に応じて上記スロットルバルブに対する開度の制御も行う。スロットル制御装置7はさらに、アクセルペダル7aの踏み込み量を示す信号を制御装置4へ送出する。   The throttle control device 7 controls the opening of a throttle valve (not shown) according to the amount of depression of an accelerator pedal 7a. The throttle control device 7 also controls the opening of the throttle valve in accordance with a throttle control signal sent from the first travel control unit 5. The throttle control device 7 further sends a signal indicating the depression amount of the accelerator pedal 7a to the control device 4.

ブレーキ制御装置8は、ブレーキペダル8aの踏み込み量に応じて不図示のブレーキバルブの開度を制御する。また、ブレーキ制御装置8は、第2の走行制御ユニット6からのブレーキ制御信号に応じて上記ブレーキバルブに対する開度の制御も行う。ブレーキ制御装置8はさらに、ブレーキペダル8aの踏み込み量を示す信号を制御装置4へ送出する。   The brake control device 8 controls the opening of a brake valve (not shown) according to the amount of depression of the brake pedal 8a. The brake control device 8 also controls the opening of the brake valve according to a brake control signal from the second travel control unit 6. The brake control device 8 further sends a signal indicating the depression amount of the brake pedal 8a to the control device 4.

操舵制御装置9は、ステアリングホイール10の回転角に応じて不図示のステアリング装置の舵角を制御する。また、操舵制御装置9は、第2の走行制御ユニット6からのステアリング制御信号に応じて上記ステアリング装置の舵角の制御も行う。操舵制御装置9はさらに、ステアリングホイール10の回転角を示す信号を第1の走行制御ユニット5と、制御装置4とにそれぞれ送出する。   The steering control device 9 controls the steering angle of a steering device (not shown) according to the rotation angle of the steering wheel 10. The steering control device 9 also controls the steering angle of the steering device according to a steering control signal from the second travel control unit 6. The steering control device 9 further sends a signal indicating the rotation angle of the steering wheel 10 to the first travel control unit 5 and the control device 4, respectively.

ターンシグナルスイッチ11は、不図示のターンシグナル(ウィンカー)装置を作動させるためのスイッチである。ターンシグナル装置は、車両1の進路変更を示す点滅発光装置である。車両1の乗員によってターンシグナルスイッチ11が操作されると、ターンシグナルスイッチ11からの操作信号がターンシグナル装置、第2の走行制御ユニット6および制御装置4にそれぞれ送出される。車速センサ12は車両1の車速Vを検出し、検出信号を第1の走行制御ユニット5と、第2の走行制御ユニット6と、制御装置4とにそれぞれ送出する。   The turn signal switch 11 is a switch for operating a turn signal (turn signal) device (not shown). The turn signal device is a blinking light emitting device that indicates a change in the course of the vehicle 1. When the occupant of the vehicle 1 operates the turn signal switch 11, an operation signal from the turn signal switch 11 is sent to the turn signal device, the second travel control unit 6, and the control device 4, respectively. The vehicle speed sensor 12 detects the vehicle speed V of the vehicle 1 and sends out a detection signal to the first travel control unit 5, the second travel control unit 6, and the control device 4, respectively.

ヨーレートセンサ13は車両1のヨーレートを検出し、検出信号を第2の走行制御ユニット6と、制御装置4とにそれぞれ送出する。ヨーレートは、車両1の旋回方向への回転角の変化速度である。表示・再生装置14は、第1の走行制御ユニット5、および第2の走行制御ユニット6による制御状態を示す情報などを表示する。表示・再生装置14は、例えばフロントガラスに情報を投映するHUD(Head Up Display)によって構成される。なお、表示・再生装置14として、不図示のルームミラーに情報を表示したり、不図示のナビゲーション装置の表示部、再生部を利用するようにしてもよい。   The yaw rate sensor 13 detects a yaw rate of the vehicle 1 and sends a detection signal to the second travel control unit 6 and the control device 4, respectively. The yaw rate is a change speed of the rotation angle of the vehicle 1 in the turning direction. The display / reproduction device 14 displays information indicating a control state of the first travel control unit 5 and the second travel control unit 6, and the like. The display / reproduction device 14 is configured by, for example, a HUD (Head Up Display) that projects information on a windshield. As the display / reproducing device 14, information may be displayed on a room mirror (not shown), or a display unit and a reproducing unit of a navigation device (not shown) may be used.

GPS装置15は、GPS衛星からの電波を受信し、電波にのせられている情報を用いて所定の演算を行うことにより、車両1の位置(緯度、経度など)を算出する。GPS装置15で算出した位置情報は、不図示のナビゲーション装置や制御装置4へ送出される。   The GPS device 15 receives a radio wave from a GPS satellite and performs a predetermined calculation using information on the radio wave to calculate the position (latitude, longitude, and the like) of the vehicle 1. The position information calculated by the GPS device 15 is sent to a navigation device and the control device 4 (not shown).

視線検出装置16は、例えばステアリングホイール10に内蔵される。視線検出装置16は乗員(例えば運転者)の視線位置を検出し、運転者が注視している領域を示す視線情報を制御装置4へ送出する。視線検出には、赤外光を運転者の角膜で反射させて視線方向を検出する角膜反射法や、角膜と強膜との光に対する反射率の差を利用するリンバストラッキング法、運転者の眼球の映像をカメラで撮像して画像処理により視線を検出する画像解析法などがあり、いずれの視線検出方法を用いてもよい。なお、自動運転車の場合は、乗員が運転をしない場合もあり、視線を検出する対象は、運転者以外の乗員でもよい。
また、視線検出装置16を眼鏡型のウェアラブルデバイスに内蔵させて、視線情報をウェアラブルデバイスから制御装置4へ無線通信により送信する構成にしてもよい。
The line-of-sight detection device 16 is built in, for example, the steering wheel 10. The line-of-sight detection device 16 detects the line-of-sight position of the occupant (for example, the driver), and sends line-of-sight information indicating an area where the driver is gazing to the control device 4. For gaze detection, a corneal reflection method in which infrared light is reflected by a driver's cornea to detect a gaze direction, a limbus tracking method using a difference in reflectance of light between the cornea and the sclera, and a driver's eyeball There is an image analysis method or the like in which the video is captured by a camera and the line of sight is detected by image processing, and any line of sight line detection method may be used. In the case of an autonomous vehicle, the occupant may not drive, and the target for detecting the line of sight may be an occupant other than the driver.
Alternatively, the eye-gaze detecting device 16 may be built in a glasses-type wearable device, and the eye-gaze information may be transmitted from the wearable device to the control device 4 by wireless communication.

<対象物の検出>
対象物の検出には、後述する第1領域に基づいて取得した画像を用いる。制御装置4は、車両1の走行路および対象物を検出するために、カメラ3A(3B)からの画像に対し、以下のように画像処理を行う。先ず、制御装置4は、撮影画面内の複数の位置における測距データに基づいて距離画像(奥行き分布画像)を生成する。制御装置4は、距離画像のデータに基づいて、周知のグルーピング処理を行い、あらかじめ記憶部4bに記憶しておいた3次元的な道路形状データ、側壁データ、対象物データ等の枠(ウインドウ)と比較し、白線(道路に沿った白線データおよび道路を横断する白線(停止線:交差点情報)データを含む)、道路に沿って存在するガードレール、縁石等の側壁を検出するとともに、対象物・障害物を、2輪車、普通車両、大型車両、歩行者、電柱等その他の対象物に分類して検出する。
本説明では、走行路に引かれた白色または黄色のラインを白線と呼ぶ。また、実線および破線を含めて白線と呼ぶ。
<Detection of object>
An image acquired based on a first region described later is used for detecting the target. The control device 4 performs image processing on an image from the camera 3A (3B) as follows in order to detect a traveling path of the vehicle 1 and an object. First, the control device 4 generates a distance image (depth distribution image) based on the distance measurement data at a plurality of positions in the shooting screen. The control device 4 performs a well-known grouping process based on the data of the distance image, and stores frames (windows) of three-dimensional road shape data, side wall data, object data, and the like stored in the storage unit 4b in advance. In addition to detecting white lines (including white line data along the road and white lines crossing the road (stop line: intersection information) data), guardrails, curbs and other side walls existing along the road, Obstacles are detected by classifying them into other objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, telephone poles, and the like.
In the present description, the white or yellow line drawn on the traveling path is called a white line. In addition, the solid line and the broken line are called white lines.

<運転支援>
制御装置4は、上記のように検出した各情報、すなわち、白線データ、ガードレール側壁データ、および対象物データの各データに基づいて走行路や障害となる対象物・障害物を認識し、認識結果をもとに第2の走行制御ユニット6に上記運転支援制御を行わせる。すなわち、車両1を道路に沿って走行させ、車両1が対象物と衝突するのを回避させる。
<Driving support>
The control device 4 recognizes an object / obstacle which becomes a running path or an obstacle based on each information detected as described above, that is, each data of the white line data, the guardrail side wall data, and the object data, and the recognition result. The second driving control unit 6 performs the driving support control on the basis of the above. That is, the vehicle 1 is made to travel along the road, and the collision of the vehicle 1 with the target is avoided.

<走行制御>
制御装置4は、例えば、以下の4 通りにより自車進行路の推定を行う。
(1)白線に基づく自車進行路推定
カメラ3A(3B)で取得された画像から走行路の左右両方、若しくは、左右どちらか片側の白線データが得られており、これら白線データから車両1が走行している車線の形状が推定できる場合、制御装置4は、車両1の幅や、車両1の現在の車線内の位置を考慮して、自車進行路が白線と並行であると推定する。
<Driving control>
The control device 4 estimates the own vehicle traveling route in the following four ways, for example.
(1) Estimation of own vehicle traveling path based on white line White line data of both the left and right sides or one of the right and left sides of the traveling path is obtained from the image acquired by camera 3A (3B), and vehicle 1 is determined from these white line data. When the shape of the traveling lane can be estimated, the control device 4 estimates that the own vehicle traveling path is parallel to the white line in consideration of the width of the vehicle 1 and the position of the vehicle 1 in the current lane. .

(2)ガードレール、縁石等の側壁データに基づく自車進行路推定
カメラ3A(3B)で取得された画像から走行路の左右両方、若しくは、左右どちらか片側の側壁データが得られており、これら側壁データから車両1が走行している車線の形状が推定できる場合、制御装置4は、車両1の幅や、車両1の現在の車線内の位置を考慮して、自車進行路が側壁と並行であると推定する。
(2) Estimation of own-vehicle traveling route based on sidewall data of guardrails, curbs, etc. Sidewall data on both the left and right sides or one of the left and right sides of the traveling route is obtained from the image acquired by camera 3A (3B). When the shape of the lane in which the vehicle 1 is traveling can be estimated from the side wall data, the control device 4 considers the width of the vehicle 1 and the position of the vehicle 1 in the current lane, and determines that the traveling path of the own vehicle is the side wall. Presumed to be parallel.

(3)先行車軌跡に基づく自車進行路推定
制御装置4は、記憶部4bに記憶しておいた先行車の過去の走行軌跡に基づいて、自車進行路を推定する。先行車は、車両1と同じ方向に走行する対象物のうち、車両1に最も近い前方の車両をいう。
(3) Estimation of the own vehicle traveling route based on the preceding vehicle trajectory The control device 4 estimates the own vehicle traveling route based on the past traveling trajectory of the preceding vehicle stored in the storage unit 4b. The preceding vehicle refers to a forward vehicle closest to the vehicle 1 among objects traveling in the same direction as the vehicle 1.

(4)車両1の走行状態に基づく自車走行路推定
制御装置4は、車両1の運転状態に基づいて、自車進行路を推定する。例えば、ヨーレートセンサ13による検出信号と、車速センサ12による検出信号と、に基づく旋回曲率を用いて自車進行路を推定する。旋回曲率Cuaは、Cua =dψ/dt/V により算出する。dψ/dtは上記ヨーレート(旋回方向への回転角の変化速度)であり、Vは車両1の車速である。
(4) Estimation of Own Car Running Path Based on Running State of Vehicle 1 The control device 4 estimates the own vehicle traveling path based on the operating state of the vehicle 1. For example, the own vehicle traveling path is estimated using the turning curvature based on the detection signal from the yaw rate sensor 13 and the detection signal from the vehicle speed sensor 12. The turning curvature Cua is calculated by Cua = dψ / dt / V. dψ / dt is the yaw rate (the speed of change of the rotation angle in the turning direction), and V is the vehicle speed of the vehicle 1.

制御装置4は、記憶部4bに記憶されている所定の走行制御プログラムにしたがって、上記対象物ごとに、対象物が存在する位置における車両1の走行領域を自車進行路に基づき推定し、この走行領域と対象物位置とを比較して、それぞれの対象物が走行領域内にあるか否か判定する。制御装置4はさらに、カメラ3A(3B)の撮像結果に基づき上記先行車を認識する。すなわち、制御装置4は、走行領域内に存在して順方向(車両1と同じ方向)に走行する対象物の中から、車両1に最も近い車両を先行車とする。   The control device 4 estimates the travel area of the vehicle 1 at the position where the target object exists based on the own vehicle traveling path for each target object according to a predetermined travel control program stored in the storage unit 4b. The traveling area and the position of the object are compared to determine whether or not each object is within the traveling area. The control device 4 further recognizes the preceding vehicle based on the imaging result of the camera 3A (3B). That is, the control device 4 sets the vehicle closest to the vehicle 1 to the preceding vehicle among the objects existing in the traveling area and traveling in the forward direction (the same direction as the vehicle 1).

制御装置4は、先行車と車両1との車間距離情報、および先行車の車速情報を、車外情報として第1の走行制御ユニット5へ出力する。ここで、先行車の車速情報は、所定時間ごとに取得した車両1の車速Vと、車速Vの取得タイミングに同期して上記所定時間ごとにカメラ3A(3B)で取得された画像に基づいて測距した撮影画面内の先行車までの距離(車間距離)の変化と、に基づいて算出する。   The control device 4 outputs inter-vehicle distance information between the preceding vehicle and the vehicle 1 and vehicle speed information of the preceding vehicle to the first travel control unit 5 as outside-vehicle information. Here, the vehicle speed information of the preceding vehicle is obtained based on the vehicle speed V of the vehicle 1 acquired every predetermined time and the image acquired by the camera 3A (3B) every predetermined time in synchronization with the acquisition timing of the vehicle speed V. It is calculated based on the change in the distance to the preceding vehicle (inter-vehicle distance) within the measured shooting screen.

第1の走行制御ユニット5は、車速センサ12で検出される車速Vが、あらかじめセットされている所定の車速(目標速度)に収束するようにスロットル制御装置7へスロットル制御信号を送出する。これにより、スロットル制御装置7が不図示のスロットルバルブの開度をフィードバック制御し、車両1を自動で定速走行させる。   The first travel control unit 5 sends a throttle control signal to the throttle control device 7 so that the vehicle speed V detected by the vehicle speed sensor 12 converges to a predetermined vehicle speed (target speed) set in advance. As a result, the throttle control device 7 feedback-controls the opening of the throttle valve (not shown), and the vehicle 1 automatically runs at a constant speed.

また、第1の走行制御ユニット5は、定速状態の走行制御を行っている際に制御装置4から入力された先行車の車速情報が車両1に設定されている目標速度以下の場合には、制御装置4から入力された車間距離情報に基づいてスロットル制御装置7へスロットル制御信号を送出する。具体的には、車両1から先行車までの車間距離および先行車の車速と、車両1の車速Vと、に基づいて適切な車間距離の目標値を設定し、カメラ3A(3B)で取得された画像に基づいて測距される車間距離が、上記車間距離の目標値に収束するようにスロットル制御装置7へスロットル制御信号を送出する。これにより、スロットル制御装置7が不図示のスロットルバルブの開度をフィードバック制御し、車両1を先行車に追従走行させる。   Further, the first travel control unit 5 is configured to control the vehicle speed information of the preceding vehicle input from the control device 4 during the travel control in the constant speed state when the vehicle speed information is equal to or lower than the target speed set in the vehicle 1. And sends a throttle control signal to the throttle control device 7 based on the inter-vehicle distance information input from the control device 4. Specifically, an appropriate inter-vehicle distance target value is set based on the inter-vehicle distance from the vehicle 1 to the preceding vehicle, the vehicle speed of the preceding vehicle, and the vehicle speed V of the vehicle 1, and is acquired by the camera 3A (3B). A throttle control signal is sent to the throttle control device 7 so that the inter-vehicle distance measured based on the image converges to the target value of the inter-vehicle distance. As a result, the throttle control device 7 performs feedback control of the opening of the throttle valve (not shown), and causes the vehicle 1 to follow the preceding vehicle.

<積層型撮像素子の説明>
上述したカメラ3A(3B)に備わる積層型撮像素子100は、本願出願人が先に出願し公開された国際公開WO13/164915号に記載されているものである。撮像素子100には、入射光に対応した画素信号を出力する裏面照射型の撮像チップと、画素信号を処理する信号処理チップと、画素信号を記憶するメモリチップとが積層されている。撮像素子100は、単位領域ごとに撮像条件を設定可能に構成される。
<Explanation of the stacked image sensor>
The stacked imaging device 100 provided in the camera 3A (3B) described above is described in International Publication WO13 / 164915 filed and published by the present applicant before. The image pickup device 100 includes a back-illuminated image pickup chip that outputs pixel signals corresponding to incident light, a signal processing chip that processes pixel signals, and a memory chip that stores pixel signals. The imaging device 100 is configured to be able to set imaging conditions for each unit area.

図2は、撮像チップ111の画素配列と単位領域131を説明する図である。撮像素子100への入射光は、Z軸プラス方向へ向かって入射する。座標軸に示すように、Z軸に直交する紙面右方向をX軸プラス方向、Z軸およびX軸に直交する紙面上方向をY軸プラス方向とする。以降のいくつかの図においては、図2の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   FIG. 2 is a diagram illustrating the pixel array of the imaging chip 111 and the unit area 131. Light incident on the image sensor 100 is incident in the positive Z-axis direction. As shown by the coordinate axes, the right direction on the paper orthogonal to the Z axis is defined as the plus direction of the X axis, and the upward direction of the paper orthogonal to the Z axis and the X axis is defined as the plus direction of the Y axis. In the following figures, coordinate axes are displayed so that the directions of the respective figures can be understood with reference to the coordinate axes in FIG.

撮像チップ111の画素領域には、例えば2000万個以上の画素がマトリックス状に配列されている。図2の例では、隣接する2画素×2画素の4画素が一つの単位領域131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域131を形成する概念を示す。単位領域131を形成する画素の数はいくらでもよく、例えば1000画素でも1画素でもよい。また、単位領域間で画素の数が異なっていても構わない。   In the pixel region of the imaging chip 111, for example, 20 million or more pixels are arranged in a matrix. In the example of FIG. 2, four adjacent pixels of 2 × 2 pixels form one unit area 131. The grid lines in the figure show the concept of forming the unit area 131 by grouping adjacent pixels. The number of pixels forming the unit area 131 may be any number, for example, 1000 pixels or 1 pixel. Further, the number of pixels may be different between the unit areas.

画素領域の部分拡大図に示すように、単位領域131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を内包する。緑色画素Gb、Grは、カラーフィルタとして緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素Bは、カラーフィルタとして青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素Rは、カラーフィルタとして赤色フィルタを有する画素であって赤色波長帯の光を受光する。   As shown in the partial enlarged view of the pixel region, the unit region 131 includes a so-called Bayer array including four pixels of green pixels Gb and Gr, blue pixels B and red pixels R. The green pixels Gb and Gr are pixels having a green filter as a color filter, and receive light in a green wavelength band of incident light. Similarly, a blue pixel B is a pixel having a blue filter as a color filter and receives light in a blue wavelength band, and a red pixel R is a pixel having a red filter as a color filter and emits light in a red wavelength band. Receive light.

本実施の形態において、1ブロックにつき単位領域131を少なくとも1つ含むように複数のブロックが定義される。すなわち、1ブロックの最小単位は1つの単位領域131となる。上述したように、1つの単位領域131を形成する画素の数として取り得る値のうち、最も小さい画素の数は1画素である。したがって、1ブロックを画素単位で定義する場合、1ブロックを定義し得る画素の数のうち最小の画素の数は1画素となる。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。各ブロックは、そのブロック内の全ての単位領域131、すなわち、そのブロック内の全ての画素が同一の撮像条件で制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる光電変換信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、光電変換信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数(語長)等である。撮像素子100は、行方向(撮像チップ111のX軸方向)の間引きのみでなく、列方向(撮像チップ111のY軸方向)の間引きも自在に行える。さらに、制御パラメータは、画像処理におけるパラメータであってもよい。   In the present embodiment, a plurality of blocks are defined so as to include at least one unit area 131 per block. That is, the minimum unit of one block is one unit area 131. As described above, among the possible values of the number of pixels forming one unit region 131, the smallest number of pixels is one pixel. Therefore, when one block is defined in pixel units, the minimum number of pixels among the number of pixels that can define one block is one pixel. Each block can control pixels included in each block with different control parameters. In each block, all the unit areas 131 in the block, that is, all the pixels in the block are controlled under the same imaging conditions. That is, photoelectric conversion signals having different imaging conditions can be obtained for a pixel group included in a certain block and a pixel group included in another block. Examples of the control parameters include a frame rate, a gain, a thinning rate, the number of rows or columns to be added for adding the photoelectric conversion signal, the charge accumulation time or the number of accumulations, and the number of digitization bits (word length). The imaging element 100 can perform not only thinning in the row direction (X-axis direction of the imaging chip 111) but also thinning in the column direction (Y-axis direction of the imaging chip 111). Further, the control parameter may be a parameter in image processing.

<測距の説明>
本実施の形態では、撮像チップ111に離散的に設けられた焦点検出用画素からの測距用の画像信号に基づいて、撮像光学系31(図3)の異なる瞳位置を通過する複数の光束による複数の像のずれ量(位相差)を検出することにより、撮像光学系31のデフォーカス量を求める。デフォーカス量と対象物までの距離とが一対一で対応するため、カメラ3Aから対象物までの距離を求めることができる。
なお、撮像チップ111において焦点検出画素以外の画素位置には通常の撮像用画素が設けられる。撮像用画素は、車外監視用の画像信号を出力する。
<Explanation of distance measurement>
In the present embodiment, a plurality of luminous fluxes passing through different pupil positions of the imaging optical system 31 (FIG. 3) based on image signals for distance measurement from focus detection pixels discretely provided on the imaging chip 111. The defocus amount of the imaging optical system 31 is obtained by detecting the shift amount (phase difference) of a plurality of images due to the following. Since the defocus amount and the distance to the object correspond one-to-one, the distance from the camera 3A to the object can be obtained.
Note that normal imaging pixels are provided at pixel positions other than the focus detection pixels in the imaging chip 111. The imaging pixel outputs an image signal for monitoring outside the vehicle.

<カメラの説明>
図3は、上述した撮像素子100を有するカメラ3A(3B)の構成を例示するブロック図である。上述したように、カメラ3Aおよび3Bの構成は同一である。図3において、カメラ3A(3B)は、撮像光学系31と、撮像部32と、画像処理部33と、ワークメモリ34と、制御部35と、記録部36とを有する。駆動部37は、第二の実施の形態において用いるので、第一の実施の形態では必須の構成ではない。
<Explanation of camera>
FIG. 3 is a block diagram illustrating the configuration of the camera 3A (3B) having the above-described image sensor 100. As described above, the configurations of the cameras 3A and 3B are the same. 3, the camera 3A (3B) includes an imaging optical system 31, an imaging unit 32, an image processing unit 33, a work memory 34, a control unit 35, and a recording unit 36. Since the driving unit 37 is used in the second embodiment, it is not an essential component in the first embodiment.

撮像光学系31は、被写界からの光束を撮像部32へ導く。撮像部32は、上記撮像素子100および駆動部32aを含み、撮像光学系31によって撮像チップ111上に結像された対象物の像を光電変換する。駆動部32aは、撮像素子100(撮像チップ111)に上述したブロック単位で独立した蓄積制御を行わせるために必要な駆動信号を生成する。上記ブロックの位置や形状、その範囲、蓄積時間などの指示は、制御部35から駆動部32aへ送信される。   The imaging optical system 31 guides a light beam from the object scene to the imaging unit 32. The imaging unit 32 includes the imaging element 100 and the driving unit 32a, and photoelectrically converts the image of the object formed on the imaging chip 111 by the imaging optical system 31. The drive unit 32a generates a drive signal necessary for causing the image sensor 100 (image pickup chip 111) to perform independent accumulation control in the above-described block units. Instructions such as the position and shape of the block, its range, and the accumulation time are transmitted from the control unit 35 to the drive unit 32a.

画像処理部33は、第1画像処理部30aと第2画像処理部30bとを含む。本実施の形態では、後述するように、制御部35が撮像素子100の撮像チップ111の撮像面を第1領域と第2領域とに分割し、第1領域と第2領域とで異なる撮像条件で撮像を行わせる。この場合において、例えば、第1画像処理部30aが撮像素子100の第1領域から出力された画像信号に対する画像処理を実行する。また、第2画像処理部30bは、撮像素子100の第2領域から出力された画像信号に対する画像処理を実行する。   The image processing unit 33 includes a first image processing unit 30a and a second image processing unit 30b. In the present embodiment, as will be described later, the control unit 35 divides the imaging surface of the imaging chip 111 of the imaging device 100 into a first area and a second area, and different imaging conditions for the first area and the second area. To perform imaging. In this case, for example, the first image processing unit 30a performs image processing on an image signal output from the first region of the image sensor 100. In addition, the second image processing unit 30b performs image processing on an image signal output from the second region of the image sensor 100.

図4(a)〜図4(c)は、制御部35によって分割された第1領域および第2領域を例示する図である。図4(a)によれば、第1領域は、奇数の列の上記ブロックによって構成され、第2領域は、偶数の列の上記ブロックによって構成されている。すなわち、撮像チップ111におけるブロックが、奇数列と偶数列とに分割される。   FIGS. 4A to 4C are diagrams illustrating a first area and a second area divided by the control unit 35. FIG. According to FIG. 4A, the first area is constituted by the blocks in the odd columns, and the second area is constituted by the blocks in the even columns. That is, the blocks in the imaging chip 111 are divided into odd columns and even columns.

図4(b)によれば、第1領域は、奇数の行の上記ブロックによって構成され、第2領域は、偶数の行の上記ブロックによって構成されている。すなわち、撮像チップ111におけるブロックが、奇数行と偶数行とに分割される。   According to FIG. 4B, the first area is constituted by the blocks in the odd rows, and the second area is constituted by the blocks in the even rows. That is, the blocks in the imaging chip 111 are divided into odd rows and even rows.

図4(c)によれば、第1領域は、奇数の列における奇数の行の上記ブロックと、偶数の列における偶数の行の上記ブロックとによって構成されている。また、第2領域は、偶数の列における奇数の行の上記ブロックと、奇数の列における偶数の行の上記ブロックとによって構成されている。すなわち、撮像チップ111において、ブロックが市松模様となるように分割されている。   According to FIG. 4 (c), the first area is constituted by the blocks of the odd rows in the odd columns and the blocks of the even rows in the even columns. Further, the second region is constituted by the blocks of the odd rows in the even columns and the blocks of the even rows in the odd columns. That is, in the imaging chip 111, the blocks are divided so as to have a checkered pattern.

図3に戻り、第1画像処理部30aおよび第2画像処理部30bはそれぞれ、ワークメモリ34をワークスペースとして、第1領域から出力された画像信号、および第2領域から出力された画像信号に対する画像処理を行う。画像処理には、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像信号を生成する処理、RGB画像信号に対するホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などを行う処理を含む。また、必要に応じて所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理も、画像処理に含まれる。第1画像処理部30aおよび第2画像処理部30bはさらに、画像に含まれる対象物の色検出も行う。   Returning to FIG. 3, the first image processing unit 30a and the second image processing unit 30b each use the work memory 34 as a work space for an image signal output from the first area and an image signal output from the second area. Perform image processing. The image processing includes processing for generating an RGB image signal by performing color signal processing (color tone correction) on a signal obtained in the Bayer array, white balance adjustment for the RGB image signal, sharpness adjustment, gamma correction, and gradation. Including processing for performing adjustment and the like. Further, a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary is also included in the image processing. The first image processing unit 30a and the second image processing unit 30b also detect the color of an object included in the image.

ワークメモリ34は、画像処理前後の画像データなどを一時的に記憶するメモリである。記録部36は、不揮発性メモリなどで構成される記憶媒体に画像データなどを記録する。制御部35は、例えばCPU35aと記憶部35bとによって構成される。CPU35aは、制御装置4からの制御信号に応じて、カメラ3A(3B)による全体の動作を制御する。例えば、撮像部32で撮像された画像信号に基づいて所定の露出演算を行い、適正露出に必要な撮像チップ111の蓄積時間を駆動部32aへ指示する。カメラ3A(3B)で取得した画像データおよび算出した測距データは、制御装置4へ送出される(図1)。記憶部35bは、CPU35aが実行するプログラム、および必要な情報を記憶する。   The work memory 34 is a memory for temporarily storing image data before and after image processing. The recording unit 36 records image data and the like on a storage medium including a nonvolatile memory. The control unit 35 includes, for example, a CPU 35a and a storage unit 35b. The CPU 35a controls the entire operation of the camera 3A (3B) according to a control signal from the control device 4. For example, a predetermined exposure calculation is performed based on the image signal captured by the imaging unit 32, and the accumulation time of the imaging chip 111 required for proper exposure is instructed to the driving unit 32a. The image data acquired by the camera 3A (3B) and the calculated distance measurement data are sent to the control device 4 (FIG. 1). The storage unit 35b stores a program executed by the CPU 35a and necessary information.

<撮像素子のブロック制御>
制御装置4は、カメラ3A(3B)の撮像素子100(撮像チップ111)に対し、上述したブロック単位で独立した蓄積制御を行わせる。例えば、制御装置4が制御部35へ指示を送り、撮像チップ111の撮像面を上述したように分割させて第1領域と第2領域とを設定し、第1領域と第2領域との間において異なる撮像条件で電荷蓄積(撮像)を行わせる。第1領域と第2領域との間で撮像条件は異なるが、第1領域に基づいて取得した画像と第2領域に基づいて取得した画像とは、それぞれ同じ被写体(対象物)を含む。
<Block control of image sensor>
The control device 4 causes the image sensor 100 (imaging chip 111) of the camera 3A (3B) to perform the independent accumulation control in the above-described block unit. For example, the control device 4 sends an instruction to the control unit 35, divides the imaging surface of the imaging chip 111 as described above, sets the first region and the second region, and sets the distance between the first region and the second region. , Charge accumulation (imaging) is performed under different imaging conditions. Although the imaging conditions are different between the first area and the second area, the image acquired based on the first area and the image acquired based on the second area each include the same subject (object).

また、制御装置4は、第1領域(第2領域でもよい)において、第4領域と第4領域より注目度を高めたい第3領域とを設定し、第3領域と第4領域との間において異なる条件で電荷蓄積(撮像)を行わせる。この場合は、第3領域と第4領域とにおいて取得される被写体(対象物)が異なる。
ここで、第3領域、第4領域においては、上述した制御パラメータに加えて、第3領域、第4領域のサイズや位置も、撮像条件の一つである。
In the first region (or the second region), the control device 4 sets a fourth region and a third region whose attention level is to be raised more than the fourth region, and sets the fourth region and the fourth region between the third region and the fourth region. , Charge accumulation (imaging) is performed under different conditions. In this case, the subjects (objects) acquired in the third area and the fourth area are different.
Here, in the third area and the fourth area, in addition to the control parameters described above, the size and position of the third area and the fourth area are one of the imaging conditions.

<前方カメラ>
本実施の形態では、制御装置4が、車両1の前方を撮像するカメラ3Aの撮像素子100に対して、例えば図4(a)のように第1領域および第2領域を設定する。制御装置4は、第1領域に基づいて取得した画像を、上述した車両1の走行路および対象物を検出するために用いる。また、制御装置4は、第2領域に基づいて取得した画像を、表示・再生装置14(図1)に対する表示用に用いる。
制御装置4はさらに、上記第1領域のうち、運転者が注視していない領域、あるいは運転者による注視の度合いが低い領域を第3領域として設定する。
<Front camera>
In the present embodiment, the control device 4 sets a first region and a second region for the image sensor 100 of the camera 3A that images the front of the vehicle 1 as shown in FIG. 4A, for example. The control device 4 uses the image acquired based on the first region to detect the above-described traveling path of the vehicle 1 and the target. Further, the control device 4 uses the image acquired based on the second area for display on the display / reproduction device 14 (FIG. 1).
The control device 4 further sets, as the third region, a region in which the driver is not gazing, or a region in which the degree of gazing by the driver is low, in the first region.

<右折時>
図5は、交差点を右折しようとする車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。実際には倒立逆像が結像されるが、わかりやすくするために正立正像として図示している。図5において、撮像チップ111の撮像面(撮影領域)70には、交差点の道路の像と、対向車91の像と、歩行者92の像が含まれる。
なお、図4(a)のように分割されている場合、図5の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する。
<When turning right>
FIG. 5 is a diagram schematically illustrating an image of a subject (object) formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 that is about to turn right at an intersection. Although an inverted inverted image is actually formed, it is illustrated as an erect upright image for easy understanding. In FIG. 5, an imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a road at an intersection, an image of an oncoming vehicle 91, and an image of a pedestrian 92.
When the image is divided as shown in FIG. 4A, the odd columns in the image in FIG. 5 correspond to the first region, and the even columns correspond to the second region.

制御装置4は、撮像面70のうちの第1領域と第2領域との間で異なる条件を設定して電荷蓄積(撮像)を行わせる。例えば、第1領域に対応する単位領域131(図2)に対し、フレームレートを120fpsに設定して撮像するようにカメラ3Aを制御するとともに、第2領域に対応する単位領域131に対し、フレームレートを30fpsに設定して撮像するようにカメラ3Aを制御する。   The control device 4 sets different conditions between the first area and the second area on the imaging surface 70 to cause charge accumulation (imaging). For example, the camera 3A is controlled so that the frame rate is set to 120 fps with respect to the unit area 131 (FIG. 2) corresponding to the first area, and the frame is set to the unit area 131 corresponding to the second area. The camera 3A is controlled so as to capture an image at a rate set to 30 fps.

一般に、フレームレートを高く設定する第1領域は、フレームレートを低く設定する第2領域に比べて電荷蓄積時間が短く制限される。このため、暗い環境においてはゲインを高くして画像が暗くなるのを防止する。ゲインを高くすることによって画像が明るくなり、対象物を適切に検出することができる。このとき、ゲインを高めたことによってノイズが増加した場合でも対象物を適切に検出できる。一方、フレームレートを低く設定する第2領域は、第1領域に比べて電荷蓄積時間を長くとれるので、ゲインを高くしなくても明るくノイズが少ない、表示に適した画像が得られる。
なお、上記では第1領域と第2領域とでフレームレートを異なるように設定したが、フレームレートは変更せずに、第1領域と第2領域とのゲインを異ならせるようにしても良い。例えば、第1領域のゲインを第2領域のゲインよりも高く設定すると、夕方や夜間等の暗い条件でも、第1領域で対象物を適切に検出できる。
Generally, the first region where the frame rate is set to be higher is limited to have a shorter charge accumulation time than the second region where the frame rate is set to be lower. Therefore, in a dark environment, the gain is increased to prevent the image from becoming dark. By increasing the gain, the image becomes brighter, and the object can be appropriately detected. At this time, the object can be appropriately detected even when the noise is increased by increasing the gain. On the other hand, in the second region where the frame rate is set lower, the charge accumulation time can be longer than in the first region, so that an image suitable for display, which is bright and has less noise without increasing the gain, can be obtained.
In the above description, the frame rate is set to be different between the first area and the second area. However, the gain between the first area and the second area may be changed without changing the frame rate. For example, if the gain of the first area is set higher than the gain of the second area, an object can be appropriately detected in the first area even in dark conditions such as evening or night.

一般に、右折車両の運転者は、対象物のうち対向車91と右折先の道路の横断歩道を歩行する歩行者92を含む領域90へ視線を向けるので、領域90に対する注目度が高くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない左側の第3領域81と、第3領域81を除く右側の第4領域82(網掛け)との間で異なる条件を設定して電荷蓄積(撮像)を行わせる。例えば、撮像チップ111の第3領域81に対応する単位領域131(図2)に対し、それぞれ第3の条件を設定して撮像するようにカメラ3Aを制御するとともに、第4領域82に対応する単位領域131に対し、それぞれ第4の条件を設定して撮像するようにカメラ3Aを制御する。   In general, the driver of the right-turn vehicle turns his or her eyes to an area 90 including an oncoming vehicle 91 and a pedestrian 92 who walks on a crosswalk of a road to which the vehicle turns right. Therefore, the control device 4 switches between the left third region 81 not including the region 90 and the right fourth region 82 (shaded) excluding the third region 81 among the first regions on the imaging surface 70. Different conditions are set and charge accumulation (imaging) is performed. For example, the camera 3 </ b> A is controlled so that the third condition is set for each of the unit areas 131 (FIG. 2) corresponding to the third area 81 of the imaging chip 111, and the unit area 131 corresponds to the fourth area 82. The camera 3A is controlled such that the fourth condition is set for each of the unit areas 131 to capture an image.

なお、第3領域81、第4領域82をそれぞれ複数設けてもよいし、第3領域81内あるいは第4領域82内に電荷蓄積制御(撮像条件)が異なる複数の領域を設けてもよい。さらに、第3領域81、第4領域82において電荷蓄積(撮像)を行わせない休止領域を設けてもよい。   Note that a plurality of third regions 81 and fourth regions 82 may be provided, or a plurality of regions having different charge accumulation controls (imaging conditions) may be provided in the third region 81 or the fourth region 82. Further, in the third region 81 and the fourth region 82, a pause region in which charge accumulation (imaging) is not performed may be provided.

<左折時>
図6は、交差点を左折しようとする車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図6において、撮像チップ111の撮像面(撮影領域)70には、交差点の道路の像と、対向車91の像と、歩行者92の像が含まれる。
なお、図4(a)のように分割されている場合、図6の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する。制御装置4は、右折時と同様に、第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する。
<When turning left>
FIG. 6 is a diagram schematically illustrating an image of a subject (object) formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 about to turn left at the intersection. In FIG. 6, an imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a road at an intersection, an image of an oncoming vehicle 91, and an image of a pedestrian 92.
When the image is divided as shown in FIG. 4A, the odd columns in the image of FIG. 6 correspond to the first region, and the even columns correspond to the second region. The control device 4 controls the camera 3A to set different frame rates between the first area and the second area to capture an image, as in the case of turning right.

一般に、左折車両の運転者は、対象物のうち左折先の道路の横断歩道を歩行する歩行者92を含む領域90へ視線を向けるので、領域90に対する注目度が高くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない右側の第3領域81と、第3領域81を除く左側の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, the driver of the left-turn vehicle turns his or her gaze to an area 90 including a pedestrian 92 who walks a pedestrian crossing the left turn road among the objects, so that the degree of attention to the area 90 increases. Therefore, the control device 4 sets the distance between the right third region 81 not including the region 90 and the left fourth region 82 (shaded) excluding the third region 81 in the first region on the imaging surface 70. Different conditions are set and charge accumulation (imaging) is performed.

<直進時>
図7は、道路を直進する車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図7(a)において、撮像チップ111の撮像面(撮影領域)70には、直線状の道路の像と、先行車93の像と、隣車線を走行する他車94の像が含まれる。
なお、図4(a)のように分割されている場合、図7(a)の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する。制御装置4は、右折時や左折時と同様に、第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する。
<When going straight>
FIG. 7 is a diagram schematically illustrating an image of a subject (object) formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 traveling straight on the road. In FIG. 7A, an imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a straight road, an image of a preceding vehicle 93, and an image of another vehicle 94 traveling in an adjacent lane.
When the image is divided as shown in FIG. 4A, the odd columns in the image of FIG. 7A correspond to the first region, and the even columns correspond to the second region. The control device 4 controls the camera 3A so as to set different frame rates between the first area and the second area and capture an image, as in the case of turning right or turning left.

一般に、直進車両の運転者は、専ら前方中央を含む領域90へ視線を向けるので、領域90に対する注目度が高くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない左右両端の第3領域81と、第3領域81を除く中央の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, a driver of a straight-ahead vehicle turns his or her gaze exclusively to the area 90 including the front center, so that the degree of attention to the area 90 increases. Therefore, the control device 4 sets the distance between the third region 81 at the left and right ends not including the region 90 and the central fourth region 82 (shaded) excluding the third region 81 in the first region on the imaging surface 70. And charge accumulation (imaging) is performed by setting different conditions.

<高速時>
図7(b)は、図7(a)に比べて車速Vが速い車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図7(b)において、撮像チップ111の撮像面(撮影領域)70には、直線状の道路の像と、先行車93の像と、隣車線を走行する他車95の像が含まれる。
図7(b)の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する点、および、制御装置4が第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する点は、図7(a)の像の場合と同様である。
<High speed>
FIG. 7B schematically shows an image of a subject (object) formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 having a higher vehicle speed V than that of FIG. 7A. FIG. In FIG. 7B, the imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a straight road, an image of the preceding vehicle 93, and an image of another vehicle 95 traveling in the adjacent lane.
In the image of FIG. 7B, the odd rows correspond to the first area, the even rows correspond to the second area, and the control device 4 determines that the frame rate differs between the first area and the second area. Is set in such a manner that the camera 3A is controlled so as to take an image, as in the case of the image in FIG.

一般に、運転者は、自車の速度が高くなるほど遠方へ視線を移動させるので、注目度が高い領域90の範囲が低速時に比べて狭くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない画面の周辺部(領域90の周囲)である第3領域81と、第3領域81を除く中央の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, the driver moves his / her line of sight to a distant place as the speed of the vehicle increases, so that the range of the region 90 of high interest becomes narrower than at low speed. Therefore, the control device 4 controls the third area 81 of the first area on the imaging surface 70, which is the peripheral part of the screen not including the area 90 (around the area 90), and the fourth area 81 at the center excluding the third area 81. Different conditions are set between the region 82 (shaded) and charge accumulation (imaging) is performed.

<画像に太陽が含まれる時>
図8は、朝日または夕日に向かって走行する車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される像を模式的に示す図である。図8において、撮像チップ111の撮像面(撮影領域)70には、太陽96の像が含まれる。
図8の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する点、および、制御装置4が第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する点は、上述した各例の場合と同様である。
<When the sun is included in the image>
FIG. 8 is a diagram schematically illustrating an image formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 traveling toward the morning sun or the sunset. In FIG. 8, an image of the sun 96 is included in the imaging surface (imaging area) 70 of the imaging chip 111.
In the image of FIG. 8, the odd columns correspond to the first region, the even columns correspond to the second region, and the controller 4 sets different frame rates between the first region and the second region. The point that the camera 3A is controlled so as to pick up an image is the same as in the above-described examples.

一般に、運転者は、太陽96を直視できない場合に太陽96から視線をそらすだけでなく、太陽96の周囲の高輝度領域90よりもさらに外側へ視線をそらす。この結果、高輝度領域90に対する注目度が低くなる。そこで、制御装置4は、撮像面70における第1領域のうち、高輝度領域90(太陽96の周囲)である第3領域81と、第3領域81を除く第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, the driver not only looks away from the sun 96 when he / she cannot directly look at the sun 96, but also looks further away from the high brightness area 90 around the sun 96. As a result, the degree of attention to the high-luminance area 90 decreases. Therefore, the control device 4 includes, among the first regions on the imaging surface 70, a third region 81 that is a high-luminance region 90 (around the sun 96) and a fourth region 82 (shaded) excluding the third region 81. During this period, different conditions are set and charge accumulation (imaging) is performed.

<画面内を移動する対象物が含まれる時>
図9は、信号機がない交差点にさしかかった車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される像を模式的に示す図である。図9において、撮像チップ111の撮像面(撮影領域)70には、交差点の右方向から左方向へ直進した車両97と、交差点を直進してくる対向車91とが含まれる。
図9の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する点、および、制御装置4が第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する点は、上述した各例の場合と同様である。
<When an object moving on the screen is included>
FIG. 9 is a diagram schematically illustrating an image formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 approaching the intersection where there is no traffic light. In FIG. 9, the imaging surface (imaging area) 70 of the imaging chip 111 includes a vehicle 97 traveling straight from the right to the left of the intersection, and an oncoming vehicle 91 traveling straight at the intersection.
In the image of FIG. 9, the odd rows correspond to the first area, the even rows correspond to the second area, and the control device 4 sets different frame rates between the first area and the second area. The point that the camera 3A is controlled so as to pick up an image is the same as in the above-described examples.

一般に、運転者は、移動物体の移動方向へ視線を移動させるので、左方向へ進んだ車両97を含む領域90に対する注目度が高くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない右側(前方右)の第3領域81と、第3領域81を除く左側の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   Generally, the driver moves his or her line of sight in the moving direction of the moving object, so that the degree of attention to the region 90 including the vehicle 97 that has proceeded to the left increases. Therefore, the control device 4 controls the right (front right) third region 81 not including the region 90 and the left fourth region 82 (shaded) excluding the third region 81 among the first regions on the imaging surface 70. And charge accumulation (imaging) is performed by setting different conditions.

<フローチャートの説明>
以下、フローチャート(図10、図11)を参照して第3領域81および第4領域82の決め方について説明する。図10は、制御装置4が実行するカメラ3Aの制御処理の全体の流れを説明するフローチャートである。図10のフローチャートによる処理を実行するためのプログラムは、制御装置4の記憶部4bに格納されている。制御装置4は、例えば車両1から電源供給が開始(システムオン)されたり、エンジンが始動されたりすると、図10による処理を行うプログラムを起動する。
<Explanation of flowchart>
Hereinafter, how to determine the third area 81 and the fourth area 82 will be described with reference to flowcharts (FIGS. 10 and 11). FIG. 10 is a flowchart illustrating the overall flow of the control process of the camera 3A executed by the control device 4. A program for executing the processing according to the flowchart of FIG. 10 is stored in the storage unit 4b of the control device 4. For example, when power supply is started from the vehicle 1 (system is turned on) or the engine is started, the control device 4 starts a program for performing the processing in FIG.

図10のステップS10において、制御装置4は、フラグa=0か否かを判定する。フラグaは、初期設定が終了している場合に1、初期設定が終了していない場合に0がセットされるフラグである。制御装置4は、フラグa=0の場合にステップS10を肯定判定してステップS20へ進み、フラグa≠0の場合にステップS10を否定判定してステップS30へ進む。   In step S10 in FIG. 10, the control device 4 determines whether or not the flag a = 0. The flag a is a flag that is set to 1 when the initialization has been completed and set to 0 when the initialization has not been completed. When the flag a = 0, the control device 4 makes an affirmative decision in step S10 and proceeds to step S20, and when the flag a ≠ 0, makes a negative decision in step S10 and proceeds to step S30.

ステップS20において、制御装置4は、カメラ3Aへ初期設定を行ってステップS30へ進む。初期設定では、カメラ3Aに所定の動作をさせるための予め定められた設定を行うとともに、フラグaに1をセットする。これにより、カメラ3Aが撮像素子100の撮像面の全域に同じ撮像条件を設定し、例えば毎秒60フレーム(60fps)のフレームレートで撮像を開始する。   In step S20, the control device 4 performs an initial setting for the camera 3A, and proceeds to step S30. In the initial setting, a predetermined setting for causing the camera 3A to perform a predetermined operation is performed, and 1 is set to the flag a. As a result, the camera 3A sets the same imaging conditions over the entire imaging surface of the imaging device 100, and starts imaging at a frame rate of, for example, 60 frames per second (60 fps).

ステップS30において、制御装置4は、撮像条件設定処理を行ってステップS40へ進む。撮像条件設定処理は、カメラ3Aの撮像素子100に対し、奇数の列のブロックによって構成される第1領域と、偶数の列のブロックによって構成される第2領域とを設定するとともに、第1領域において第3領域81および第4領域82を設定した上で、各領域に対してそれぞれの撮像条件を決定する処理をいう。撮像条件設定処理の詳細については後述する。本実施の形態では、第1領域について、第2領域に比べてフレームレートを高くし、ゲインを高くし、間引き率を低くし、蓄積時間を短く設定する。また、第3領域81について、第4領域82に比べてフレームレートを高くし、ゲインを高くし、間引き率を低くし、蓄積時間を短く設定する。カメラ3Aは、この設定に基づいて撮像を行い、上述した距離測定(測距)を行う。
なお、第1領域と第2領域との間でフレームレート、ゲイン、間引き率、蓄積時間などの全てを異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。また、第3領域81と第4領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの全てを異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。
In step S30, the control device 4 performs an imaging condition setting process, and proceeds to step S40. The imaging condition setting process sets, for the imaging device 100 of the camera 3A, a first area formed by odd-numbered row blocks and a second area formed by even-numbered row blocks. , A process of setting the third area 81 and the fourth area 82 and determining the respective imaging conditions for each area. Details of the imaging condition setting process will be described later. In the present embodiment, the frame rate of the first area is set higher than that of the second area, the gain is increased, the thinning rate is reduced, and the accumulation time is set shorter. In the third area 81, the frame rate is increased, the gain is increased, the thinning rate is reduced, and the accumulation time is set shorter than in the fourth area 82. The camera 3A performs imaging based on this setting, and performs the above-described distance measurement (distance measurement).
Note that it is not necessary to change all of the frame rate, the gain, the thinning rate, the accumulation time, and the like between the first area and the second area, and at least one may be different. Further, it is not necessary to change all of the frame rate, the gain, the thinning rate, the accumulation time, and the like between the third area 81 and the fourth area 82, and at least one of them may be made different.

図10のステップS40において、制御装置4は、撮像条件設定処理後にカメラ3Aで取得された画像データ、測距データ、および車両1内の各部からの情報を取得してステップS50へ進む。ステップS50において、制御装置4は、情報を表示する設定が行われているか否かを判定する。制御装置4は、表示設定が行われている場合にステップ50を肯定判定してステップS60へ進む。制御装置4は、表示設定が行われていない場合には、ステップ50を否定判定してステップS70へ進む。   In step S40 in FIG. 10, the control device 4 acquires the image data, the distance measurement data, and the information from each unit in the vehicle 1 acquired by the camera 3A after the imaging condition setting process, and proceeds to step S50. In step S50, the control device 4 determines whether or not a setting for displaying information has been made. When the display setting has been performed, the control device 4 makes an affirmative decision in step 50 and proceeds to step S60. When the display setting is not performed, the control device 4 makes a negative determination in step 50 and proceeds to step S70.

ステップS60において、制御装置4は、表示・再生装置14(図1)に対する表示情報を送出してステップS70へ進む。制御装置4は、例えば、撮像素子100の第2領域に基づいて取得した画像を表示情報として、表示・再生装置14(図1)に表示させる。また、制御装置4は、第1領域に基づいて取得した画像から対象物(例えば、図6における対向車91)を検出した場合に、表示・再生装置14(図1)に表示する画像(第2領域で取得した画像)の中で、対応する対象物(上記例においては対向車)を目立たせる。目立たせる態様は、例えば、対象物を囲う枠を表示したり、対象物の表示輝度を高めて明るく表示したり、明滅させたり、着色して表示させる。   In step S60, the control device 4 sends out display information to the display / playback device 14 (FIG. 1), and proceeds to step S70. The control device 4 causes the display / reproduction device 14 (FIG. 1) to display, for example, an image acquired based on the second area of the image sensor 100 as display information. In addition, when detecting an object (for example, the oncoming vehicle 91 in FIG. 6) from the image acquired based on the first area, the control device 4 displays the image (second image) displayed on the display / reproduction device 14 (FIG. 1). The corresponding target object (an oncoming vehicle in the above example) is highlighted in the images acquired in the two regions. As a mode of making the object stand out, for example, a frame surrounding the object is displayed, the display luminance of the object is increased to display it brightly, blinking, or colored.

制御装置4は、表示・再生装置14(図1)に表示させた画像(第2領域で取得した画像)に加えて、次のようなメッセージを表示・再生装置14に表示させてもよい。メッセージの例としては、例えば、第1領域に基づいて取得した画像から対象物(上記例における対向車)を検出した場合に、「前方に対向車がいます」というメッセージである。
なお、メッセージを表示・再生装置14に表示させる代わりに、またはメッセージの表示とともに、上記メッセージを音声再生させるための音声信号を送出してもよい。音声再生装置として、不図示のナビゲーション装置の音声装置を用いてもよい。
The control device 4 may cause the display / playback device 14 to display the following message in addition to the image (the image acquired in the second area) displayed on the display / playback device 14 (FIG. 1). As an example of the message, for example, when a target object (an oncoming vehicle in the above example) is detected from an image acquired based on the first area, a message “an oncoming vehicle is ahead” is provided.
Instead of displaying the message on the display / reproducing device 14 or together with the display of the message, an audio signal for reproducing the message may be transmitted. A sound device of a navigation device (not shown) may be used as the sound reproducing device.

ステップS70において、制御装置4は、オフ操作されたか否かを判定する。制御装置4は、例えば車両1からオフ信号(例えば、システムオフ信号またはエンジンのオフ信号)を受けると、ステップS70を肯定判定し、所定のオフ処理を行って図10による処理を終了する。制御装置4は、例えば車両1からオフ信号を受けない場合は、ステップS70を否定判定してステップS30へ戻る。ステップS30へ戻る場合は、上述した処理を繰り返す。   In step S70, the control device 4 determines whether or not an off operation has been performed. Upon receiving, for example, an off signal (for example, a system off signal or an engine off signal) from the vehicle 1, the control device 4 makes an affirmative determination in step S70, performs a predetermined off process, and ends the process in FIG. For example, when not receiving the off signal from the vehicle 1, the control device 4 makes a negative determination in step S70 and returns to step S30. When returning to step S30, the above processing is repeated.

<撮像条件設定処理>
図11のフローチャートを参照して、上記撮像条件設定処理(S30)の詳細について説明する。図11のステップS31において、制御装置4は、視線検出装置16(図1)から視線情報を入力してステップS32Aへ進む。
<Imaging condition setting process>
The details of the imaging condition setting process (S30) will be described with reference to the flowchart in FIG. In step S31 of FIG. 11, the control device 4 inputs the line-of-sight information from the line-of-sight detection device 16 (FIG. 1), and proceeds to step S32A.

ステップS32Aにおいて、制御装置4は、撮像チップ111の撮像面70に対し、奇数列のブロックによって構成される第1領域と、偶数列のブロックによって構成される第2領域とを設定してステップS32Bへ進む。ステップS32Bにおいて、制御装置4は、上記第1領域のうち、運転者の視線対象を含まない領域を第3領域81とし、第3領域81以外の領域を第4領域82としてステップS33へ進む。例えば、車両1の運転者が専ら前方正面を注視している場合、図7(a) や図7(b) に例示した場合と同様に、撮像面70における第1領域のうち、中央部が第4領域82とされ、中央部を除く領域が第3領域81とされる。   In step S32A, the control device 4 sets a first area composed of odd-numbered row blocks and a second area composed of even-numbered row blocks on the imaging surface 70 of the imaging chip 111, and proceeds to step S32B. Proceed to. In step S32B, the control device 4 sets the area not including the driver's line of sight among the first areas as the third area 81, and sets the area other than the third area 81 as the fourth area 82, and proceeds to step S33. For example, in a case where the driver of the vehicle 1 is gazing exclusively at the front front, as in the case illustrated in FIGS. A fourth region 82 is defined, and a region excluding the central portion is defined as a third region 81.

ステップS33において、制御装置4は視線検出装置16(図1)から視線情報を入力し、視線移動の有無を判定する。制御装置4は、例えば、視線移動量が所定値より大きい場合にステップS33を肯定判定してステップS34へ進む。制御装置4は、視線移動量が上記所定値より大きくない場合にはステップS33を否定判定してステップS36へ進む。   In step S33, the control device 4 inputs the line-of-sight information from the line-of-sight detection device 16 (FIG. 1), and determines whether or not there is a line-of-sight movement. For example, when the amount of movement of the line of sight is larger than the predetermined value, the control device 4 makes an affirmative determination in step S33 and proceeds to step S34. When the amount of movement of the line of sight is not larger than the predetermined value, the control device 4 makes a negative determination in step S33 and proceeds to step S36.

ステップS34において、制御装置4は、視線の移動方向が、車両1の曲がる方向と一致するか否かを判定する。車両1の曲がる方向は、例えば、ターンシグナルスイッチ11の操作方向、ステアリングホイール10の回転操作方向、カメラ3Aで取得された前フレームの画像との比較、のいずれかに基づいて検出する。制御装置4は、視線の移動方向が車両1の曲がる方向と一致する場合にステップS34を肯定判定してステップS35へ進む。制御装置4は、視線の移動方向が車両1の曲がる方向と一致しない場合には、ステップS34を否定判定してステップS39へ進む。   In step S34, the control device 4 determines whether or not the moving direction of the line of sight matches the turning direction of the vehicle 1. The turning direction of the vehicle 1 is detected based on, for example, one of the operation direction of the turn signal switch 11, the rotation operation direction of the steering wheel 10, and a comparison with the image of the previous frame acquired by the camera 3A. When the moving direction of the line of sight matches the turning direction of the vehicle 1, the control device 4 makes an affirmative determination in step S34 and proceeds to step S35. When the moving direction of the line of sight does not match the turning direction of the vehicle 1, the control device 4 makes a negative determination in step S34 and proceeds to step S39.

ステップS35において、制御装置4は、図5、図6を例示して説明したように、撮像面70における第1領域のうち、右折時や左折時において運転者の視線が向かう方向と逆方向に位置する領域を第3領域81とし、第3領域81以外の領域(すなわち視線が向かう方向の領域)を第4領域82として設定し、ステップS3Eへ進む。   In step S35, as described with reference to FIGS. 5 and 6, the control device 4 sets the first area on the imaging surface 70 in the direction opposite to the direction in which the driver's line of sight turns when turning right or turning left. A region located is set as a third region 81, and a region other than the third region 81 (that is, a region in the direction in which the line of sight is directed) is set as a fourth region 82, and the process proceeds to step S3E.

ステップS34を否定判定して進むステップS39において、制御装置4は、視線の移動方向が、撮像面70上を移動する対象物の像の移動方向と一致するか否かを判定する。対象物の像の移動方向は、例えば、カメラ3Aで取得された前フレームの画像との比較に基づいて検出する。制御装置4は、視線の移動方向が対象物の像の移動方向と一致する場合にステップS39を肯定判定してステップS35へ進む。制御装置4は、視線の移動方向が対象物の像の移動方向と一致しない場合には、ステップS39を否定判定してステップS3Aへ進む。ステップS39を肯定判定して進むステップS35では、制御装置4は、図9を例示して上述したように、撮像面70における第1領域のうち、車両97を追って視線が向かう左方向と逆方向に位置する領域を第3領域81とし、第3領域81以外の領域(すなわち視線が向かう方向の領域)を第4領域82として設定し、ステップS3Eへ進む。   In step S39, to which the operation proceeds after making a negative determination in step S34, the control device 4 determines whether or not the moving direction of the line of sight matches the moving direction of the image of the object moving on the imaging surface 70. The moving direction of the image of the target object is detected based on, for example, comparison with the image of the previous frame acquired by the camera 3A. When the moving direction of the line of sight matches the moving direction of the image of the target object, the control device 4 makes an affirmative determination in step S39 and proceeds to step S35. When the moving direction of the line of sight does not match the moving direction of the image of the target object, the control device 4 makes a negative determination in step S39 and proceeds to step S3A. In step S35 in which a positive determination is made in step S39 and the process proceeds, as described above with reference to FIG. 9, the control device 4 determines the direction opposite to the left direction in which the line of sight follows the vehicle 97 in the first area on the imaging surface 70. Is set as the third area 81, and an area other than the third area 81 (that is, an area in the direction in which the line of sight is directed) is set as the fourth area 82, and the process proceeds to step S3E.

ステップS3Aにおいて、制御装置4は、撮像面70に結像される被写体像に太陽の像が含まれるか否かを判定する。制御装置4は、例えば、画像データの値が所定値を超えている領域が存在する場合にステップS3Aを肯定判定してステップS3Bへ進み、画像データの値が上記所定値を超えている領域が存在しない場合には、ステップS3Aを否定判定してステップS3Eへ進む。ステップS3Aを否定判定する場合、制御装置4は、ステップS32Bにおいて設定した第3領域81および第4領域82を維持する。   In step S3A, the control device 4 determines whether or not the subject image formed on the imaging surface 70 includes a sun image. For example, when there is an area where the value of the image data exceeds the predetermined value, the control device 4 proceeds to step S3B by making an affirmative determination in step S3A, and proceeds to step S3B. If not, the process makes a negative determination in step S3A and proceeds to step S3E. When a negative determination is made in step S3A, the control device 4 maintains the third area 81 and the fourth area 82 set in step S32B.

ステップS3Bにおいて、制御装置4は、移動した視線位置が太陽96(図8)の像の位置から離れているか否かを判定する。制御装置4は、視線位置が太陽96に相当する位置から離れている(運転者が、太陽から視線をそらしている)場合にステップS3Bを肯定判定してステップS3Cへ進む。制御装置4は、視線位置が太陽96に相当する位置にある(運転者が、太陽へ視線を向けている)場合にステップS3Bを否定判定してステップS3Eへ進む。ステップS3Bを否定判定する場合、制御装置4は、ステップS32Bにおいて設定した第3領域81および第4領域82を維持する。   In step S3B, the control device 4 determines whether or not the moved line-of-sight position is apart from the position of the image of the sun 96 (FIG. 8). When the line of sight is away from the position corresponding to the sun 96 (the driver is deflecting the line of sight from the sun), the control device 4 makes an affirmative determination in step S3B and proceeds to step S3C. When the gaze position is at a position corresponding to the sun 96 (the driver is looking at the sun), the control device 4 makes a negative determination in step S3B and proceeds to step S3E. When a negative determination is made in step S3B, the control device 4 maintains the third area 81 and the fourth area 82 set in step S32B.

ステップS3Cにおいて、制御装置4は、図8を参照して説明したように、撮像面70における第1領域のうち、太陽96の像の周囲の高輝度領域90(運転者の視線位置よりも太陽96の像の位置に近い領域)を第3領域81とし、第3領域81以外の領域を第4領域82として設定し、ステップS3Dへ進む。   In step S3C, as described with reference to FIG. 8, the control device 4 controls the high-brightness area 90 (the position of the driver higher than the driver's line of sight) The area near the position of the image 96 is set as the third area 81, and the area other than the third area 81 is set as the fourth area 82, and the process proceeds to step S3D.

ステップS3Dにおいて、制御装置4はカメラ3Aへ指示を送り、太陽96の像の領域について、第3領域81のゲインより低く設定させてステップS3Eへ進む。具体的には、太陽96の像に対応する単位領域131(図2)に対し、第3領域81に対応する単位領域131に設定するゲインより低いゲインを設定する。   In step S3D, the control device 4 sends an instruction to the camera 3A to cause the area of the image of the sun 96 to be set lower than the gain of the third area 81, and then proceeds to step S3E. Specifically, a gain lower than the gain set for the unit area 131 corresponding to the third area 81 is set for the unit area 131 (FIG. 2) corresponding to the image of the sun 96.

上述したステップS33を否定判定して進むステップS36において、制御装置4は、車両1が直進中で、かつ運転者の視線位置が前方被写界の略中央にあるか否かを判定する。制御装置4は、車両1が直進中、かつ運転者の視線位置が前方被写界の略中央に相当する位置にある場合、ステップS36を肯定判定してステップS37へ進む。制御装置4は、車両1が直進中でない、または運転者の視線位置が略中央に相当する位置にない場合、ステップS36を否定判定してステップS38へ進む。   In step S36 to which the process proceeds after making a negative determination in step S33 described above, the control device 4 determines whether the vehicle 1 is traveling straight and the driver's line of sight is substantially at the center of the front scene. When the vehicle 1 is traveling straight and the driver's line of sight is at a position corresponding to substantially the center of the front scene, the control device 4 makes an affirmative determination in step S36 and proceeds to step S37. If the vehicle 1 is not traveling straight or the driver's line of sight is not at a position corresponding to substantially the center, the control device 4 makes a negative determination in step S36 and proceeds to step S38.

ステップS37において、制御装置4は、図7(a) 、図7(b) を例示して説明したように、撮像面70における第1領域のうち、視線が向かう中央方向と逆方向に位置する周辺部の領域を第3領域81とし、第3領域81以外の領域(すなわち画面の略中央の領域)を第4領域82として設定し、ステップS3Eへ進む。   In step S37, the control device 4 is located in the direction opposite to the central direction of the line of sight in the first area on the imaging surface 70, as described with reference to FIGS. 7A and 7B. The peripheral area is set as a third area 81, and an area other than the third area 81 (that is, a substantially central area of the screen) is set as a fourth area 82, and the process proceeds to step S3E.

上述したステップS36を否定判定して進むステップS38において、制御装置4は、車両1が減速中で、かつ運転者の視線位置が前方被写界の略中央にあるか否かを判定する。車両1の減速は、例えば、ブレーキペダル8aの踏み込み信号、車速Vの減少、カメラ3Aで取得された前フレームの画像との比較、のいずれかに基づいて検出する。制御装置4は、車両1が減速中、かつ運転者の視線位置が前方被写界の略中央に相当する位置にある場合、ステップS38を肯定判定してステップS3Eへ進む。制御装置4は、車両1が減速中でない、または運転者の視線位置が略中央に相当する位置にない場合、ステップS38を否定判定してステップS3Eへ進む。   In step S38, to which the operation proceeds after making a negative determination in step S36 described above, the control device 4 determines whether the vehicle 1 is decelerating and the driver's line of sight is substantially at the center of the front scene. The deceleration of the vehicle 1 is detected based on, for example, one of a depression signal of the brake pedal 8a, a decrease in the vehicle speed V, and a comparison with an image of a previous frame acquired by the camera 3A. When the vehicle 1 is decelerating and the driver's line of sight is at a position corresponding to substantially the center of the front subject, the control device 4 makes an affirmative determination in step S38 and proceeds to step S3E. When the vehicle 1 is not decelerating or the driver's line of sight is not at a position corresponding to substantially the center, the control device 4 makes a negative determination in step S38 and proceeds to step S3E.

ステップS3Eにおいて、制御装置4はカメラ3Aへ指示を送り、第3領域81のフレームレートを第4領域82のフレームレートよりも高く設定させて、図10のステップS40へ進む。例えば、第3領域81のフレームレートを毎秒120フレーム(120fps)とし、第4領域82のフレームレートを30fpsとする。これは、運転者による注目度が低い領域についての画像情報を取得する頻度を高めるためである。   In step S3E, the control device 4 sends an instruction to the camera 3A to set the frame rate of the third area 81 higher than the frame rate of the fourth area 82, and proceeds to step S40 in FIG. For example, the frame rate of the third area 81 is 120 frames per second (120 fps), and the frame rate of the fourth area 82 is 30 fps. This is to increase the frequency of acquiring image information for an area where the degree of attention of the driver is low.

<後方カメラ>
制御装置4は、車両1の前方を撮像するカメラ3Aに対する第3領域81および第4領域82の設定情報に基づいて、車両1の後方を撮像するカメラ3Bに対する第3領域および第4領域の設定を以下のように行う。
なお、制御装置4は、後方を撮像するカメラ3Bにおいても図4(a)のように第1領域および第2領域を設定し、第1領域に基づいて取得した画像を上述した車両1の走行路および対象物を検出するために用いる。また、制御装置4は、第2領域に基づいて取得した画像を、表示・再生装置14(図1)に対する表示に用いる。制御装置4はさらに、第1領域において、第4領域と第4領域より注目度を高めたい第3領域とを設定し、第3領域と第4領域との間において異なる条件で電荷蓄積(撮像)を行わせる。例えば、後方カメラ3Bの第3領域のフレームレートを120fpsとし、後方カメラ3Bの第4領域のフレームレートを30fpsとする。
<Rear camera>
The control device 4 sets the third area and the fourth area for the camera 3B that images the rear of the vehicle 1 based on the setting information of the third area 81 and the fourth area 82 for the camera 3A that images the front of the vehicle 1. Is performed as follows.
The control device 4 also sets the first region and the second region as shown in FIG. 4A in the camera 3B that captures an image of the rear, and displays the image acquired based on the first region while the vehicle 1 is running. Used to detect roads and objects. Further, the control device 4 uses the image acquired based on the second area for display on the display / reproduction device 14 (FIG. 1). The control device 4 further sets a fourth region and a third region whose attention level is to be raised more than the fourth region in the first region, and stores electric charges (imaging) under different conditions between the third region and the fourth region. ). For example, the frame rate of the third area of the rear camera 3B is 120 fps, and the frame rate of the fourth area of the rear camera 3B is 30 fps.

<左折時>
図12は、交差点を左折しようとする車両1に備えられた後方のカメラ3Bの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。車両1の左サイドを左側に図示するように、図5〜図9の場合と比べて左右を反転させて図示している。図12において、撮像チップ111の撮像面(撮影領域)70には、車両1の後方の道路の像と、車両1に後続する二輪車98の像と、さらに後続する車両99の像が含まれる。
<When turning left>
FIG. 12 is a diagram schematically illustrating an image of a subject (object) formed on the imaging chip 111 of the rear camera 3B provided in the vehicle 1 about to turn left at the intersection. As shown on the left side of the left side of the vehicle 1, the left and right sides are shown inverted from those in FIGS. In FIG. 12, an imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a road behind the vehicle 1, an image of a motorcycle 98 following the vehicle 1, and an image of a vehicle 99 following the vehicle 1.

図6を参照して上述したように、左折車両の運転者は、前方左側の領域90に対する注目度が高くなる。そこで、制御装置4は、運転者の注目度が低い後方について、とくに車両1の左側をすり抜けるおそれのある二輪車98の画像情報の取得頻度を高めるように、図12に例示する撮像面70における第1領域のうち、後方左側の第3領域81と、第3領域81を除く右側の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。図6および図12によれば、左折時の前方のカメラ3Aは、前方に向かって右側を第3領域とし、左折時の後方のカメラ3Bは、後方に向かって右側を第3領域とする。   As described above with reference to FIG. 6, the driver of the left-turn vehicle has a higher degree of attention to the front left region 90. Therefore, the control device 4 increases the frequency of obtaining image information of the two-wheeled vehicle 98 that may pass through the left side of the vehicle 1 particularly in the rear where the degree of attention of the driver is low, so as to increase the frequency of obtaining the image information on the imaging surface 70 illustrated in FIG. Charge accumulation (imaging) is performed by setting different conditions between the third area 81 on the rear left side and the fourth area 82 (shaded area) on the right side excluding the third area 81 in one area. According to FIG. 6 and FIG. 12, the front camera 3A when turning left has the third area on the right side toward the front, and the rear camera 3B when turning left has the third area on the right toward the rear.

<右折時>
右折時の場合は、左折時の場合と左右の設定を入れ替えればよい。すなわち、図5を参照して上述したように、右折車両の運転者は、前方右側の領域90に対する注目度が高くなる。そこで、制御装置4は、運転者の注目度が低い後方について、とくに車両1の右側をすり抜ける車両の画像情報の取得頻度を高めるように、撮像面70における第1領域のうち、後方右側の第3領域81と、第3領域81を除く左側の第4領域82との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。すなわち、右折時の前方のカメラ3Aは、前方に向かって左側を第3領域とし(図5)、右折時の後方のカメラ3Bは、後方に向かって左側を第3領域とする。
<When turning right>
In the case of a right turn, the left and right settings may be interchanged with those of a left turn. That is, as described above with reference to FIG. 5, the driver of the right-turn vehicle has a higher degree of attention to the area 90 on the front right side. Therefore, the control device 4 increases the frequency of acquiring the image information of the vehicle passing through the right side of the vehicle 1 particularly in the rear region where the driver's attention level is low, so that the rear right side of the first region on the imaging surface 70 is increased. Different conditions are set between the third region 81 and the left fourth region 82 excluding the third region 81, and charge accumulation (imaging) is performed. That is, the front camera 3A when turning right makes the left area toward the front a third area (FIG. 5), and the rear camera 3B when turning right makes the left area a third area from behind.

左折時および右折時における後方のカメラ3Bに対する第3領域81および第4領域82の設定は、前方のカメラ3Aに対するステップS35(図11)の処理と前後して行うものとする(同時でもよい)。   The setting of the third area 81 and the fourth area 82 for the rear camera 3B at the time of left turn and right turn is performed before or after the processing of step S35 (FIG. 11) for the front camera 3A (may be simultaneous). .

<減速時>
図21は、例えば高速道路において減速する車両1に備えられた後方のカメラ3Bの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図21において、撮像チップ111の撮像面(撮影領域)70には、車両1の後方の道路の像と、後続する車両99の像が含まれる。一般に、ブレーキをかけた車両の運転者は、専ら前方中央を含む領域90(例えば図7(b))に対する注目度が高くなる。そこで、制御装置4は、運転者の注目度が低い後方について、とくに車両1が減速すると車両1に接近するおそれのある車両99の画像情報の取得頻度を高めるように、図21に例示する撮像面70における第1領域のうち、略中央の第3領域81と、第3領域81を除く周辺部の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。
<During deceleration>
FIG. 21 is a diagram schematically illustrating an image of a subject (object) formed on the imaging chip 111 of the rear camera 3B provided in the vehicle 1 that is decelerating on a highway, for example. In FIG. 21, an imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a road behind the vehicle 1 and an image of a following vehicle 99. In general, a driver of a vehicle that has applied a brake has a high degree of attention to a region 90 (for example, FIG. 7B) including the front center only. Accordingly, the control device 4 increases the frequency of acquiring image information of the vehicle 99 that may possibly approach the vehicle 1 when the vehicle 1 decelerates, particularly in the rear area where the degree of attention of the driver is low, as illustrated in FIG. Charge accumulation (imaging) by setting different conditions between the substantially central third region 81 and the peripheral fourth region 82 (shaded) excluding the third region 81 among the first regions on the surface 70. Is performed.

減速時における後方のカメラ3Bに対する第3領域81および第4領域82の設定は、ステップS38(図11)を肯定判定して進む、前方のカメラ3Aに対するステップS37の処理と前後して行うものとする(同時でもよい)。
なお、上述の実施の形態では、視線検出装置16により乗員の視線を検出していたが、乗員の視線を検出せずに第1領域全体のフレームレートを高く設定して、対象物の検出を行うようにしてもよい。
The setting of the third area 81 and the fourth area 82 for the rear camera 3B at the time of deceleration is performed before or after the processing of step S37 for the front camera 3A, which proceeds with an affirmative determination in step S38 (FIG. 11). (May be simultaneous).
In the above-described embodiment, the line of sight of the occupant is detected by the line of sight detection device 16, but the frame rate of the entire first area is set high without detecting the line of sight of the occupant to detect the target. It may be performed.

上述した第一の実施の形態によれば、次の作用効果が得られる。
(1)電子機器の一例である撮像装置は、撮像面における第1領域と、第1領域とは異なる第2領域とで、それぞれ異なる撮像条件により車外の第1動画と第2動画との撮像を行うカメラ3Aと、第1動画において対象物の検出を行う制御装置4と、制御装置4で検出した対象物の情報を第2動画により表示する表示・再生装置14と、を備えた。これにより、第1領域に対して対象物の検出に適した撮像条件を設定できる。また、検出した対象物を、乗員に視覚的に知らせることができる。
According to the above-described first embodiment, the following operation and effect can be obtained.
(1) An imaging device as an example of an electronic apparatus captures a first moving image and a second moving image outside a vehicle in a first area on an imaging surface and a second area different from the first area under different imaging conditions. 3A, a control device 4 for detecting an object in the first moving image, and a display / reproduction device 14 for displaying information of the object detected by the control device 4 in a second moving image. Thereby, it is possible to set an imaging condition suitable for the detection of the target in the first area. Further, the detected object can be visually notified to the occupant.

(2)電子機器の一例である撮像装置は、撮像面における第1領域と、第1領域とは異なる第2領域とで、それぞれ異なる撮像条件により車外の第1動画と第2動画との撮像を行うカメラ3Aと、運転者の視線位置を検出する視線検出装置16と、視線検出装置16による検出結果に基づいて、第1動画において第1領域のうちの視線位置を含まない第3領域81で対象物の検出を行う制御装置4と、制御装置4で検出した対象物の情報を第2動画により表示する表示・再生装置14と、を備えた。これにより、運転者による注目度が低い第3領域81に対して対象物の検出に適した撮像条件を設定できる。また、検出した対象物を、乗員に視覚的に知らせることができる。 (2) An imaging device, which is an example of an electronic device, captures a first moving image and a second moving image outside a vehicle in a first area on an imaging surface and a second area different from the first area under different imaging conditions. 3A, a gaze detection device 16 that detects the gaze position of the driver, and a third region 81 that does not include the gaze position of the first region in the first moving image based on the detection result by the gaze detection device 16. And a display / reproducing device 14 for displaying information of the object detected by the control device 4 as a second moving image. This makes it possible to set an imaging condition suitable for the detection of the target object in the third region 81 with a low degree of attention by the driver. Further, the detected object can be visually notified to the occupant.

(3)カメラ3Aは、第1領域のフレームレートを第2領域のフレームレートよりも高くするので、表示に用いる第2動画に比べて、対象物の検出に用いる第1動画について画像情報を取得する頻度を高くすることができる。 (3) Since the camera 3A sets the frame rate of the first area higher than the frame rate of the second area, the camera 3A obtains image information of the first moving image used for detecting the target object as compared with the second moving image used for display. Frequency can be increased.

(4)撮像装置は、第1領域のうちの視線位置を含まない第3領域81と、第1領域のうちの視線位置を含む第4領域82とで、第1動画の撮像条件を異ならせて設定する制御装置4を備える。これにより、運転者の視線が向く第4領域と、運転者の視線が向かない第3領域とで、それぞれに適した撮像条件を設定し得る。 (4) The imaging device makes the imaging condition of the first moving image different between the third region 81 of the first region that does not include the line of sight and the fourth region 82 that includes the line of sight of the first region. And a control device 4 for setting. Accordingly, it is possible to set imaging conditions suitable for each of the fourth region where the driver's line of sight is directed and the third region where the driver's line of sight is not directed.

(5)制御装置4は、第1領域のうちの視線位置を含まない第3領域81のフレームレートを、第1領域のうちの視線位置を含む第4領域82のフレームレートよりも高く設定する。これにより、運転者の視線が向く第4領域に比べて、運転者の視線が向かない第3領域について画像情報を取得する頻度を高めることができる。 (5) The control device 4 sets the frame rate of the third area 81 not including the line-of-sight position of the first area higher than the frame rate of the fourth area 82 including the line-of-sight position of the first area. . This makes it possible to increase the frequency of acquiring image information for the third region where the driver's line of sight is not directed, as compared to the fourth region where the driver's line of sight is directed.

なお、上述の実施の形態では、制御装置4の制御によりカメラ3A(3B)を制御したが、カメラ3A(3B)の制御の一部を、カメラ3A(3B)の制御部35により行うようにしてもよい。   Although the camera 3A (3B) is controlled by the control device 4 in the above-described embodiment, a part of the control of the camera 3A (3B) is performed by the control unit 35 of the camera 3A (3B). You may.

(変形例1)
制御装置4は、車両1の前方を撮像するカメラ3Aにより取得された画像情報に基づいて、車両1の後方を撮像するカメラ3Bの第1領域に対して第3領域81および第4領域82の設定を行うようにしてもよい。
(Modification 1)
The control device 4 controls the third region 81 and the fourth region 82 with respect to the first region of the camera 3B that images the rear of the vehicle 1 based on the image information acquired by the camera 3A that images the front of the vehicle 1. The setting may be performed.

例えば、カメラ3Aで取得された車両1の前方の画像の右側に図8に例示したような太陽96の像が検出されている場合を説明する。変形例1において、制御装置4は、車両1の前方を撮像するカメラ3Aに対し、撮像面70における第1領域のうち右側領域(前方右)に対するゲインを、撮像面70における第1領域の左側領域(前方左)に対するゲインより低く設定する。一方、制御装置4は、車両1の後方を撮像するカメラ3Bに対しては、撮像面70における第1領域の左右両側領域(後方左および後方右)に対するゲインを等しく設定する。   For example, a case where an image of the sun 96 as illustrated in FIG. 8 is detected on the right side of the image ahead of the vehicle 1 acquired by the camera 3A will be described. In the first modification, the control device 4 sets the gain for the right side (front right) of the first region on the imaging surface 70 for the camera 3A that images the front of the vehicle 1 on the left side of the first region on the imaging surface 70. Set lower than the gain for the area (front left). On the other hand, for the camera 3B that captures an image of the rear of the vehicle 1, the control device 4 sets the gains of the first area on the imaging surface 70 to the left and right sides (rear left and rear right) equally.

上述した状態で車両1が左折する場合、車両1が左折した後において車両1の後方を撮像するカメラ3Bに太陽96の像が写り込む可能性がある。具体的には、左折後の車両1の後方に向かって左側領域(すなわち車両1の後方右)に、太陽96の像が写り込む。そこで、制御装置4は、カメラ3Bの撮像面70における第1領域のうち左側領域(後方右)に対するゲインを、撮像面70における第1領域の右側領域(後方左)に対するゲインより低く設定する。制御装置4はさらに、車両1の前方を撮像するカメラ3Aの撮像面70に対しては、撮像面70における第1領域の左右両側領域(前方左および前方右)に対するゲインを等しくするように設定を戻す。   When the vehicle 1 makes a left turn in the above-described state, there is a possibility that an image of the sun 96 appears in the camera 3B that captures the rear of the vehicle 1 after the vehicle 1 makes a left turn. More specifically, an image of the sun 96 appears in the left area toward the rear of the vehicle 1 after the left turn (that is, the rear right of the vehicle 1). Therefore, the control device 4 sets the gain for the left region (rear right) of the first region on the imaging surface 70 of the camera 3B lower than the gain for the right region (rear left) of the first region on the imaging surface 70. The control device 4 further sets the gain for the left and right sides (front left and front right) of the first area on the imaging surface 70 of the imaging surface 70 of the camera 3A that images the front of the vehicle 1 so as to be equal. Back.

変形例1によれば、車両1の前方を撮像するカメラ3Aにより取得された画像情報に基づいて、車両1の後方を撮像するカメラ3Bの第1領域に左右両側領域の設定を行うことにより、例えば、後方のカメラ3Bに太陽96の像が写り込むおそれを事前(本例では左折前)に予測して左折時にすみやかにゲインを低く設定するなど、撮像信号の飽和の防止に向けて適切な対処が可能になる。   According to the first modification, the left and right side regions are set in the first region of the camera 3B that captures the rear of the vehicle 1 based on the image information acquired by the camera 3A that captures the front of the vehicle 1, For example, the risk of the image of the sun 96 appearing in the rear camera 3B is predicted in advance (before turning left in this example), and the gain is set immediately low when turning left. Coping is possible.

(変形例2)
一般に、運転者の緊張度が高まると、運転者の視線の移動範囲が小さくなる。そこで、制御装置4は、運転者の緊張度が高まる場面で、前方のカメラ3Aの撮像面70における第1領域において、通常時より第3領域81の範囲を拡げるようにしてもよい。運転者の緊張度が高まる場面の例として、夜間の走行や降雨時の走行が挙げられる。制御装置4は、ヘッドライトが点灯操作された場合や、ワイパーがオン操作された場合において、運転者の緊張度が高まると判断して前方のカメラ3Aの第1領域において通常時より第3領域81を拡げるように制御する。
(Modification 2)
Generally, when the driver's degree of tension increases, the range of movement of the driver's line of sight decreases. Therefore, the control device 4 may increase the range of the third region 81 in the first region on the imaging surface 70 of the front camera 3A in a situation where the driver's tension increases. Examples of a scene in which the driver's degree of tension increases include running at night and running during rainfall. When the headlight is turned on or the wiper is turned on, the control device 4 determines that the driver's degree of tension is increased, and in the first area of the front camera 3A, the third area is higher than the normal area. 81 is expanded.

また、運転者の緊張度を運転者の体温や心拍数に基づいて判定してもよい。例えば、運転席のシートに温度センサや心拍センサを備え、所定温度以上の温度検知や、所定数以上の心拍数が検知された場合において、制御装置4が、運転者の緊張度が高まったと判断して前方のカメラ3Aの第1領域において通常時より第3領域81を拡げるように制御する。   Alternatively, the driver's tension may be determined based on the driver's body temperature or heart rate. For example, when a temperature sensor or a heart rate sensor is provided on the driver's seat, and the temperature is detected to be equal to or higher than a predetermined temperature or the heart rate is detected to be equal to or higher than a predetermined number, the control device 4 determines that the driver's tension has increased. Then, control is performed such that the third area 81 is expanded in the first area of the front camera 3A from the normal time.

変形例2によれば、運転者の緊張により運転者の注目度が低くなる領域が拡がる(換言すれば、運転者の注目度が高い領域が狭くなる)場合において、第1領域における第3領域81を拡げることができる。第3領域81を拡げておくと、第3領域81における撮像頻度を第4領域82における撮像頻度より高くする場合には、運転者による注目度の低下分を、第3領域81に基づく画像を用いて補うことが可能になる。   According to the second modification, in a case where the region where the driver's attention is low is widened due to the driver's tension (in other words, the region where the driver's attention is high becomes narrow), the third region in the first region is used. 81 can be expanded. If the third region 81 is expanded and the imaging frequency in the third region 81 is made higher than the imaging frequency in the fourth region 82, the decrease in the degree of attention by the driver is determined by the image based on the third region 81. And make up for it.

(変形例3)
上記実施の形態では、カメラ3A(カメラ3B)における第1領域のうち、第3領域81のフレームレートを120fpsとし、第4領域82のフレームレートを30fpsとすることによって、フレームレートを2段階に異ならせる例を説明した。この代わりに、第3領域81と第4領域82との間に緩衝領域を設け、フレームレートを多段階に異ならせるようにしてもよい。例えば、緩衝領域のフレームレートを第3領域81のフレームレートと第4領域82のフレームレートとの中間値(例えば75fps)にすることにより、フレームレートを多段階に変化させる。
(Modification 3)
In the above embodiment, the frame rate of the first area of the camera 3A (camera 3B) is set to 120 fps, and the frame rate of the fourth area 82 is set to 30 fps. The example of making the difference is explained. Instead, a buffer area may be provided between the third area 81 and the fourth area 82 so that the frame rate is varied in multiple stages. For example, by setting the frame rate of the buffer area to an intermediate value (for example, 75 fps) between the frame rate of the third area 81 and the frame rate of the fourth area 82, the frame rate is changed in multiple stages.

また、緩衝領域におけるフレームレートを徐々に変化させるようにしてもよい。例えば、緩衝領域のうち第3領域81との境界に近い部分のフレームレートを90fpsとし、緩衝領域のうち第4領域82との境界に近い部分のフレームレートを60fpsとする。このような緩衝領域を設けることで、フレームレートの値が境界部分で大きく変化する状態を避けることができる。   Further, the frame rate in the buffer area may be gradually changed. For example, the frame rate of a portion of the buffer region near the boundary with the third region 81 is set to 90 fps, and the frame rate of the portion of the buffer region near the boundary with the fourth region 82 is set to 60 fps. By providing such a buffer area, it is possible to avoid a state where the value of the frame rate greatly changes at the boundary.

(変形例4)
変形例4では、図1において通信部17が追加される。通信部17は、例えばDSRC(Dedicated Short Range Communication)と呼ばれる狭域通信を行う無線通信装置である。変形例4において、通信部17は、例えば道路に設置された情報提供システムからの情報を取得する。
(Modification 4)
In Modification 4, a communication unit 17 is added in FIG. The communication unit 17 is, for example, a wireless communication device that performs short-range communication called DSRC (Dedicated Short Range Communication). In the fourth modification, the communication unit 17 acquires information from an information providing system installed on a road, for example.

情報提供システムは、車両1に搭載されるカメラ3A(3B)と同様のカメラを備えており、例えば、見通しが悪い交差点や道路の曲がり角等にあらかじめ設置される。情報提供システムは、車両1が見通しの悪い地点へ進入した場合に、車両1のカメラ3A(3B)からは撮影できない範囲(例えば、車両1から見て塀や建物等の陰に隠れる死角)を所定のフレームレートで撮影する。情報提供システムは、撮影した画像情報をのせた無線信号を車両1へ送信する。車両1の通信部17は、情報提供システムから送信された無線信号を受信し、この無線信号にのせられている画像情報を制御装置4へ送出する。   The information providing system includes a camera similar to the camera 3A (3B) mounted on the vehicle 1, and is installed beforehand, for example, at an intersection with poor visibility or at a corner of a road. When the vehicle 1 enters a place with poor visibility, the information providing system determines a range that cannot be photographed by the camera 3A (3B) of the vehicle 1 (for example, a blind spot hidden behind a fence or a building when viewed from the vehicle 1). Shoot at a predetermined frame rate. The information providing system transmits to the vehicle 1 a radio signal on which the photographed image information is placed. The communication unit 17 of the vehicle 1 receives the wireless signal transmitted from the information providing system and sends out image information included in the wireless signal to the control device 4.

制御装置4は、例えばカメラ3Aの撮像面70において設定した第3領域81が、上述した撮影できない範囲に該当する場合、カメラ3Aの上記第3領域に基づいて取得された画像からではなく、情報提供システムから送信された画像に基づいて対象物(歩行者、二輪車、他の車両など)を検出する。   For example, when the third region 81 set on the imaging surface 70 of the camera 3A corresponds to the above-described non-capturable range, the control device 4 transmits information not based on the image acquired based on the third region of the camera 3A. An object (pedestrian, two-wheeled vehicle, other vehicle, etc.) is detected based on the image transmitted from the providing system.

変形例4によれば、車両1のカメラ3A(3B)において死角が生じている場合でも、車両1のカメラ3A(3B)と異なる外部のカメラによって取得された画像に基づいて対象物の検出が可能になる。   According to the fourth modification, even when a blind spot occurs in the camera 3A (3B) of the vehicle 1, detection of the target object is performed based on an image acquired by an external camera different from the camera 3A (3B) of the vehicle 1. Will be possible.

(変形例5)
図14は、車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図14において、撮像チップ111の撮像面(撮影領域)70には、車両1の進行方向に位置するT字路の像が含まれる。撮像面70にはさらに、T字路に設けられたカーブミラー88Aおよびカーブミラー88Bが写っている。
図14の像のうち、奇数列が第1領域に相当し、偶数列が第2領域に相当する点、および、制御装置4が第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する点は、上述した実施の形態と同様である。
(Modification 5)
FIG. 14 is a diagram schematically illustrating an image of a subject (object) formed on the imaging chip 111 of the front camera 3 </ b> A provided in the vehicle 1. In FIG. 14, the imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a T-shaped road located in the traveling direction of the vehicle 1. Further on the imaging surface 70, a curve mirror 88A and a curve mirror 88B provided in the T-shaped path are shown.
In the image of FIG. 14, the odd columns correspond to the first region, the even columns correspond to the second region, and the controller 4 sets different frame rates between the first region and the second region. The point that the camera 3A is controlled so as to capture an image is the same as in the above-described embodiment.

変形例5において、制御装置4は、カメラ3Aで取得された上記第1領域に基づく画像からカーブミラーを検出した場合に、カメラ3Aで取得された上記第2領域に基づくカーブミラーの画像を表示・再生装置14(図1)に表示させる。この際に、カーブミラー88A、88Bの鏡面の部分を大きく引き伸ばして表示する。なお、カーブミラー88A、88Bの鏡面の部分を大きく引き伸ばす際に、鏡面の湾曲した像の湾曲が直線的になるように補正してもよい。   In the fifth modification, when detecting the curve mirror from the image based on the first area acquired by the camera 3A, the control device 4 displays the image of the curve mirror based on the second area acquired by the camera 3A. Display on the playback device 14 (FIG. 1). At this time, the mirror surfaces of the curved mirrors 88A and 88B are greatly enlarged and displayed. When the mirror portions of the curved mirrors 88A and 88B are greatly extended, correction may be made so that the curved images of the mirror surfaces become linear.

カーブミラー88A、88Bの鏡面の部分の拡大表示は、いわゆる電子ズーム処理によって、表示に用いる画素データの間引き率を低くする手法を用いてもよい。間引き率を低く変更することで、変更前に比べて解像度を高めることができる。   For the enlarged display of the mirror surfaces of the curved mirrors 88A and 88B, a method of lowering the thinning rate of the pixel data used for display by so-called electronic zoom processing may be used. By changing the thinning rate to a low value, the resolution can be increased as compared to before the change.

しかしながら、変形例5においては、上記第2領域のうちカーブミラー88A、88Bの鏡面が写る領域(第5領域とする)に対して、鏡面以外の領域(第6領域とする)に比べて高精細表示に適した撮像条件を設定する。例えば、第5領域に含まれる画素の間引き率を、第6領域に含まれる画素の間引き率より低く設定するとともに、第5領域におけるフレームレートを、第6領域におけるフレームレートより高く設定する。間引き率を低くするほど解像度は高まる。解像度とフレームレートの少なくとも1つを高くすることにより、高精細表示に適した撮像条件となる。
なお、第5領域と第6領域との間でフレームレートや間引き率などの全ての撮像条件を異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。
However, in the fifth modification, the area where the mirror surfaces of the curved mirrors 88A and 88B appear in the second area (the fifth area) is higher than the area other than the mirror surface (the sixth area). An imaging condition suitable for the fine display is set. For example, the thinning rate of the pixels included in the fifth area is set lower than the thinning rate of the pixels included in the sixth area, and the frame rate in the fifth area is set higher than the frame rate in the sixth area. The lower the thinning rate, the higher the resolution. By increasing at least one of the resolution and the frame rate, imaging conditions suitable for high definition display are obtained.
Note that it is not necessary to change all the imaging conditions such as the frame rate and the thinning rate between the fifth area and the sixth area, and at least one may be different.

図15は、第5領域、第6領域に基づく画像を表示する表示・再生装置14(図1)の表示画面を例示する図である。図15において、例えば、表示画面の左側にカーブミラー88Aが大きく引き伸ばして表示されるとともに、表示画面の右側にカーブミラー88Bが大きく引き伸ばして表示される。斜線領域は、カーブミラー88A、88Bの鏡面に相当する領域よりも粗い画質で表わされていることを示す。画質の相違は、上記第5領域と第6領域との間で異なる撮像条件を設定したことによる。   FIG. 15 is a diagram exemplifying a display screen of the display / reproduction device 14 (FIG. 1) for displaying an image based on the fifth area and the sixth area. In FIG. 15, for example, a curved mirror 88A is displayed on the left side of the display screen in a greatly expanded state, and a curved mirror 88B is displayed on the right side of the display screen in a greatly expanded state. The shaded area indicates that the image quality is coarser than the area corresponding to the mirror surfaces of the curved mirrors 88A and 88B. The difference in image quality is caused by setting different imaging conditions between the fifth area and the sixth area.

制御装置4はさらに、第5領域に基づいて取得した画像の中で上記カーブミラー88A、88Bが写る領域から対象物(例えば、図15における二輪車98、車両99)を検出した場合に、表示・再生装置14(図1)に表示する画像(図15)の中で、対応する対象物(上記例においては二輪車98、車両99)を目立たせる。目立たせる態様は、例えば、対象物を囲う枠を表示したり、対象物の表示輝度を高めて明るく表示したり、明滅させたり、着色して表示させる。   The control device 4 further displays and displays an object (for example, the motorcycle 98 and the vehicle 99 in FIG. 15) from an area where the curve mirrors 88A and 88B appear in the image acquired based on the fifth area. In the image (FIG. 15) displayed on the playback device 14 (FIG. 1), the corresponding objects (the two-wheeled vehicle 98 and the vehicle 99 in the above example) stand out. As a mode of making the object stand out, for example, a frame surrounding the object is displayed, the display luminance of the object is increased to display it brightly, blinking, or colored.

制御装置4は、表示・再生装置14(図1)に表示する画像(図15)に重ねて、次のようなメッセージを表示・再生装置14に表示させてもよい。メッセージの例としては、例えば、「二輪車が映っています」、「車両が映っています」というメッセージである。
なお、メッセージを表示・再生装置14に表示させる代わりに、またはメッセージの表示とともに、上記メッセージを音声再生させるための音声信号を送出してもよい。音声再生装置として、不図示のナビゲーション装置の音声装置を用いてもよい。
The control device 4 may cause the display / reproduction device 14 to display the following message on the image (FIG. 15) displayed on the display / reproduction device 14 (FIG. 1). As an example of the message, for example, a message such as "a motorcycle is reflected" or "a vehicle is reflected".
Instead of displaying the message on the display / reproducing device 14 or together with the display of the message, an audio signal for reproducing the message may be transmitted. A sound device of a navigation device (not shown) may be used as the sound reproducing device.

<フローチャートの説明>
以下、フローチャート(図16)を参照して変形例5における第3領域81および第4領域82の決め方について説明する。図16は、撮像条件設定処理(S30B)の詳細について説明するフローチャートである。制御装置4は、図11の撮像条件設定(S30)に続いて、または図11の撮像条件設定(S30)に代えて、撮像条件設定処理(S30B)を実行する。
<Explanation of flowchart>
Hereinafter, a method of determining the third area 81 and the fourth area 82 in Modification Example 5 will be described with reference to a flowchart (FIG. 16). FIG. 16 is a flowchart illustrating details of the imaging condition setting process (S30B). The control device 4 executes an imaging condition setting process (S30B) following the imaging condition setting (S30) of FIG. 11 or instead of the imaging condition setting (S30) of FIG.

図16のステップS301において、制御装置4は、撮像チップ111の撮像面70に対し、奇数列のブロックによって構成される第1領域と、偶数列のブロックによって構成される第2領域とを設定してステップS302へ進む。
なお、図11の撮像条件設定(S30)に続いて図16の撮像条件設定を実行する場合には、ステップS301を省略する。
In step S301 in FIG. 16, the control device 4 sets a first area formed by odd-numbered row blocks and a second area formed by even-numbered row blocks on the imaging surface 70 of the imaging chip 111. To step S302.
Note that, when the imaging condition setting of FIG. 16 is performed subsequent to the imaging condition setting (S30) of FIG. 11, step S301 is omitted.

ステップS302において、制御装置4は、撮像素子100の第1領域に基づく画像からカーブミラーを検出したか否かを判定する。カーブミラーの検出は、テンプレートマッチング手法を用いたり、カーブミラーの鏡面が道路面から所定範囲の高さに位置することを判定したりして行う。制御装置4は、上記第1領域に基づく画像からカーブミラーを検出した場合に、ステップS302を肯定判定してステップS303へ進む。制御装置4は、上記第1領域に基づく画像からカーブミラーを検出しない場合には、ステップS302を否定判定してステップS306へ進む。   In step S302, the control device 4 determines whether a curve mirror has been detected from an image based on the first region of the image sensor 100. The detection of the curve mirror is performed by using a template matching method, or by determining that the mirror surface of the curve mirror is located at a predetermined height from the road surface. When detecting the curve mirror from the image based on the first area, the control device 4 makes an affirmative determination in step S302 and proceeds to step S303. If the control device 4 does not detect the curve mirror from the image based on the first area, the control device 4 makes a negative determination in step S302 and proceeds to step S306.

ステップS303において、制御装置4は、上記第2領域のうち、カーブミラーの鏡面に対応する領域を第5領域とし、第5領域以外の領域を第6領域としてステップS304へ進む。   In step S303, the control device 4 sets the area corresponding to the mirror surface of the curve mirror in the second area as the fifth area, and sets the area other than the fifth area as the sixth area, and proceeds to step S304.

ステップS304において、制御装置4はカメラ3Aへ指示を送り、第5領域のフレームレートを第6領域のフレームレートよりも高く設定させて、ステップS305へ進む。例えば、第5領域のフレームレートを毎秒120フレーム(120fps)とし、第6領域のフレームレートを30fpsとする。これは、運転者にとってわかりづらいカーブミラーの鏡面に映る画像情報を取得する頻度を高めるためである。   In step S304, the control device 4 sends an instruction to the camera 3A to set the frame rate of the fifth area higher than the frame rate of the sixth area, and proceeds to step S305. For example, the frame rate of the fifth area is set to 120 frames per second (120 fps), and the frame rate of the sixth area is set to 30 fps. This is to increase the frequency of acquiring image information reflected on the mirror surface of the curve mirror which is difficult for the driver to understand.

ステップS305において、制御装置4はカメラ3Aへ指示を送り、第5領域に含まれる画素の間引き率を、第6領域のフレームレートに含まれる画素の間引き率よりも低く設定させて、図10のステップS40へ進む。これは、運転者にとってわかりづらいカーブミラーの鏡面に映る画像情報を高精細に取得するためである。   In step S305, the control device 4 sends an instruction to the camera 3A to set the thinning rate of the pixels included in the fifth area to be lower than the thinning rate of the pixels included in the frame rate of the sixth area. Proceed to step S40. This is to obtain high-definition image information reflected on the mirror surface of the curve mirror which is difficult for the driver to understand.

ステップS302を否定判定して進むステップS306において、制御装置4はカメラ3Aへ指示を送り、第2領域の全体に一様な撮像条件を設定させて、図10のステップS40へ進む。例えば、フレームレートを30fpsとし、通常の間引き率を設定する。   In step S306, to which the operation proceeds after making a negative determination in step S302, the control device 4 sends an instruction to the camera 3A to set uniform imaging conditions for the entire second area, and then proceeds to step S40 in FIG. For example, the frame rate is set to 30 fps, and a normal thinning rate is set.

変形例5において、制御装置4は、図10のステップS60の代わりに以下のステップ60Bの処理を行う。すなわち、ステップS60Bにおいて、制御装置4は、表示・再生装置14(図1)に対する表示情報を送出する。制御装置4は、例えば、撮像素子100の第5領域、第6領域に基づいて取得した画像を表示情報として、表示・再生装置14(図1)に表示させる。具体的には、図15に例示したように、第5領域で取得した画像のうちカーブミラー88A、88Bを、表示・再生装置14(図1)の表示画面上に大きく引き伸ばして表示させる。   In the fifth modification, the control device 4 performs the following step 60B instead of step S60 in FIG. That is, in step S60B, the control device 4 sends display information to the display / playback device 14 (FIG. 1). The control device 4 causes the display / playback device 14 (FIG. 1) to display, for example, an image acquired based on the fifth region and the sixth region of the image sensor 100 as display information. Specifically, as illustrated in FIG. 15, the curve mirrors 88A and 88B of the image acquired in the fifth area are displayed on the display screen of the display / playback apparatus 14 (FIG. 1) while being greatly stretched.

制御装置4はさらに、第5領域に基づいて取得した画像において上記カーブミラー88A、88Bが写る領域から対象物(例えば、図15における二輪車98、車両99)を検出した場合に、表示・再生装置14(図1)に表示する画像の中で、対応する対象物(上記例においては二輪車98、車両99)を目立たせる。
なお、カーブミラーの鏡面に映る画像は鏡像なので、制御装置4は、表示・再生装置14(図1)に表示する画像について、左右を反転した画像を表示させてもよい。
The control device 4 further detects and displays an object (for example, the motorcycle 98 and the vehicle 99 in FIG. 15) from an area in which the curve mirrors 88A and 88B appear in an image acquired based on the fifth area. The corresponding objects (the two-wheeled vehicle 98 and the vehicle 99 in the above example) are highlighted in the image displayed on 14 (FIG. 1).
Since the image reflected on the mirror surface of the curve mirror is a mirror image, the control device 4 may display an image obtained by inverting the image displayed on the display / reproduction device 14 (FIG. 1).

変形例5によれば、運転者にとってわかりづらいカーブミラー88A、88Bの鏡面に映る画像情報を取得する頻度を高めることができる。また、運転者にとってわかりづらいカーブミラー88A、88Bの鏡面に映る画像情報を高精細に取得することができる。そして、取得したカーブミラー88A、88Bの鏡面に映る画像情報を、表示・再生装置14(図1)にわかりやすく表示できる。   According to the fifth modification, it is possible to increase the frequency of acquiring image information reflected on the mirror surfaces of the curve mirrors 88A and 88B which are difficult for the driver to understand. Further, it is possible to obtain image information reflected on the mirror surfaces of the curve mirrors 88A and 88B, which are difficult for the driver to understand, with high definition. Then, the acquired image information reflected on the mirror surfaces of the curve mirrors 88A and 88B can be displayed on the display / reproducing device 14 (FIG. 1) in an easy-to-understand manner.

(変形例6)
以上の説明では、カメラ3A、3Bで行う距離測定として、撮像素子100に備えられている焦点検出用画素からの画像信号を用いた測距演算により算出する手法を用いたが、ステレオカメラによる2枚の画像を用いて距離測定を行う手法を用いてもよい。また、カメラ3A、3Bと別にミリ波レーダーを用いて距離測定を行う手法を用いてもよい。
(Modification 6)
In the above description, as the distance measurement performed by the cameras 3A and 3B, a method of calculating by distance measurement using an image signal from a focus detection pixel provided in the image sensor 100 is used. A method of performing distance measurement using two images may be used. Alternatively, a method of performing distance measurement using a millimeter wave radar separately from the cameras 3A and 3B may be used.

(第二の実施の形態)
第二の実施の形態では、図1の運転支援装置2においてレーダー18が追加される。レーダー18は、例えばミリ波レーダー装置によって構成される。レーダー18は、カメラ3Aの撮影画面における複数の領域(エリアと呼ぶ)に対応させて、各エリア内の対象物や障害物を検知する。エリアごとに検知する方式として、不図示のレーダーアンテナの向きをアクチュエータで変えながら検知対象のエリアをスキャンする方式や、各エリアに対応させた複数の受信アンテナをスイッチなどで切り換えながら検知対象のエリアをスキャンする方式などがあるが、いずれの方式を用いてもよい。
(Second embodiment)
In the second embodiment, a radar 18 is added to the driving support device 2 in FIG. The radar 18 is constituted by, for example, a millimeter wave radar device. The radar 18 detects an object or an obstacle in each area in association with a plurality of areas (referred to as areas) on the shooting screen of the camera 3A. As a method of detecting for each area, a method of scanning the area to be detected while changing the direction of the radar antenna (not shown) with an actuator, or the area of the detection target while switching multiple receiving antennas corresponding to each area with a switch etc. , But any of these methods may be used.

第二の実施の形態の通信部17は、例えば、道路に設置された情報提供システムやVICS(登録商標:Vehicle Information and Communication System)などの外部機器との間で、無線通信(光ビーコン、電波ビーコン、可視光通信を含む)を行う。通信方式は、どのようなものを用いても構わない。
なお、第二の実施の形態においては、後方を撮影するカメラ3Bは必須の構成ではない。
The communication unit 17 according to the second embodiment performs wireless communication (optical beacon, radio wave) with an external device such as an information provision system installed on a road or a vehicle information and communication system (VICS). Beacon and visible light communication). Any communication system may be used.
Note that, in the second embodiment, the camera 3B for photographing the rear is not an essential component.

<カメラの説明>
第二の実施の形態では、図3のブロック図において駆動部37が追加される。駆動部37は、例えばモータによって構成される。駆動部37は、制御部35からの指示に応じて、カメラ3Aの水平方向の向き(ヨー角)を変更する。カメラ3Aは、車両1の正面遠方の対象物を画面の略中央に捕らえるように、すなわち消失点を画面の略中央に合わせて、カメラ3Aの向きが調節されている。制御部35は、この向きを基準にしてヨー角を制御する。
<Explanation of camera>
In the second embodiment, a driving unit 37 is added in the block diagram of FIG. The drive unit 37 is configured by, for example, a motor. The drive unit 37 changes the horizontal direction (yaw angle) of the camera 3A according to an instruction from the control unit 35. The direction of the camera 3A is adjusted so that the camera 3A captures an object far in front of the vehicle 1 substantially at the center of the screen, that is, with the vanishing point at substantially the center of the screen. The control unit 35 controls the yaw angle based on this direction.

<撮像素子のブロック制御>
制御装置4は、カメラ3Aの撮像素子100(撮像チップ111)に対し、上述した単位領域131ごとに独立した蓄積制御を行わせる。具体的には、制御装置4が、撮像チップ111の撮像面において、非優先領域、優先領域および最優先領域を設定し、これらの間において異なる条件で電荷蓄積(撮像)を行わせる。ここで、上述した撮像時の制御パラメータに加えて、非優先領域、優先領域、最優先領域のサイズや位置、測距を行うか否かおよび撮像部32のヨー角も、撮像条件の一つである。
<Block control of image sensor>
The control device 4 causes the imaging device 100 (imaging chip 111) of the camera 3A to perform independent accumulation control for each of the unit areas 131 described above. Specifically, the control device 4 sets a non-priority area, a priority area, and a top priority area on the imaging surface of the imaging chip 111, and causes charge accumulation (imaging) to be performed under different conditions among these areas. Here, in addition to the above-described control parameters at the time of imaging, the size and position of the non-priority area, the priority area, the highest priority area, whether or not to perform distance measurement, and the yaw angle of the imaging unit 32 are also one of the imaging conditions. It is.

図17は、車両1の前方を撮像するカメラ3Aの撮像素子100に結像される被写体(対象物)の像を模式的に示す図である。実際には倒立逆像が結像されるが、分かりやすくするために正立正像として図示している。
なお、第二の実施の形態の説明で参照するいくつかの図において、既述の図面で用いた符号と共通する符号があるが、本実施の形態の説明を適用する。
FIG. 17 is a diagram schematically illustrating an image of a subject (object) formed on the image sensor 100 of the camera 3A that images the front of the vehicle 1. Although an inverted inverted image is actually formed, it is illustrated as an erect upright image for easy understanding.
In some drawings referred to in the description of the second embodiment, reference numerals are common to those used in the above-described drawings, but the description of the present embodiment is applied.

図17において、撮像チップ111の撮像面と、撮像チップ111において非優先領域81と、優先領域82と、最優先領域83とを例示する。非優先領域81、優先領域82、および最優先領域83は、それぞれ異なる条件で電荷蓄積(撮像)を行う。
なお、撮像チップ111において電荷蓄積(撮像)を行わない休止領域を設けてもよい。
FIG. 17 illustrates an imaging surface of the imaging chip 111, a non-priority area 81, a priority area 82, and a top priority area 83 in the imaging chip 111. The non-priority area 81, the priority area 82, and the highest priority area 83 perform charge accumulation (imaging) under different conditions.
Note that a pause area in which charge accumulation (imaging) is not performed in the imaging chip 111 may be provided.

制御装置4は、上述した奥行き分布や、対象物、障害物の分類結果等に基づいて、非優先領域81、優先領域82、最優先領域83を設定する。例えば、遠方の対象物に対する注目度を低くするように非優先領域81を設定するとともに、先行車70に対する注目度を高くするように、先行車70を含む領域を最優先領域83に設定する。非優先領域81および最優先領域83以外の他の領域は、中程度の注目度とするように優先領域82を設定する。   The control device 4 sets the non-priority area 81, the priority area 82, and the highest priority area 83 based on the above-described depth distribution, the classification result of the object and the obstacle, and the like. For example, the non-priority area 81 is set so as to reduce the degree of attention to a distant object, and the area including the preceding vehicle 70 is set as the highest priority area 83 so as to increase the degree of attention to the preceding vehicle 70. The priority area 82 is set so that the area other than the non-priority area 81 and the highest priority area 83 has a medium degree of attention.

図18は、撮像素子100の撮像面の全域を優先領域82に設定する場合の被写体(対象物)の像を模式的に示す図である。図18において、制御装置4は、撮像チップ111の撮像面の全域を優先領域82に設定する(全エリア共通制御)。制御装置4は、撮影画面内の複数の位置における測距データに基づいて生成した上記距離画像(奥行き分布画像)に基づき、車両1から被写体までの距離が所定の閾値(例えば300m)以上に該当する領域を抽出する。   FIG. 18 is a diagram schematically illustrating an image of a subject (object) when the entire area of the imaging surface of the imaging element 100 is set as the priority area 82. In FIG. 18, the control device 4 sets the entire area of the imaging surface of the imaging chip 111 as the priority area 82 (common control for all areas). The control device 4 determines that the distance from the vehicle 1 to the subject is equal to or greater than a predetermined threshold (for example, 300 m) based on the distance image (depth distribution image) generated based on the distance measurement data at a plurality of positions in the shooting screen. Region to be extracted.

図19は、図18の状態から、撮像面の一部を非優先領域81へ変更する場合を説明する図である。制御装置4は、上記抽出領域(すなわち、車両1から被写体までの距離が300m以上に該当)を、非優先領域81へ変更する。制御装置4は、非優先領域81と優先領域82との間で異なる上記制御パラメータを設定する他、非優先領域81では測距用の画像信号の読み出しを行わない設定をする。測距用の画像信号の読み出しを行わない場合、消費電力が低減される。   FIG. 19 is a diagram illustrating a case where a part of the imaging surface is changed to the non-priority area 81 from the state of FIG. The control device 4 changes the extraction area (that is, the distance from the vehicle 1 to the subject to be equal to or more than 300 m) to the non-priority area 81. The control device 4 sets different control parameters between the non-priority area 81 and the priority area 82, and also sets not to read image signals for distance measurement in the non-priority area 81. When reading out the image signal for distance measurement is not performed, power consumption is reduced.

制御装置4は、例えば、非優先領域81に含まれる撮像素子100の単位領域131(図2)に対し、優先領域82の場合に比べてフレームレートを低く設定する。遠方について注目度を下げるという考え方に基づく。
また、制御装置4は、非優先領域81において取得される画像について、画像処理部33による追尾処理等の画像処理を行わないように設定してもよい。
For example, the control device 4 sets a lower frame rate for the unit area 131 (FIG. 2) of the image sensor 100 included in the non-priority area 81 than in the case of the priority area 82. It is based on the idea of reducing the degree of attention for distant places.
Further, the control device 4 may be set so that image processing such as tracking processing by the image processing unit 33 is not performed on an image acquired in the non-priority area 81.

図20は、図18の状態から、撮像面の一部を最優先領域83へ変更する場合を説明する図である。制御装置4は、車両1が交差点を走行する(交差点へ接近し、交差点へ進入し、交差点から抜ける)場合において、撮像面の全域を優先領域82から最優先領域83へ変更する。交差点を走行する場合は注目度を上げるという考え方に基づく。ただし、交差点を左折の際(または右折の際)に通過する横断歩道92を含む領域については、優先領域82として残す。横断歩道92を最優先領域83に含めない理由は以下の通りである。すなわち、一般に、車両1を運転する乗員は通過する横断歩道92に注意をはらうため、カメラ3Aによる横断歩道92に対する注目度を高める必要性が低いという考え方に基づく。本実施の形態はむしろ、運転する乗員による注目度が低い領域を最優先領域83に設定することによってカメラ3Aによる注目度を高める。これにより、例えば図20において対向車線から右折してくる車両91などの他の車両に対する注目度を高められる。
なお、制御装置4は、上記距離画像(奥行き分布画像)に基づき、車両1から被写体までの距離が所定の閾値(例えば300m)以上に該当する領域を、非優先領域81へ変更してもよい。
FIG. 20 is a diagram illustrating a case where a part of the imaging surface is changed to the highest priority area 83 from the state of FIG. When the vehicle 1 travels at the intersection (approaches the intersection, enters the intersection, and exits the intersection), the control device 4 changes the entire area of the imaging surface from the priority area 82 to the highest priority area 83. It is based on the idea of increasing the degree of attention when traveling at an intersection. However, an area including the pedestrian crossing 92 that passes through the intersection when turning left (or when turning right) is left as the priority area 82. The reason why the pedestrian crossing 92 is not included in the highest priority area 83 is as follows. That is, in general, the occupant driving the vehicle 1 pays attention to the pedestrian crossing 92 passing therethrough, and is based on the idea that it is not necessary to increase the degree of attention to the pedestrian crossing 92 by the camera 3A. In the present embodiment, rather, the area of low attention by the driving occupant is set as the highest priority area 83, thereby increasing the degree of attention by the camera 3A. Thereby, the degree of attention to another vehicle such as the vehicle 91 turning right from the oncoming lane in FIG. 20 can be increased.
The control device 4 may change an area in which the distance from the vehicle 1 to the subject is equal to or greater than a predetermined threshold (for example, 300 m) to the non-priority area 81 based on the distance image (depth distribution image). .

制御装置4は、例えば、最優先領域83に含まれる撮像素子100の単位領域131(図2)に対し、優先領域82の場合に比べてフレームレートを高く設定する。また、非優先領域81を設定している場合には、非優先領域81に含まれる撮像素子100の単位領域131(図2)に対し、優先領域82の場合に比べてフレームレートを低く設定する。   For example, the control device 4 sets a higher frame rate for the unit area 131 (FIG. 2) of the image sensor 100 included in the highest priority area 83 compared to the case of the priority area 82. When the non-priority area 81 is set, the frame rate of the unit area 131 (FIG. 2) of the image sensor 100 included in the non-priority area 81 is set lower than that of the priority area 82. .

なお、制御装置4は、カメラ3Aで取得した画像に基づいて認識した横断歩道92を含む領域を優先領域82とする他に、視線検出装置16から送出された視線情報に基づき、乗員が注目する領域を優先領域82とすることもできる。   In addition to the area including the pedestrian crossing 92 recognized based on the image acquired by the camera 3A as the priority area 82, the control device 4 also pays attention to the occupant based on the line-of-sight information sent from the line-of-sight detection device 16. The area may be the priority area 82.

制御装置4が非優先領域81、優先領域82、および最優先領域83を設定する際に用いる奥行き分布画像は、測距用の画像信号による測距データに基づいて生成する第1奥行き分布画像を用いてもよいし、レーダー18によるエリアごとの検知情報に基づいて生成する第2奥行き分布画像を用いてもよい。本実施の形態では、撮像素子100の撮像面における像の移動(像面移動量と呼ぶ)が所定値以下の場合に第1奥行き分布画像を用い、像面移動量が所定値を超える場合に第2奥行き分布画像を用いる。像面移動量の詳細については後述する。   The depth distribution image used when the control device 4 sets the non-priority area 81, the priority area 82, and the top priority area 83 is the first depth distribution image generated based on the distance measurement data based on the distance measurement image signal. Alternatively, a second depth distribution image generated based on detection information of each area by the radar 18 may be used. In the present embodiment, the first depth distribution image is used when the movement of the image on the imaging surface of the image sensor 100 (referred to as the image plane movement amount) is equal to or smaller than a predetermined value, and when the image plane movement amount exceeds the predetermined value. The second depth distribution image is used. Details of the image plane movement amount will be described later.

<フローチャートの説明>
以下、フローチャート(図21,図22、図23、図26)を参照して制御装置4が実行するカメラ3Aの制御処理の流れを説明する。制御装置4が実行するプログラムは、制御装置4の記憶部4bに格納されている。制御装置4は、例えば車両1から電源供給が開始されたり、エンジンが始動されたりすると、図21による処理を行うプログラムを起動する。
<Explanation of flowchart>
Hereinafter, the flow of the control process of the camera 3A executed by the control device 4 will be described with reference to flowcharts (FIGS. 21, 22, 23, and 26). The program executed by the control device 4 is stored in the storage unit 4b of the control device 4. For example, when power supply is started from the vehicle 1 or the engine is started, the control device 4 starts a program for performing the processing in FIG. 21.

図21のステップS10において、制御装置4は、フラグa=0か否かを判定する。フラグaは、初期設定が終了している場合に1、初期設定が終了していない場合に0がセットされるフラグである。制御装置4は、フラグa=0の場合にステップS10を肯定判定してステップS20へ進み、フラグa≠0の場合にステップS10を否定判定してステップS30へ進む。   In step S10 of FIG. 21, the control device 4 determines whether or not the flag a = 0. The flag a is a flag that is set to 1 when the initialization has been completed and set to 0 when the initialization has not been completed. When the flag a = 0, the control device 4 makes an affirmative decision in step S10 and proceeds to step S20, and when the flag a ≠ 0, makes a negative decision in step S10 and proceeds to step S30.

ステップS20において、制御装置4は、カメラ3Aへ初期設定を行ってステップS30へ進む。初期設定とは、カメラ3Aに所定の動作をさせるためのあらかじめ定められた設定を行うものである。本例では、カメラ3Aが撮像素子100の撮像面の全域に同じ撮像条件を設定し、例えば毎秒60フレーム(60fps)のフレームレートで撮像を開始させる。   In step S20, the control device 4 performs an initial setting for the camera 3A, and proceeds to step S30. The initial setting is to perform a predetermined setting for causing the camera 3A to perform a predetermined operation. In this example, the camera 3A sets the same imaging conditions over the entire area of the imaging surface of the imaging element 100, and starts imaging at a frame rate of, for example, 60 frames per second (60 fps).

ステップS30において、制御装置4は、撮像条件設定処理を行ってステップS40へ進む。撮像条件設定処理では、優先領域82の他に非優先領域81、最優先領域83を設定し、各領域に対応する単位領域131に対して撮像条件を設定する。撮像条件設定処理の詳細については後述する。
なお、非優先領域81、優先領域82および最優先領域83に対してそれぞれの撮像条件を設定する場合、各領域間でフレームレート、ゲイン、間引き率、蓄積時間などの全てを異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。
In step S30, the control device 4 performs an imaging condition setting process, and proceeds to step S40. In the imaging condition setting processing, a non-priority area 81 and a top priority area 83 are set in addition to the priority area 82, and imaging conditions are set for the unit area 131 corresponding to each area. Details of the imaging condition setting process will be described later.
When setting the respective imaging conditions for the non-priority area 81, the priority area 82, and the highest priority area 83, it is not necessary to make all of the frame rate, the gain, the thinning rate, the accumulation time, and the like different between the respective areas. However, at least one may be different.

ステップS40において、制御装置4はカメラ3Aへ指示を送り、非優先領域81、優先領域82および最優先領域83に対応する撮像素子100の単位領域131をそれぞれ所定の条件で駆動させて、画像の取得および測距演算を行わせる。これにより、画像データや測距用の画像信号に基づく測距情報が取得される。また、制御装置4は、カメラ3Aの画像処理部33または制御部35等に所定の画像処理および画像解析を行わせる。   In step S40, the control device 4 sends an instruction to the camera 3A, and drives the unit areas 131 of the image sensor 100 corresponding to the non-priority area 81, the priority area 82, and the top-priority area 83 under predetermined conditions, respectively. Acquisition and ranging calculation are performed. Thereby, distance measurement information based on the image data and the image signal for distance measurement is obtained. Further, the control device 4 causes the image processing unit 33 or the control unit 35 of the camera 3A to perform predetermined image processing and image analysis.

ステップS50において、制御装置4は、情報を表示する設定が行われているか否かを判定する。制御装置4は、表示設定が行われている場合にステップS50を肯定判定してステップS60へ進む。制御装置4は、表示設定が行われていない場合には、ステップS50を否定判定してステップS70へ進む。   In step S50, the control device 4 determines whether or not a setting for displaying information has been made. When the display setting is performed, the control device 4 makes an affirmative determination in step S50, and proceeds to step S60. When the display setting is not performed, the control device 4 makes a negative determination in step S50 and proceeds to step S70.

ステップS60において、制御装置4は、表示・再生装置14(図1)に対する表示情報を送出してステップS70へ進む。表示情報は、撮像条件設定処理(S30)の中で解析された車両1の状態に応じた情報で、例えば「対向車が右折待機中です」、「緊急停車します」、「右折します」、「左折します」というメッセージを表示・再生装置14、または不図示のナビゲーション装置等に表示させる。
なお、表示情報を送出する代わりに、または表示情報の送出とともに、不図示の音声再生装置へ上記メッセージを再生させるための音声信号を送出してもよい。この場合も、音声再生装置として不図示のナビゲーション装置の音声再生部を用いてもよい。
In step S60, the control device 4 sends out display information to the display / playback device 14 (FIG. 1), and proceeds to step S70. The display information is information according to the state of the vehicle 1 analyzed in the imaging condition setting process (S30), for example, "an oncoming vehicle is waiting for a right turn", "emergency stop", "turn right". , "Turn left" is displayed on the display / reproduction device 14, a navigation device (not shown), or the like.
Instead of transmitting the display information or together with the transmission of the display information, an audio signal for reproducing the message may be transmitted to an audio reproducing device (not shown). Also in this case, a sound reproducing unit of a navigation device (not shown) may be used as the sound reproducing device.

ステップS70において、制御装置4は、オフ操作されたか否かを判定する。制御装置4は、例えば車両1からオフ信号(例えば、エンジンのオフ信号)を受けると、ステップS70を肯定判定し、所定のオフ処理を行って図21による処理を終了する。制御装置4は、例えば車両1からオフ信号を受けない場合は、ステップS70を否定判定してステップS30へ戻る。ステップS30へ戻る場合は、上述した処理を繰り返す。   In step S70, the control device 4 determines whether or not an off operation has been performed. When receiving an off signal (for example, an engine off signal) from vehicle 1, for example, control device 4 makes an affirmative determination in step S70, performs a predetermined off process, and ends the process in FIG. For example, when not receiving the off signal from the vehicle 1, the control device 4 makes a negative determination in step S70 and returns to step S30. When returning to step S30, the above processing is repeated.

<撮像条件設定処理>
図22のフローチャートを参照して、上記撮像条件設定処理(S30)の詳細について説明する。本実施の形態では、撮像素子100に写る対象物の像面移動量、奥行き分布、車両1の運転状態(車速Vの変化、ハンドル等の操作状態など)、走行環境(道路状況、走行中のレーンなど)に対応させて、非優先領域81、優先領域82、および最優先領域83にそれぞれ対応する撮像素子100の単位領域131に対して撮像条件を設定する。
<Imaging condition setting process>
The details of the imaging condition setting process (S30) will be described with reference to the flowchart in FIG. In the present embodiment, the image plane movement amount and depth distribution of an object captured by the image sensor 100, the driving state of the vehicle 1 (change in vehicle speed V, operating state of a steering wheel, and the like), and traveling environment (road conditions, running conditions, etc.) The imaging conditions are set for the unit areas 131 of the image sensor 100 corresponding to the non-priority area 81, the priority area 82, and the top priority area 83, respectively, in correspondence with the lanes.

図22のステップS31において、制御装置4は、撮像素子100の撮像面の全域に同じ撮像条件を設定した状態で取得した画像信号に基づく距離情報を取得するとともに、フラグbに0を設定してステップS32へ進む。距離情報は、上記第1奥行き分布画像である。また、フラグbは、後述する補正値αに所定値(例えば1.0)を代入する場合を1に、補正値αに0を代入する場合を0にセットするフラグである。ここでは初期条件としてフラグb=0を設定する。
なお、距離情報として、レーダー18によるエリアごとの検知情報に基づく上記第2奥行き分布画像を用いてもよい。
In step S31 of FIG. 22, the control device 4 acquires distance information based on an image signal acquired in a state where the same imaging condition is set over the entire imaging surface of the imaging element 100, and sets 0 to a flag b. Proceed to step S32. The distance information is the first depth distribution image. The flag b is a flag that is set to 1 when a predetermined value (for example, 1.0) is substituted for a correction value α described later, and is set to 0 when a 0 is substituted for the correction value α. Here, a flag b = 0 is set as an initial condition.
Note that the second depth distribution image based on detection information of each area by the radar 18 may be used as the distance information.

ステップS32において、制御装置4は、車両1から対象物までの距離dが所定距離D(例えば300m)より長いか否かを判定する。制御装置4は、例えば、上記距離情報に基づいて、撮影画面を複数のエリア(例えば、縦8×横8=64エリア)に分割し、エリアごとにd>Dが成立するか否かを判定する。エリアに複数の対象物が存在する場合、最至近の被写体までの距離をそのエリアにおける距離dとする。   In step S32, the control device 4 determines whether or not the distance d from the vehicle 1 to the target is longer than a predetermined distance D (for example, 300 m). The control device 4 divides the shooting screen into a plurality of areas (for example, 8 × 8 = 64 areas) based on the distance information, and determines whether d> D holds for each area. I do. When a plurality of objects exist in the area, the distance to the closest subject is set as the distance d in the area.

制御装置4は、d>Dが成立するエリアが1つでも存在する場合に、ステップS32を肯定判定してステップS33へ進む。制御装置4は、d>Dが成立するエリアが1つも存在しない場合には、ステップS32を否定判定してステップS34へ進む。ステップS32を否定判定する場合は、撮像素子100の撮像面の全域について優先領域82の設定を維持する(全エリア共通制御)。   When at least one area where d> D is satisfied, the control device 4 makes an affirmative determination in step S32 and proceeds to step S33. When there is no area where d> D is satisfied, the control device 4 makes a negative determination in step S32 and proceeds to step S34. If a negative determination is made in step S32, the setting of the priority area 82 is maintained for the entire area of the imaging surface of the image sensor 100 (common control for all areas).

ステップS33において、制御装置4は、撮像素子100の撮像面に優先領域82と非優先領域81とを設定するエリア別制御を行う。制御装置4は、d>Dが成立するエリアを非優先領域81に設定し、d>Dが成立しないエリアについては優先領域82の設定を維持してステップS34へ進む。   In step S33, the control device 4 performs area-specific control for setting a priority area 82 and a non-priority area 81 on the imaging surface of the imaging element 100. The control device 4 sets the area where d> D is satisfied as the non-priority area 81, and maintains the setting of the priority area 82 for the area where d> D is not satisfied, and proceeds to step S34.

ステップS34において、制御装置4は、車両1が交差点の領域外か否かを判定する。制御装置4は、GPS装置15からの位置情報や不図示のナビゲーション装置からの地図情報、およびカメラ3Aにより取得された画像から認識した白線、横断歩道、信号機等の外部情報を参照して、車両1が交差点の外と判断した場合、ステップS34を肯定判定して図23のステップS35へ進む。制御装置4は、車両1が交差点の内と判断した場合、ステップS34を否定判定して図26のステップS301へ進む。   In step S34, the control device 4 determines whether the vehicle 1 is outside the area of the intersection. The control device 4 refers to position information from the GPS device 15, map information from a navigation device (not shown), and external information such as a white line, a pedestrian crossing, and a traffic light recognized from an image acquired by the camera 3 </ b> A. If it is determined that No. 1 is outside the intersection, a positive determination is made in step S34, and the process proceeds to step S35 in FIG. When determining that the vehicle 1 is inside the intersection, the control device 4 makes a negative determination in step S34 and proceeds to step S301 in FIG.

図23は、車両1が交差点の外を走行する場合の処理を説明するフローチャートである。図23のステップS35において、制御装置4は、像面移動量Δdiffを算出する。像面移動量Δdiffは、上述したように撮像素子100の撮像面における像の移動量である。制御装置4は、例えば、車速V、ステアリングホイールの回転角θ、および所定係数μを用いて次式(1)のように像面移動量Δdiffを算出し、ステップS36へ進む。
Δdiff=(μ×V)×θ (1)
FIG. 23 is a flowchart illustrating a process when the vehicle 1 travels outside the intersection. In step S35 of FIG. 23, the control device 4 calculates the image plane movement amount Δdiff. The image plane moving amount Δdiff is the moving amount of the image on the imaging surface of the image sensor 100 as described above. The control device 4 calculates the image plane movement amount Δdiff as in the following equation (1) using, for example, the vehicle speed V, the rotation angle θ of the steering wheel, and the predetermined coefficient μ, and proceeds to step S36.
Δdiff = (μ × V) × θ (1)

ステップS36において、制御装置4は、ターンシグナル装置がオフか否かを判定する。制御装置4は、例えば、ターンシグナルスイッチ11(図1)の操作信号によりターンシグナル装置がオフであると判断した場合、ステップS36を肯定判定してステップS37へ進む。制御装置4は、ターンシグナル装置がオンであると判断した場合には、ステップS36を否定判定してステップS38へ進む。   In step S36, the control device 4 determines whether or not the turn signal device is off. For example, when the control device 4 determines that the turn signal device is off based on the operation signal of the turn signal switch 11 (FIG. 1), the control device 4 makes an affirmative determination in step S36 and proceeds to step S37. If the control device 4 determines that the turn signal device is ON, the control device 4 makes a negative determination in step S36 and proceeds to step S38.

ステップS37へ進む場合は、車両1が交差点外の道路に沿って走行する場合が想定される。ステップS37において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、非優先領域81、優先領域82、および最優先領域83のそれぞれに対し、ステップS35で算出した像面移動量Δdiffに基づいて、図24(A)を参照してフレームレートを設定する。
なお、撮像面の全域を優先領域82に設定する場合等、非優先領域81、優先領域82、および最優先領域83の3通りの領域が設定されていない場合は、制御装置4は、図24(A)のうち該当する領域について設定を行う。
When proceeding to step S37, it is assumed that the vehicle 1 travels along a road outside the intersection. In step S37, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, the frame rate is set for each of the non-priority area 81, the priority area 82, and the top priority area 83 based on the image plane movement amount Δdiff calculated in step S35 with reference to FIG.
When the three areas of the non-priority area 81, the priority area 82, and the highest-priority area 83 are not set, for example, when the entire area of the imaging surface is set as the priority area 82, the control device 4 performs the processing shown in FIG. The setting is performed for the corresponding area in (A).

図24(A)によれば、像面移動量Δdiffの絶対値の大きさの違いによって対象物に異なる注目度を設定できるように、4通りのフレームレートが設定可能に構成される。さらに、4通りのフレームレートは、非優先領域81、優先領域82、および最優先領域83に対してそれぞれ設定可能に構成される。一般に、車両1の車速Vが速いほど、かつ車両1が走行する曲率半径が小さい(ステアリングホイールの回転角θが大きい)ほど、撮像素子100に写る像の流れ(オプティカルフロー)が速くなる。像面移動量Δdiffの絶対値の大きさに合わせてフレームレートを設定することで、撮像素子100に写る像の変化に適したフレームレートの設定が可能になる。   According to FIG. 24A, four frame rates can be set so that different degrees of attention can be set for the object depending on the difference in the absolute value of the image plane movement amount Δdiff. Further, four frame rates can be set for the non-priority area 81, the priority area 82, and the top priority area 83, respectively. In general, as the vehicle speed V of the vehicle 1 increases, and as the radius of curvature of the vehicle 1 traveling decreases (the rotation angle θ of the steering wheel increases), the flow of an image (optical flow) captured on the image sensor 100 increases. By setting the frame rate in accordance with the magnitude of the absolute value of the image plane movement amount Δdiff, it becomes possible to set a frame rate suitable for a change in an image captured on the image sensor 100.

また、フレームレートを非優先領域81、優先領域82、および最優先領域83に対してそれぞれ個別に設定可能にすることで、非優先領域81、優先領域82、および最優先領域83のそれぞれの注目度に適したフレームレートの設定が可能になる。   In addition, the frame rate can be individually set for each of the non-priority area 81, the priority area 82, and the top priority area 83, so that each of the non-priority area 81, the priority area 82, and the top priority area 83 It is possible to set a frame rate suitable for each time.

図24(A)のヨー角Yの可動域は、上述した駆動部37が制御部35からの指示に応じてカメラ3Aのヨー角Yを変更する場合の可動範囲である。一般に、車両1が左へ曲がる場合、撮像素子100に写る像の流れ(オプティカルフロー)が画面の左から右へ強くなる。反対に、車両1が右へ曲がる場合、撮像素子100に写る像の流れが画面の右から左へ強くなる。このため、制御装置4は、オプティカルフローの上流側の像が撮像素子100に早く写るように、カメラ3Aの撮影方向をステアリングホイールの回転角θの大きさと向きに応じて移動させるヨー角制御を行う。ステアリングホイールの回転角θ、および所定係数λを用いると、ヨー角Yは次式(2)で表される。
Y=λ×θ (2)
ただし、過大なヨー角Yの移動は適切でないので、本実施の形態ではヨー角Yの可動域を定めることにより、ヨー角Yの可動範囲を制限している。
The movable range of the yaw angle Y in FIG. 24A is a movable range when the above-described driving unit 37 changes the yaw angle Y of the camera 3A in accordance with an instruction from the control unit 35. Generally, when the vehicle 1 turns to the left, the flow of an image (optical flow) reflected on the image sensor 100 increases from left to right on the screen. Conversely, when the vehicle 1 turns right, the flow of the image shown on the image sensor 100 increases from right to left on the screen. For this reason, the control device 4 performs yaw angle control that moves the shooting direction of the camera 3A according to the magnitude and direction of the rotation angle θ of the steering wheel so that the image on the upstream side of the optical flow is quickly captured on the image sensor 100. Do. Using the rotation angle θ of the steering wheel and the predetermined coefficient λ, the yaw angle Y is expressed by the following equation (2).
Y = λ × θ (2)
However, since excessive movement of the yaw angle Y is not appropriate, in the present embodiment, the movable range of the yaw angle Y is limited by defining the movable range of the yaw angle Y.

図24(A)によれば、ステップS35で算出した像面移動量Δdiffの絶対値が大きくなるにつれてヨー角Yの可動範囲の制限値を段階的に大きくするように、ヨー角可動域が4段階に定められる。   According to FIG. 24A, the yaw angle movable range is set to 4 so that the limit value of the movable range of the yaw angle Y increases stepwise as the absolute value of the image plane movement amount Δdiff calculated in step S35 increases. Determined in stages.

なお、ステップS37において上述したフラグb=0なので、図24(A)における補正値α=0である。すなわち、ヨー角Yの可動範囲を狭めるための補正を行わない。   Since the flag b = 0 in step S37, the correction value α in FIG. 24A is zero. That is, the correction for narrowing the movable range of the yaw angle Y is not performed.

図25は、カメラ3Aのヨー角30を説明する模式図である。一般に、車両1の旋回速度が大きい場合は、像面移動量Δdiff(絶対値)が大きくなるので、撮像部ヨー角30(絶対値)も大きく変化させる。図25は、車両1が左へ旋回する場合を例示しており、像面移動量Δdiffは右向きが正になる。制御装置4は、車両1の旋回方向(本例の場合は左)にカメラ3Aを向けるようにヨー角30を制御する。   FIG. 25 is a schematic diagram illustrating the yaw angle 30 of the camera 3A. Generally, when the turning speed of the vehicle 1 is high, the image plane movement amount Δdiff (absolute value) becomes large, so that the imaging unit yaw angle 30 (absolute value) is also greatly changed. FIG. 25 illustrates the case where the vehicle 1 turns to the left, and the image plane movement amount Δdiff is positive in the right direction. The control device 4 controls the yaw angle 30 so as to direct the camera 3A in the turning direction of the vehicle 1 (left in this example).

さらに、制御装置4は、図24(A)に例示されるように、像面移動量Δdiffの絶対値が所定値(例えば20)以上の場合に、レーダー18を用いて距離情報を得る。すなわち、レーダー18によるエリアごとの検知情報に基づく上記第2奥行き分布画像を、上記ステップS32の判定処理に用いる。このように、像面移動量Δdiffの絶対値が大きい場合は、より応答性がよいレーダー18を用いて距離情報を得る。   Further, as illustrated in FIG. 24A, when the absolute value of the image plane movement amount Δdiff is equal to or more than a predetermined value (for example, 20), the control device 4 obtains distance information using the radar 18. That is, the second depth distribution image based on the detection information of each area by the radar 18 is used for the determination processing in step S32. As described above, when the absolute value of the image plane movement amount Δdiff is large, the distance information is obtained by using the radar 18 having better responsiveness.

制御装置4は、以上説明したように撮像素子100の撮像条件を設定する撮像条件を変更すると、図23による処理を終了して図21のステップS40へ進む。   After changing the imaging conditions for setting the imaging conditions of the imaging device 100 as described above, the control device 4 ends the processing in FIG. 23 and proceeds to step S40 in FIG.

上述したステップS36を否定判定してステップS38へ進む場合は、車両1が交差点の外で、例えば路地においてターンシグナル装置を作動させて進路変更する場合が想定される。ステップS38において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、非優先領域81、優先領域82、および最優先領域83のそれぞれに対し、ステップS35で算出した像面移動量Δdiffに基づいて、図24(B)を参照してフレームレートを設定する。
なお、撮像面の全域を優先領域82に設定する場合等、非優先領域81、優先領域82、および最優先領域83の3通りの領域が設定されていない場合は、制御装置4は、図24(B)のうち該当する領域について設定を行う。
When the determination in step S36 is negative and the process proceeds to step S38, it is assumed that the vehicle 1 changes the course by operating a turn signal device outside the intersection, for example, in an alley. In step S38, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, a frame rate is set for each of the non-priority area 81, the priority area 82, and the top priority area 83 based on the image plane movement amount Δdiff calculated in step S35 with reference to FIG.
When the three areas of the non-priority area 81, the priority area 82, and the highest-priority area 83 are not set, for example, when the entire area of the imaging surface is set as the priority area 82, the control device 4 performs the processing shown in FIG. The setting is performed for the corresponding area in (B).

図24(B)によれば、図24(A)の場合に比べて、例えば優先領域82および最優先領域83に対するフレームレートの設定を高くすることによって、優先領域82および最優先領域83に対する注目度を図24(A)の場合よりも高めるように構成されている。   According to FIG. 24B, attention is paid to the priority area 82 and the highest priority area 83 by setting the frame rate for the priority area 82 and the highest priority area 83 higher than in the case of FIG. The configuration is such that the degree is higher than in the case of FIG.

図24(B)のヨー角Yの可動域は、上述した駆動部37が制御部35からの指示に応じてカメラ3Aのヨー角Yを変更する場合の可動範囲である。図24(B)によれば、図24(A)の場合よりもオプティカルフローの上流側の像が撮像素子100に早く写るようにするため、ヨー角Yの可動範囲の制限値を図24(A)の場合よりも大きくするように構成される。   The movable range of the yaw angle Y in FIG. 24B is a movable range when the above-described driving unit 37 changes the yaw angle Y of the camera 3A according to an instruction from the control unit 35. According to FIG. 24B, the limit value of the movable range of the yaw angle Y is set as shown in FIG. 24B so that the image on the upstream side of the optical flow is captured earlier on the image sensor 100 than in the case of FIG. It is configured to be larger than the case of A).

なお、ステップS38において上述したフラグb=0なので、図24(B)における補正値α=0である。すなわち、ヨー角Yの可動範囲を狭めるための補正を行わない。   Since the flag b = 0 in step S38, the correction value α in FIG. 24B is zero. That is, the correction for narrowing the movable range of the yaw angle Y is not performed.

図26は、車両1が交差点内を走行する場合の処理を説明するフローチャートである。図26のステップS301において、制御装置4は、ステップS35の場合と同様に、像面移動量Δdiffを算出してステップS302へ進む。   FIG. 26 is a flowchart illustrating a process when the vehicle 1 runs inside an intersection. In step S301 of FIG. 26, the control device 4 calculates the image plane movement amount Δdiff as in step S35, and proceeds to step S302.

ステップS302において、制御装置4は、通信部18を介して道路上に設置された不図示の情報提供システム等から送信されている交通情報を取得してステップS303へ進む。これにより、車両1は、交差点における対向車線の車の有無、当該車の右左折についての情報、および交差点の信号機に表示されている信号の情報等を取得する。   In step S302, the control device 4 acquires traffic information transmitted from an information providing system (not shown) installed on the road via the communication unit 18 and proceeds to step S303. As a result, the vehicle 1 acquires the presence or absence of a vehicle in the oncoming lane at the intersection, information on turning left and right of the vehicle, information on a signal displayed on a traffic signal at the intersection, and the like.

ステップS303において、制御装置4は、GPS装置15からの位置情報や不図示のナビゲーション装置からの地図情報、およびカメラ3Aにより取得された画像から認識した白線、横断歩道、信号機等の外部情報を参照して、車両1が交差点の直進レーンにいるか、左折レーンにいるか、または右折レーンにいるかを判定し、それぞれステップS304、S307、またはS313へ進む。   In step S303, the control device 4 refers to position information from the GPS device 15, map information from a navigation device (not shown), and external information such as a white line, a pedestrian crossing, and a traffic light recognized from the image acquired by the camera 3A. Then, it is determined whether the vehicle 1 is in the straight lane, the left turn lane, or the right turn lane of the intersection, and the process proceeds to step S304, S307, or S313, respectively.

<直進レーンの場合>
ステップS304において、制御装置4は、交差点に対向右折車が存在するかどうかを判定する。制御装置4は、ステップS302において取得した交通情報によって対向車線の右折車の有無を判断する他、カメラ3Aによって取得した画像に基づいて対向車線の右折車の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで対向車線に右折車が存在すると判断した場合、ステップS304を肯定判定してステップS305へ進む。制御装置4は、対向車線に右折車が存在すると判断しない場合には、ステップS304を否定判定してステップS306へ進む。
<For straight lane>
In step S304, the control device 4 determines whether there is an oncoming right turn vehicle at the intersection. The controller 4 determines whether there is a right-turning vehicle in the oncoming lane based on the traffic information acquired in step S302, and also determines whether there is a right-turning vehicle in the oncoming lane based on the image acquired by the camera 3A. When the control device 4 determines that there is a right-turning vehicle in the oncoming lane in at least one of the above determinations, the control device 4 makes an affirmative determination in step S304 and proceeds to step S305. If the control device 4 does not determine that a right-turning vehicle exists in the oncoming lane, the control device 4 makes a negative determination in step S304 and proceeds to step S306.

ステップS305において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、撮像面の全域を最優先領域83に設定する(全エリア共通制御)とともに、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して、最優先領域83に対するフレームレートを設定する。   In step S305, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, the entire area of the imaging surface is set as the highest priority area 83 (all area common control), and based on the image plane movement amount Δdiff calculated in step S301, referring to FIG. Set the frame rate for.

ヨー角Yの可動域、およびヨー角Yの変更については、ステップS38の場合と同様である。ステップS305においてフラグb=0なので、ヨー角Yの可動範囲を狭めるための補正を行わない点も、ステップS38の場合と同様である。   The movable range of the yaw angle Y and the change of the yaw angle Y are the same as in the case of step S38. Since the flag b = 0 in step S305, the correction for narrowing the movable range of the yaw angle Y is not performed as in the case of step S38.

また、制御装置4は、図24(B)に例示されるように、像面移動量Δdiffの絶対値が図24(A)に比べて小さな判定閾値(例えば10)以上の場合に、レーダー18を用いて距離情報を得る。つまり、図24(A)に比べて像面移動量Δdiffが小さい段階で、レーダー18を用いて距離情報を得るように切り替える。   Further, as illustrated in FIG. 24B, when the absolute value of the image plane movement amount Δdiff is equal to or larger than a determination threshold (for example, 10) smaller than that in FIG. To obtain distance information. That is, when the image plane movement amount Δdiff is smaller than that in FIG. 24A, switching is performed so as to obtain the distance information using the radar 18.

制御装置4は、以上説明したように撮像素子100の撮像条件を設定する撮像条件を変更すると、図26による処理を終了して図21のステップS40へ進む。   After changing the imaging conditions for setting the imaging conditions of the image sensor 100 as described above, the control device 4 ends the processing in FIG. 26 and proceeds to step S40 in FIG.

ステップS306において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、撮像面の全域を最優先領域83に設定する(全エリア共通制御)とともに、ステップS301で算出した像面移動量Δdiffに基づいて、図24(A)を参照して、最優先領域83に対するフレームレートを設定する。   In step S306, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, the entire area of the imaging surface is set as the highest priority area 83 (common control for all areas), and based on the image plane movement amount Δdiff calculated in step S301, referring to FIG. Set the frame rate for.

ヨー角Yの可動域、およびヨー角Yの変更については、ステップS37の場合と同様である。ステップS306においてフラグb=0なので、ヨー角Yの可動範囲を狭めるための補正を行わない点も、ステップS37の場合と同様である。また、制御装置4は、図24(A)に例示されるように、像面移動量Δdiffの絶対値が図24(B)に比べて大きな判定閾値(例えば20)以上の場合に、レーダー18を用いて距離情報を得る。つまり、図24(B)に比べて像面移動量Δdiffが大きい段階で、レーダー18を用いて距離情報を得るように切り替える。
制御装置4は、以上説明したように撮像素子100の撮像条件を設定する撮像条件を変更すると、図26による処理を終了して図21のステップS40へ進む。
The movable range of the yaw angle Y and the change of the yaw angle Y are the same as in the case of step S37. Since the flag b = 0 in step S306, the correction for narrowing the movable range of the yaw angle Y is not performed similarly to the case of step S37. Further, as exemplified in FIG. 24A, the control device 4 determines whether the radar 18 has the absolute value of the image plane moving amount Δdiff which is equal to or larger than a determination threshold (for example, 20) larger than that in FIG. To obtain distance information. That is, when the image plane movement amount Δdiff is larger than that in FIG. 24B, switching is performed so as to obtain distance information using the radar 18.
After changing the imaging conditions for setting the imaging conditions of the image sensor 100 as described above, the control device 4 ends the processing in FIG. 26 and proceeds to step S40 in FIG.

<左折レーンの場合>
ステップS307において、制御装置4は、交差点に対向右折車が存在するかどうかを判定する。制御装置4は、ステップS302において取得した交通情報によって対向車線の右折車の有無を判断する他、カメラ3Aによって取得した画像に基づいて対向車線の右折車の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで対向車線に右折車が存在すると判断した場合、ステップS307を肯定判定してステップS308へ進む。制御装置4は、対向車線に右折車が存在すると判断しない場合には、ステップS307を否定判定してステップS309へ進む。
<In case of left turn lane>
In step S307, the control device 4 determines whether or not the oncoming right turn vehicle exists at the intersection. The controller 4 determines whether there is a right-turning vehicle in the oncoming lane based on the traffic information acquired in step S302, and also determines whether there is a right-turning vehicle in the oncoming lane based on the image acquired by the camera 3A. When the control device 4 determines that there is a right-turning vehicle in the oncoming lane in at least one of the above determinations, the control device 4 makes an affirmative determination in step S307 and proceeds to step S308. If the control device 4 does not determine that there is a right-turning vehicle in the oncoming lane, the control device 4 makes a negative determination in step S307 and proceeds to step S309.

ステップS308において、制御装置4はヨー角補正設定を行う。制御装置4は、フラグbに1を設定してステップS309へ進む。これにより、ヨー角Yの値を補正値αで補正する処理が有効になる。像面移動量Δdiffの絶対値が大きくなるにつれてヨー角Yの可動範囲を大きくする場合、カメラ3Aの向きが車両1の旋回方向へ向かう一方で、対向車線の他の車両がカメラ3Aの撮影画面から外れるおそれも高くなる。そこで、制御装置4は、対向車線に他の車両が存在する場合には、他の車両が存在しない場合よりもヨー角Yの可動範囲を狭めるように、補正値αを設けてヨー角Yの可動範囲を補正する。カメラ3Aの向きを車両1の旋回方向へ向けつつ、対向車線の車両の情報を確実にカメラ3Aで取得するためである。   In step S308, the control device 4 performs a yaw angle correction setting. The control device 4 sets 1 to the flag b and proceeds to step S309. As a result, the process of correcting the value of the yaw angle Y with the correction value α becomes effective. When the movable range of the yaw angle Y is increased as the absolute value of the image plane movement amount Δdiff increases, the direction of the camera 3A moves in the turning direction of the vehicle 1, while the other vehicle in the oncoming lane is shot by the camera 3A. There is also a high risk of departure. Therefore, when another vehicle is present in the oncoming lane, the control device 4 provides a correction value α so that the movable range of the yaw angle Y is narrower than when the other vehicle does not exist, and the yaw angle Y Correct the movable range. This is because the camera 3A surely acquires the information of the vehicle in the oncoming lane while turning the camera 3A in the turning direction of the vehicle 1.

ステップS309において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、撮像面の全域を最優先領域83に設定する(全エリア共通制御)とともに、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して、最優先領域83に対するフレームレートを設定する。   In step S309, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, the entire area of the imaging surface is set as the highest priority area 83 (all area common control), and based on the image plane movement amount Δdiff calculated in step S301, referring to FIG. Set the frame rate for.

フラグb=1なので、制御装置4は、上述したように、ヨー角の可動範囲の制限値を補正値αで補正して狭くする。   Since the flag b = 1, as described above, the control device 4 corrects the limit value of the movable range of the yaw angle with the correction value α to narrow it.

ステップS310において、制御装置4は、左折の際にこれから通過する横断歩道の歩行者用信号が、横断許可信号(例えば、青信号)であるかを判定する。制御装置4は、ステップS302において取得した交通情報によって横断許可信号の有無を判断する他、カメラ3Aによって取得した画像に基づいて青信号の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで横断許可信号であると判断した場合、ステップS310を肯定判定してステップS311へ進む。制御装置4は、横断許可信号であると判断しない場合には、ステップS311を否定判定し、図26による処理を終了して図21のステップS40へ進む。   In step S310, the control device 4 determines whether or not the pedestrian signal of the pedestrian crossing to be passed when turning left is a crossing permission signal (for example, a green signal). The control device 4 determines the presence or absence of a crossing permission signal based on the traffic information acquired in step S302, and also determines the presence or absence of a green signal based on an image acquired by the camera 3A. If the control device 4 determines that the signal is a crossing permission signal in at least one of the above determinations, the control device 4 makes an affirmative determination in step S310 and proceeds to step S311. If the control device 4 does not determine that the signal is a traversing permission signal, the control device 4 makes a negative determination in step S311 and ends the processing in FIG. 26 and proceeds to step S40 in FIG.

ステップS311において、制御装置4は、視線検出装置16から送出された視線情報に基づき、撮像素子100の撮像面に優先領域82と最優先領域83とを設定するエリア別制御を行う。制御装置4は、乗員の視線に対応する領域について優先領域82に設定し、乗員の視線に対応しない領域は最優先領域83を維持してステップS312へ進む。
なお、上述したように、制御装置4は、カメラ3Aで取得した画像に基づいて認識した横断歩道92を含む領域を、優先領域82としてもよい(図20)。
In step S311, the control device 4 performs area-specific control for setting a priority area 82 and a highest priority area 83 on the imaging surface of the image sensor 100 based on the line-of-sight information sent from the line-of-sight detection device 16. The control device 4 sets the area corresponding to the occupant's line of sight as the priority area 82, and the area not corresponding to the occupant's line of sight maintains the highest priority area 83, and proceeds to step S312.
As described above, the control device 4 may set the area including the crosswalk 92 recognized based on the image acquired by the camera 3A as the priority area 82 (FIG. 20).

ステップS312において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して優先領域82、および最優先領域83に対するフレームレートをそれぞれ設定する。   In step S312, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, based on the image plane movement amount Δdiff calculated in step S301, the frame rates for the priority area 82 and the highest priority area 83 are set with reference to FIG.

フラグb=1なので、制御装置4は、上述したように、ヨー角Yの可動範囲の制限値を補正値αで補正して狭くする。制御装置4は、図26による処理を終了して図21のステップS40へ進む。   Since the flag b = 1, as described above, the control device 4 corrects the limit value of the movable range of the yaw angle Y by using the correction value α to narrow it. The control device 4 ends the process in FIG. 26 and proceeds to step S40 in FIG.

<右折レーンの場合>
ステップS313において、制御装置4は、交差点に対向直進車が存在するかどうかを判定する。制御装置4は、ステップS302において取得した交通情報によって対向車線の直進車の有無を判断する他、カメラ3Aによって取得した画像に基づいて対向車線の直進車の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで対向車線に直進車が存在すると判断した場合、ステップS313を肯定判定してステップS314へ進む。制御装置4は、対向車線に直進車が存在すると判断しない場合には、ステップS313を否定判定してステップS315へ進む。
<In case of right turn lane>
In step S313, the control device 4 determines whether an oncoming straight-ahead vehicle exists at the intersection. The control device 4 determines whether there is a straight-ahead vehicle in the oncoming lane based on the traffic information acquired in step S302, and also determines whether there is a straight-ahead vehicle in the oncoming lane based on the image acquired by the camera 3A. If the control device 4 determines that at least one of the above determinations indicates that a straight-ahead vehicle exists in the oncoming lane, it makes an affirmative determination in step S313 and proceeds to step S314. If the control device 4 does not determine that a straight-ahead vehicle exists in the oncoming lane, the control device 4 makes a negative determination in step S313 and proceeds to step S315.

ステップS314において、制御装置4はヨー角補正設定を行う。制御装置4は、フラグbに1を設定してステップS315へ進む。これにより、ヨー角Yの値を補正値αで補正する処理が有効になる。カメラ3Aの向きを車両1の旋回方向へ向けつつ、対向車線の車両の情報を確実にカメラ3Aで取得するためである。   In step S314, the control device 4 performs a yaw angle correction setting. The control device 4 sets 1 to the flag b and proceeds to step S315. As a result, the process of correcting the value of the yaw angle Y with the correction value α becomes effective. This is because the camera 3A surely acquires the information of the vehicle in the oncoming lane while turning the camera 3A in the turning direction of the vehicle 1.

ステップS315において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、撮像面の全域を最優先領域83に設定する(全エリア共通制御)とともに、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して、最優先領域83に対するフレームレートを設定する。   In step S315, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, the entire area of the imaging surface is set as the highest priority area 83 (all area common control), and based on the image plane movement amount Δdiff calculated in step S301, referring to FIG. Set the frame rate for.

フラグb=1なので、制御装置4は、上述したように、ヨー角の可動範囲の制限値を補正値αで補正して狭くする。   Since the flag b = 1, as described above, the control device 4 corrects the limit value of the movable range of the yaw angle with the correction value α to narrow it.

ステップS316において、制御装置4は、右折の際にこれから通過する横断歩道の歩行者用信号が、横断許可信号(例えば、青信号)であるかを判定する。制御装置4は、ステップS302において取得した交通情報によって横断許可信号の有無を判断する他、カメラ3Aによって取得した画像に基づいて青信号の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで横断許可信号であると判断した場合、ステップS316を肯定判定してステップS317へ進む。制御装置4は、横断許可信号であると判断しない場合には、ステップS316を否定判定し、図26による処理を終了して図21のステップS40へ進む。   In step S316, the control device 4 determines whether or not the pedestrian signal of the pedestrian crossing to be passed when turning right is a crossing permission signal (for example, a green signal). The control device 4 determines the presence or absence of a crossing permission signal based on the traffic information acquired in step S302, and also determines the presence or absence of a green signal based on an image acquired by the camera 3A. When the control device 4 determines that the signal is the crossing permission signal in at least one of the above determinations, the control device 4 makes an affirmative determination in step S316 and proceeds to step S317. If the control device 4 does not determine that the signal is a crossing permission signal, the control device 4 makes a negative determination in step S316, ends the process in FIG. 26, and proceeds to step S40 in FIG.

ステップS317において、制御装置4は、視線検出装置16から送出された視線情報に基づき、撮像素子100の撮像面に優先領域82と最優先領域83とを設定するエリア別制御を行う。制御装置4は、乗員の視線に対応する領域について優先領域82に設定し、乗員の視線に対応しない領域は最優先領域83を維持してステップS318へ進む。
なお、上述したように、制御装置4は、カメラ3Aで取得した画像に基づいて認識した横断歩道を含む領域を、優先領域82としてもよい。
In step S317, the control device 4 performs area-specific control for setting the priority area 82 and the highest priority area 83 on the imaging surface of the image sensor 100 based on the visual line information sent from the visual line detection device 16. The control device 4 sets the area corresponding to the occupant's line of sight as the priority area 82, and maintains the highest priority area 83 for the area not corresponding to the occupant's line of sight, and proceeds to step S318.
As described above, the control device 4 may set the area including the pedestrian crossing recognized based on the image acquired by the camera 3A as the priority area 82.

ステップS318において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して優先領域82、および最優先領域83に対するフレームレートをそれぞれ設定する。   In step S318, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, based on the image plane movement amount Δdiff calculated in step S301, the frame rates for the priority area 82 and the highest priority area 83 are set with reference to FIG.

フラグb=1なので、制御装置4は、上述したように、ヨー角Yの可動範囲の制限値を補正値αで補正して狭くする。制御装置4は、図26による処理を終了して図21のステップS40へ進む。   Since the flag b = 1, as described above, the control device 4 corrects the limit value of the movable range of the yaw angle Y by using the correction value α to narrow it. The control device 4 ends the process in FIG. 26 and proceeds to step S40 in FIG.

上述した第二の実施の形態によれば、次の作用効果が得られる。
(1)車両1は、複数の単位領域131の撮像条件を独立して設定可能な撮像素子100を備えた撮像部32と、撮像素子100の画素からの出力に基づいて、第1奥行き分布画像を演算する制御部35と、第1奥行き分布画像に基づいて、複数の単位領域131の撮像条件を設定する制御装置4と、を備える。これにより、例えば車両1から被写体までの距離が所定の閾値(例えば300m)以上に該当する領域を非優先領域81とし、それ以外を優先領域82にする等、撮像部32に対して適切な撮像条件を設定することができる。
According to the above-described second embodiment, the following operation and effect can be obtained.
(1) The vehicle 1 has a first depth distribution image based on the output from the pixels of the imaging device 100 and the imaging unit 32 including the imaging device 100 capable of independently setting the imaging conditions of the plurality of unit areas 131. And a control device 4 for setting the imaging conditions of the plurality of unit areas 131 based on the first depth distribution image. Accordingly, for example, an area in which the distance from the vehicle 1 to the subject is equal to or greater than a predetermined threshold (for example, 300 m) is set as the non-priority area 81, and the other areas are set as priority areas 82. Conditions can be set.

(2)移動可能な車両1にステアリングホイール10を備え、制御装置4は、車両1の車速Vと、ステアリングホイールの回転角θと、第1奥行き分布画像とに基づいて、複数の単位領域131の撮像条件を設定する。これにより、像面移動量Δdiffや第1奥行き分布画像に基づいて、撮像部32に対して適切な撮像条件を設定することができる。 (2) The movable vehicle 1 includes the steering wheel 10, and the control device 4 controls the plurality of unit areas 131 based on the vehicle speed V of the vehicle 1, the rotation angle θ of the steering wheel, and the first depth distribution image. Is set. This makes it possible to set appropriate imaging conditions for the imaging unit 32 based on the image plane movement amount Δdiff and the first depth distribution image.

(3)車両1は、移動可能な車両1に設けられたステアリングホイール10と、撮像を行う撮像部32と、車両1の車速V、ステアリングホイール10の操作量に基づいて、撮像部32を移動させる制御装置4とを備える。これにより、撮像素子100に写る像の流れ(オプティカルフロー)の上流側の像が早く写るように、撮像部32のヨー角制御を適切に行うことができる。 (3) The vehicle 1 moves the imaging unit 32 based on the steering wheel 10 provided on the movable vehicle 1, the imaging unit 32 that performs imaging, and the vehicle speed V of the vehicle 1 and the operation amount of the steering wheel 10. And a control device 4 for performing the control. Thereby, the yaw angle control of the imaging unit 32 can be appropriately performed so that the image on the upstream side of the image flow (optical flow) captured on the image sensor 100 is captured quickly.

(4)撮像部32は、複数の単位領域131の撮像条件を独立して設定可能な撮像素子100を備えたので、単位領域131ごとに異なる撮像条件を設定することができる。 (4) Since the imaging unit 32 includes the imaging element 100 that can independently set the imaging conditions of the plurality of unit areas 131, different imaging conditions can be set for each unit area 131.

(5)制御装置4は、ステアリングホイール10の操作に応じて撮像部32を移動させるので、ステアリングホイール10の回転操作に対してリアルタイムで撮像部32のヨー角制御を行うことができる。 (5) Since the control device 4 moves the imaging unit 32 in accordance with the operation of the steering wheel 10, the yaw angle control of the imaging unit 32 can be performed in real time with respect to the rotation operation of the steering wheel 10.

(6)制御装置4は、車速Vとステアリングホイール10の回転角θとに基づいて撮像部32の移動量を決めるので、撮像部32のヨー角制御を適切に行うことができる。 (6) The control device 4 determines the amount of movement of the imaging unit 32 based on the vehicle speed V and the rotation angle θ of the steering wheel 10, so that the yaw angle control of the imaging unit 32 can be appropriately performed.

(7)車両1は、複数の単位領域131の撮像条件を独立して設定可能な撮像素子100を備えた撮像部32と、交差点への接近を検出する制御装置4と、制御装置4による検出結果に基づいて、撮像素子100の複数の単位領域131の撮像条件を設定する制御装置4を備える。これにより、車両1が交差点に近づいた場合と、車両1が交差点から離れている場合とで、異なる撮像条件を設定できる。さらに、交差点の左折レーン、直進レーン、右折レーンを走行する車両1に対し、それぞれ適切な撮像条件を設定することができる。 (7) The vehicle 1 includes the imaging unit 32 including the imaging element 100 capable of independently setting the imaging conditions of the plurality of unit areas 131, the control device 4 for detecting approach to an intersection, and the detection by the control device 4. The control device 4 is provided for setting imaging conditions of the plurality of unit areas 131 of the image sensor 100 based on the result. Thereby, different imaging conditions can be set when the vehicle 1 approaches the intersection and when the vehicle 1 is away from the intersection. Furthermore, appropriate imaging conditions can be set for each of the vehicles 1 traveling on the left-turn lane, straight-ahead lane, and right-turn lane at the intersection.

(8)車両1の周辺の対象物を検出するレーダー18を備えるため、制御部35により演算された第1奥行き分布画像と別に、第2奥行き画像を得ることができる。 (8) Since the radar 18 is provided for detecting an object around the vehicle 1, a second depth image can be obtained separately from the first depth distribution image calculated by the control unit 35.

(9)車両1は、乗員の視線を検出する視線検出装置16を備える。これにより、例えば、乗員が注意していない領域に対してフレームレートを高めるなど、乗員の視線を考慮して撮像部32の撮像条件を設定することができる。 (9) The vehicle 1 includes the line-of-sight detection device 16 that detects the line of sight of the occupant. Thereby, for example, the imaging conditions of the imaging unit 32 can be set in consideration of the occupant's line of sight, such as increasing the frame rate for an area where the occupant is not paying attention.

(10)車両1の制御装置4は、交差点における車両1の左折(または右折)の際に通過する横断歩道92を含む注目領域82以外の領域に対し、最優先領域83を設定してフレームレートを高くしたり、間引き率を低くしたりして撮像する。これにより、運転する乗員による注目度が低い領域が、最優先領域83として撮像部32によって注目度が高められる。具体的には、図20のように左折時において対向車線から右折してくる車両91などの他の車両が、撮像部32によって監視される。 (10) The control device 4 of the vehicle 1 sets the highest priority area 83 to an area other than the attention area 82 including the pedestrian crossing 92 when the vehicle 1 turns left (or right) at the intersection, and sets the frame rate. Is increased or the thinning rate is reduced. As a result, an area where the driving occupant has a low degree of attention is raised as the highest priority area 83 by the imaging unit 32. More specifically, another vehicle such as a vehicle 91 turning right from the opposite lane when turning left as shown in FIG. 20 is monitored by the imaging unit 32.

(11)車両1の制御装置4は、撮像部32の撮像素子100に写る像の流れの大きさを表す像面移動量Δdiffに基づき、撮像部32の撮像条件を設定する。これにより、例えば像面移動量Δdiffの大小によってフレームレートの高低を変化させるなど、撮像部32に対する撮像条件を適切に設定することができる。 (11) The control device 4 of the vehicle 1 sets the imaging conditions of the imaging unit 32 based on the image plane movement amount Δdiff representing the size of the flow of the image captured on the imaging element 100 of the imaging unit 32. This makes it possible to appropriately set imaging conditions for the imaging unit 32, such as changing the level of the frame rate according to the magnitude of the image plane movement amount Δdiff.

(12)制御装置4は、車速Vとステアリングホイールの回転角θの積に基づいて像面移動量Δdiffを算出したので、撮像素子100に写る像の流れの大きさを適切に算出できる。 (12) Since the control device 4 calculates the image plane movement amount Δdiff based on the product of the vehicle speed V and the rotation angle θ of the steering wheel, the control device 4 can appropriately calculate the size of the flow of the image captured on the image sensor 100.

(13)制御装置4は、像面移動量Δdiffの向き、大きさに基づいて撮像部32のヨー角Yを制御するようにした。これにより、オプティカルフローの上流側の像が撮像部32の撮像面に早く写るように、撮像部32のヨー角制御を適切に行うことができる。 (13) The control device 4 controls the yaw angle Y of the imaging unit 32 based on the direction and size of the image plane movement amount Δdiff. Thereby, the yaw angle control of the imaging unit 32 can be appropriately performed so that the image on the upstream side of the optical flow is quickly captured on the imaging surface of the imaging unit 32.

(14)制御装置4は、像面移動量Δdiffの大きさに基づいて、撮像部3のフレームレートを変化させる。これにより、像面移動量Δdiffの大きさが大きいほどフレームレートを高めるなど、撮像部32に対する撮像条件を適切に設定することができる。 (14) The control device 4 changes the frame rate of the imaging unit 3 based on the magnitude of the image plane movement amount Δdiff. This makes it possible to appropriately set imaging conditions for the imaging unit 32, such as increasing the frame rate as the magnitude of the image plane movement amount Δdiff increases.

(15)制御装置4は、対向車線の右折車または対向車線の直進車の存在により、撮像部32のヨー角の移動範囲を狭く補正する。これにより、撮像部32の向きを車両1の旋回方向へ向けつつ、対向車線の車両の情報を確実に撮像部32で取得させることができる。
なお、上述した実施の形態では、制御装置4の制御によりカメラ3Aを制御したが、カメラ3Aの制御の一部をカメラ3Aの制御部35により行うようにしてもよい。
(15) The control device 4 corrects the movement range of the yaw angle of the imaging unit 32 to be narrow, depending on the presence of a right-turning vehicle in the oncoming lane or a straight-ahead vehicle in the oncoming lane. Thereby, the information of the vehicle in the oncoming lane can be reliably acquired by the imaging unit 32 while the direction of the imaging unit 32 is directed in the turning direction of the vehicle 1.
Although the camera 3A is controlled by the control device 4 in the above-described embodiment, a part of the control of the camera 3A may be performed by the control unit 35 of the camera 3A.

(第二の実施の形態の変形例1)
上記実施の形態では、優先領域82と最優先領域83とでフレームレートを異ならせる例を説明した。この代わりに、優先領域82と最優先領域83との間に緩衝領域を設け、フレームレートを多段階に異ならせるようにしてもよい。例えば、緩衝領域のフレームレートを優先領域82のフレームレートと最優先領域83のフレームレートとの中間値にすることにより、フレームレートを多段階に変化させる。このような緩衝領域を設けることで、フレームレートの値が境界部分で大きく変化する状態を避けることができる。
(Modification 1 of Second Embodiment)
In the above-described embodiment, an example in which the frame rates are different between the priority area 82 and the highest priority area 83 has been described. Instead, a buffer area may be provided between the priority area 82 and the highest priority area 83, and the frame rate may be varied in multiple stages. For example, by setting the frame rate of the buffer area to an intermediate value between the frame rate of the priority area 82 and the frame rate of the highest priority area 83, the frame rate is changed in multiple stages. By providing such a buffer area, it is possible to avoid a state where the value of the frame rate greatly changes at the boundary.

(第二の実施の形態の変形例2)
以上の説明では、カメラ3Aで行う距離測定として、撮像素子100に備えられている焦点検出用画素からの画像信号を用いた測距演算により算出する手法を用いたが、ステレオカメラによる2枚の画像を用いて距離測定を行う手法を用いてもよい。
(Modification 2 of the second embodiment)
In the above description, as the distance measurement performed by the camera 3A, a method of calculating by distance measurement using an image signal from a focus detection pixel provided in the image sensor 100 is used. A method of performing distance measurement using an image may be used.

(第三の実施の形態)
第三の実施の形態は、ステレオカメラによる2枚の画像を用いて距離測定を行う例であり、とくに補助光源22を用いる場合について説明する。図27(a)は、第三の実施の形態を説明する図である。図27(a)において、補助光源22は、車両1の前部に設けられ、所定の地上高(例えば50cm)の高さで道路面に平行に、車両1が走行する前方を照射する。補助光源22は、ステレオカメラ3Sによる撮影画角内へ所定の投影パターンの赤外光22Bを発する。車両1は、図1に例示した車両と同様であり、カメラ3Aの代わりにステレオカメラ3Sが設けられている。
(Third embodiment)
The third embodiment is an example in which distance measurement is performed using two images obtained by a stereo camera. In particular, a case where the auxiliary light source 22 is used will be described. FIG. 27A is a diagram illustrating the third embodiment. In FIG. 27 (a), the auxiliary light source 22 is provided at the front of the vehicle 1 and irradiates the front of the vehicle 1 traveling parallel to the road surface at a predetermined ground height (for example, 50 cm). The auxiliary light source 22 emits an infrared light 22B having a predetermined projection pattern within the angle of view of the stereo camera 3S. The vehicle 1 is the same as the vehicle illustrated in FIG. 1, and a stereo camera 3S is provided instead of the camera 3A.

図27(b)は、補助光源22による投影パターンを説明する図である。図27(b)において、車両1の前方正面に設けられた低コントラストの壁40に、赤外光22Bが照射されている。投影パターンは、壁40の中央部に対して左右対称であり、パターンの縞の間隔が不均一に構成されている。図27(b)の例では、壁40の中央部から左右の端に向かって縞の間隔が徐々に広げられている。   FIG. 27B is a diagram illustrating a projection pattern by the auxiliary light source 22. In FIG. 27B, a low-contrast wall 40 provided in front of the vehicle 1 is irradiated with infrared light 22B. The projection pattern is bilaterally symmetric with respect to the center of the wall 40, and the intervals between the stripes of the pattern are uneven. In the example of FIG. 27B, the interval between the stripes is gradually increased from the center of the wall 40 toward the left and right ends.

例えば、補助光源22として赤外LEDを用いる場合、LEDチップの発光部のパターンを縞状に構成し、そのパターンを投影させることができる。また、レンズとプリズムを用いることにより、補助光源22からの赤外光22Bを縞状に投射させてもよい。   For example, when an infrared LED is used as the auxiliary light source 22, the pattern of the light emitting portion of the LED chip can be configured in a stripe pattern, and the pattern can be projected. Further, the infrared light 22B from the auxiliary light source 22 may be projected in a stripe shape by using a lens and a prism.

一方、ステレオカメラ3Sを構成する左右のカメラには、それぞれ上述した撮像素子100と同様の撮像素子が搭載されている。そして、各撮像素子には、Bayer配列などの所定の配列を有するRGB画素のうち、例えばG画素の位置に赤外光を受光するフィルタを配したIR画素が所定の割合で配置されている。これにより、ステレオカメラ3Sは、IR画素からの画像信号に基づいて左右2つの赤外画像を取得することができる。IR画素に配するフィルタは、補助光源22から発する赤外光22Bの波長を透過し、他の波長域を遮断する特性を有する。
なお、IR画素を配する位置は、Bayer配列におけるG画素の位置に限らず、R画素の位置でもよいし、B画素の位置でもよい。
On the other hand, the left and right cameras constituting the stereo camera 3S are equipped with the same image sensor as the image sensor 100 described above. In each image sensor, among RGB pixels having a predetermined arrangement such as a Bayer arrangement, for example, IR pixels in which a filter for receiving infrared light is arranged at a position of a G pixel are arranged at a predetermined ratio. Thereby, the stereo camera 3S can acquire two right and left infrared images based on the image signals from the IR pixels. The filter disposed in the IR pixel has a characteristic of transmitting the wavelength of the infrared light 22B emitted from the auxiliary light source 22 and blocking other wavelength ranges.
The position at which the IR pixel is arranged is not limited to the position of the G pixel in the Bayer array, but may be the position of the R pixel or the position of the B pixel.

制御装置4は、上記ステレオカメラ3Sで取得された赤外光22Bによるステレオ画像を用いて距離測定を行う。図27(c)は、赤外光22Bが照射された対象物(人物2人)を例示する図である。制御装置4は、車両1の車外が所定の明るさである場合、左右のカメラの各撮像素子のRGB画素を全て駆動して所定のフレームレートでRGBのステレオ画像を取得する。制御装置4は、RGBのステレオ画像に基づき、車両1が走行する前方の対象物を検知する。   The control device 4 performs distance measurement using a stereo image of the infrared light 22B acquired by the stereo camera 3S. FIG. 27C is a diagram illustrating a target object (two persons) irradiated with the infrared light 22B. When the outside of the vehicle 1 has a predetermined brightness, the control device 4 drives all the RGB pixels of the respective image pickup devices of the left and right cameras and acquires an RGB stereo image at a predetermined frame rate. The control device 4 detects a target object ahead of the vehicle 1 based on the RGB stereo image.

制御装置4は、検知した対象物であって、赤外光22Bが照射されている対象物に対応するIR画素を駆動し、赤外光22Bが照射されている対象物に対応しないIR画素を駆動しない。制御装置4は、RGBのステレオ画像に基づいて距離測定を行い、RGBのステレオ画像に基づく距離測定が困難な場合に赤外光22Bによるステレオ画像に基づいて対象物までの距離測定を行う。   The control device 4 drives an IR pixel corresponding to the detected object, the object being irradiated with the infrared light 22B, and an IR pixel not corresponding to the object irradiated with the infrared light 22B. Do not drive. The control device 4 measures the distance based on the RGB stereo image, and when the distance measurement based on the RGB stereo image is difficult, measures the distance to the target based on the stereo image using the infrared light 22B.

制御装置4は、車両1の車外が所定の明るさに満たない場合、左右のカメラの各撮像素子のIR画素を全て駆動して、所定のフレームレートで赤外光22Bによるステレオ画像を取得する。制御装置4は、赤外光22Bによる最初のフレームのステレオ画像に基づき、車両1が走行する前方の対象物を検知する。そして、制御装置4は、次フレーム以降については検知した対象物およびこの対象物を含む所定範囲に対応するIR画素を駆動し、他のIR画素を駆動しない。制御装置4は、赤外光22Bによるステレオ画像に基づいて対象物までの距離測定を行う。   When the outside of the vehicle 1 does not reach the predetermined brightness, the control device 4 drives all the IR pixels of the image sensors of the left and right cameras to acquire a stereo image by the infrared light 22B at a predetermined frame rate. . The control device 4 detects an object ahead of the vehicle 1 on the basis of the stereo image of the first frame by the infrared light 22B. Then, the control device 4 drives the detected target object and the IR pixels corresponding to a predetermined range including the target object for the next frame and thereafter, and does not drive the other IR pixels. The control device 4 measures the distance to the object based on the stereo image by the infrared light 22B.

制御装置4はさらに、検知した対象物までの距離が短いほど、対応するIR画素のフレームレートを高くし、検知した対象物までの距離が長いほど、対応するIR画素のフレームレートを低くする。以上説明したように、IR画素を選択的に駆動し、対象物までの距離に応じてIR画素のフレームレートを異ならせるようにしたので、左右のカメラの各撮像素子のIR画素の全てを高フレームレートで駆動する場合に比べて、消費電力の低減を図ることができる。   The control device 4 further increases the frame rate of the corresponding IR pixel as the distance to the detected object is shorter, and lowers the frame rate of the corresponding IR pixel as the distance to the detected object is longer. As described above, since the IR pixels are selectively driven and the frame rate of the IR pixels is made different according to the distance to the object, all of the IR pixels of each of the image sensors of the left and right cameras are set to a high level. Power consumption can be reduced as compared with the case of driving at a frame rate.

赤外光22Bを発する補助光源22の発光タイミングは、常に発光させてもよいし、左右のカメラの各撮像素子のIR画素を駆動するタイミングで発光させる間欠発光でもよい。
また、RGBのステレオ画像に基づいて所定の条件を判定した場合に赤外光22Bを発するように構成してもよい。例えば、車両1の前方に壁があるとき(T字路、行き止まり等)、対象物(人)が無地の服を着ているとき、対象物がクルマのとき、対象物が規則的な模様を有するとき(シャッター等)に、補助光源22から赤外光22Bを発光させる。
The light emission timing of the auxiliary light source 22 that emits the infrared light 22 </ b> B may be always emitted, or may be intermittent light emission emitted at the timing of driving the IR pixels of the image sensors of the left and right cameras.
Alternatively, the infrared light 22B may be emitted when a predetermined condition is determined based on an RGB stereo image. For example, when there is a wall in front of the vehicle 1 (T-junction, dead end, etc.), when the object (person) is wearing plain clothes, when the object is a car, the object has a regular pattern. When it has (such as a shutter), the auxiliary light source 22 emits infrared light 22B.

上述した第三の実施の形態によれば、次の作用効果が得られる。すなわち、撮像装置は、複数の領域の撮像条件を独立して設定可能な撮像素子を備えたステレオカメラ3Sと、所定のパターンの赤外光22Bが照射されている対象物の赤外光22Bが照射される部分を撮像する撮像素子の領域の撮像条件と、赤外光22Bが照射されない部分を撮像する撮像素子の領域の撮像条件とを異ならせるように制御する制御装置4と、を備える。これにより、ステレオカメラ3Sによるステレオ画像に基づき、夜間や逆光時にも適切に距離測定を行うことができる。また、赤外光22Bによる投影パターンの縞の間隔を不均一にしたので、真正面の平面に投影した場合でも視差を検出しやすい。
また、夜間だけでなく霧の場合にも有効である。
According to the third embodiment, the following operation and effect can be obtained. That is, the imaging apparatus includes a stereo camera 3S having an imaging element capable of independently setting imaging conditions of a plurality of regions, and an infrared light 22B of an object irradiated with the infrared light 22B of a predetermined pattern. The control device 4 controls the imaging conditions of an area of the imaging element that captures an area to be irradiated and the imaging conditions of an area of the imaging element that captures an area not irradiated with the infrared light 22B to be different. Thereby, based on the stereo image by the stereo camera 3S, distance measurement can be appropriately performed even at night or in backlight. Further, since the interval between stripes of the projection pattern by the infrared light 22B is made non-uniform, it is easy to detect parallax even when the projection is performed on a plane directly in front.
It is also effective not only at night but also in fog.

(第四の実施の形態)
図28(a)および図28(b)は、第四の実施の形態を説明する図である。図28(a)において、車両1は、図1に例示した車両と同様であるが、ウィンドシールドガラス20(カメラ3への光束が通過する領域を除く)に透過型液晶フィルタ21が積層されている。第四の実施の形態では、運転者にとって視認しづらい情報(必要光)をカメラ3Aにより取得する。
(Fourth embodiment)
FIGS. 28A and 28B are diagrams for explaining the fourth embodiment. In FIG. 28 (a), the vehicle 1 is the same as the vehicle illustrated in FIG. 1, except that a transmission type liquid crystal filter 21 is laminated on a windshield glass 20 (excluding a region through which a light beam to the camera 3 passes). I have. In the fourth embodiment, the camera 3A acquires information (required light) that is difficult for the driver to visually recognize.

図28(b)において、ダッシュボード内に表示・再生装置14としてのヘッドアップディスプレイが備えられている。ヘッドアップディスプレイ14は、運転者30に注意を促す。さらに、透過型液晶フィルタ21(図28(a))は、運転者30にとって眩しい光(不要光)を抑える。   In FIG. 28B, a head-up display as a display / playback device 14 is provided in the dashboard. The head-up display 14 calls attention to the driver 30. Further, the transmissive liquid crystal filter 21 (FIG. 28A) suppresses dazzling light (unnecessary light) for the driver 30.

透過型液晶フィルタ21は、領域毎の可視光透過率を制御可能なフィルタである。本実施の形態では、制御装置4によって所定の明るさ以上の対象物(朝日、夕日などの太陽35)が存在することが検出された場合に、透過型液晶フィルタ21を構成する液晶素子のうち、運転者30が観察する景色における上記太陽35およびその周囲の領域に対応する透過型液晶フィルタ21の液晶素子の透過率を下げる。これにより、運転者30の眼に対する過剰な不要光を抑制する。   The transmission type liquid crystal filter 21 is a filter capable of controlling the visible light transmittance for each area. In the present embodiment, when the control device 4 detects that an object (the sun 35 such as the sunrise or sunset) having a predetermined brightness or more is present, the liquid crystal elements constituting the transmissive liquid crystal filter 21 are detected. The transmittance of the liquid crystal element of the transmission type liquid crystal filter 21 corresponding to the sun 35 and the surrounding area in the scenery observed by the driver 30 is reduced. Thereby, excessive unnecessary light to the eyes of the driver 30 is suppressed.

なお、太陽35の他にも、建造物で反射された反射光や、夜間走行時の対向車のヘッドライトを過剰な不要光として抑制する対象にしてもよい。ここで、運転者30の体格や着座位置に基づく運転者30の眼の位置と、透過型液晶フィルタ21を介して運転者30が観察する景色との関係が予め記憶されているものとする。   In addition to the sun 35, the reflected light reflected from the building or the headlight of an oncoming vehicle during night driving may be set as a target to be suppressed as excessive unnecessary light. Here, it is assumed that the relationship between the position of the eyes of the driver 30 based on the physique and the sitting position of the driver 30 and the scenery observed by the driver 30 via the transmissive liquid crystal filter 21 is stored in advance.

ヘッドアップディスプレイ14は、液晶パネルなどに表示した情報を虚像としてウィンドシールドガラス20に映し出す表示装置である。運転者30は、車両1の外部の風景に重ねるように投映されたヘッドアップディスプレイ14による情報を観察する。本実施の形態では、制御装置4によって対象物(歩行者、車両(クルマ、二輪車を含む)等)の存在が検出された場合に、運転者30が観察する景色における上記対象物を含む枠(縁取りでもよい)P2をヘッドアップディスプレイ14によって表示させる。   The head-up display 14 is a display device that displays information displayed on a liquid crystal panel or the like as a virtual image on the windshield glass 20. The driver 30 observes the information on the head-up display 14 projected so as to overlap the scenery outside the vehicle 1. In the present embodiment, when the control device 4 detects the presence of an object (a pedestrian, a vehicle (including a car or a motorcycle), or the like), a frame including the object in a scene observed by the driver 30 ( P2 may be displayed on the head-up display 14.

また、制御装置4によって対象物(道路標識、信号、横断歩道、側溝等)の存在が検出された場合にも、運転者30が観察する景色における上記対象物を含む枠(縁取りでもよい)P1をヘッドアップディスプレイ14によって表示させてもよい。
なお、運転者30の体格や着座位置に基づく運転者30の眼の位置と、ウィンドシールドガラス20を介して運転者30が観察する景色と、ヘッドアップディスプレイ14による投映位置との関係が予め記憶されているものとする。
In addition, even when the control device 4 detects the presence of an object (a road sign, a signal, a pedestrian crossing, a gutter, etc.), the frame P1 including the object in the scenery observed by the driver 30 (may be a border). May be displayed on the head-up display 14.
The relationship between the position of the eyes of the driver 30 based on the physique and the sitting position of the driver 30, the scene observed by the driver 30 through the windshield glass 20, and the projection position of the head-up display 14 is stored in advance. It is assumed that

(区分け)
制御装置4は、カメラ3Aで取得された画像に基づき区分けを行うことにより、透過型液晶フィルタ21に対する透過率の制御、ヘッドアップディスプレイ14に対する表示制御、およびカメラ3Aに対するゲイン等の制御を行う。
(Segmentation)
The control device 4 performs control of the transmittance of the transmissive liquid crystal filter 21, display control of the head-up display 14, and control of the gain and the like of the camera 3A by performing classification based on the image acquired by the camera 3A.

(過剰光領域)
制御装置4は、所定の明るさ以上の対象物を以下のように検出する。例えば、GPS装置15により算出された車両1の位置情報および時刻情報、ナビゲーション装置18によって検出された車両1の方位情報、予め用意されている太陽35の位置情報(観測地点と高度(仰角)および方位を示す情報)、およびカメラ3Aの画角情報に基づき、カメラ3Aで取得される画像における、太陽35等による不要な過剰光に対応する領域(過剰光領域と呼ぶ)を検出する。制御装置4は、上述したように、透過型液晶フィルタ21のうち過剰光領域に対応する液晶素子の透過率を下げる。また、制御装置4は、カメラ3Aの撮像素子100に対しては、撮像面の過剰光領域に対応するゲインを低く設定する。
(Excess light area)
The control device 4 detects an object having a predetermined brightness or higher as follows. For example, position information and time information of the vehicle 1 calculated by the GPS device 15, azimuth information of the vehicle 1 detected by the navigation device 18, position information of the sun 35 prepared in advance (observation point and altitude (elevation angle) and Based on the information indicating the azimuth) and the angle of view information of the camera 3A, an area corresponding to unnecessary excess light due to the sun 35 or the like (referred to as an excess light area) in the image acquired by the camera 3A is detected. As described above, the control device 4 lowers the transmittance of the liquid crystal element corresponding to the excess light region in the transmission type liquid crystal filter 21. Further, the control device 4 sets a low gain corresponding to the excessive light area on the imaging surface for the imaging device 100 of the camera 3A.

(不足光領域)
制御装置4は、カメラ3Aで取得された画像の対象物が所定の明るさよりも暗い場合に、上記対象物からの光を不足光と判断する。制御装置4は、カメラ3Aの撮像素子100における不足光に対応する領域(不足光領域と呼ぶ)のゲインを高く設定する。これにより、カメラ3Aによって取得される画像の対象物が明るくなり、対象物(歩行者、車両(クルマ、二輪車を含む)、標識等)を認識しやすくなる。
なお、撮像素子100のゲインを部分的に高くするだけでなく、フレームレートを部分的に高く変更してもよい。また、対象物が無いと判定した場合には、ゲインやフレームレートを変更前の値に戻してもよい。
(Insufficient light area)
When the object of the image acquired by the camera 3A is darker than a predetermined brightness, the control device 4 determines that the light from the object is insufficient light. The control device 4 sets a high gain in an area corresponding to the insufficient light in the image sensor 100 of the camera 3A (referred to as an insufficient light area). Thereby, the object of the image acquired by the camera 3A becomes bright, and the object (pedestrian, vehicle (including car and motorcycle), sign, etc.) can be easily recognized.
Note that, not only the gain of the image sensor 100 may be partially increased but also the frame rate may be partially increased. When it is determined that there is no target object, the gain and the frame rate may be returned to the values before the change.

(必要光領域)
制御装置4は、カメラ3Aで取得された画像に対象物(道路標識、信号、横断歩道、側溝等)が含まれる場合に、上記対象物からの光を必要光と判断する。制御装置4は、カメラ3Aの撮像素子100における必要光に対応する領域(必要光領域と呼ぶ)のゲインを部分的に高く設定する。これにより、カメラ3Aによって取得される画像の対象物が明るくなり、対象物(道路標識、信号、横断歩道、側溝等)の情報がわかりやすくなる。
なお、制御装置4は、カメラ3Aで取得された画像が所定の明るさよりも明るい場合には、ゲインやフレームレートを変更前の値に戻してもよい。
(Necessary light area)
When an image (a road sign, a signal, a pedestrian crossing, a gutter, etc.) is included in the image acquired by the camera 3A, the control device 4 determines that the light from the object is necessary light. The control device 4 partially sets the gain of an area (referred to as a necessary light area) corresponding to the necessary light in the image sensor 100 of the camera 3A to a high value. Thereby, the object of the image acquired by the camera 3A becomes bright, and the information of the object (a road sign, a signal, a pedestrian crossing, a gutter, etc.) becomes easy to understand.
Note that when the image acquired by the camera 3A is brighter than the predetermined brightness, the control device 4 may return the gain and the frame rate to the values before the change.

制御装置4はさらに、上述したように、上記不足光領域や上記必要光領域に対し、それぞれの対象物を含む枠(縁取りでもよい)P1、P2をヘッドアップディスプレイ14によって表示させる。これにより、運転者30に対象物の存在を知らせたり、注意を促したりすることができる。
なお、枠や縁取りの表示に代えて、あるいは枠や縁取りの表示に加えて、予め記憶しているマーク(例えば、道路標識と同じマーク、人をかたどったマーク、車両をかたどったマーク等)を表示させてもよい。
The control device 4 further causes the head-up display 14 to display frames (may be borders) P1 and P2 including the respective objects in the insufficient light area and the required light area, as described above. As a result, the driver 30 can be notified of the presence of the target object or can be alerted.
In addition, instead of the display of the frame or the outline, or in addition to the display of the frame or the outline, a mark stored in advance (for example, the same mark as a road sign, a mark imitating a person, a mark imitating a vehicle, or the like) is displayed. It may be displayed.

制御装置4は、撮像素子100の撮像面のうちの不足光領域や必要光領域のゲインを上げる代わりに、あるいはゲインを上げるとともに、同領域について画素加算を行ってもよい。画素加算は、複数の画素信号を足し合わせて1つの画素信号として扱うことをいう。制御装置4は、例えば、取得タイミングが連続する複数フレーム(例えば4枚)の画像を画素加算して1枚の画像を得る。画素加算は、複数フレーム間の対応する画素信号同士を加算する。   The control device 4 may perform pixel addition on the imaging area of the imaging device 100 instead of increasing the gain of the insufficient light area or the necessary light area, or while increasing the gain. Pixel addition means that a plurality of pixel signals are added and treated as one pixel signal. The control device 4 obtains one image by, for example, adding pixels of a plurality of frames (for example, four images) of which acquisition timing is continuous. In the pixel addition, corresponding pixel signals between a plurality of frames are added.

制御装置4は、上述したように不足光領域や必要光領域のゲインを一時的に高めたり、複数フレーム間で画素加算を行ったりすることによって対象物を検知した後は、対象物の動きを追尾し得る程度にゲインを下げる、または画素加算を行うフレーム数を減少するなどしてよい。   After detecting the target by temporarily increasing the gain in the insufficient light area or the required light area or performing pixel addition between a plurality of frames as described above, the control device 4 controls the movement of the target object. The gain may be reduced to the extent that tracking can be performed, or the number of frames for which pixel addition is performed may be reduced.

上述した第四の実施の形態によれば、次の作用効果が得られる。すなわち、電子機器は、複数の領域の撮像条件を独立して設定可能な撮像素子100を備えた撮像部32と、車両1の運転者30の前面に設けられたヘッドアップディスプレイ14と、撮像部32で撮像した画像から求めた車両1の前方の明るさの情報により、複数の領域の撮像条件の設定と、ヘッドアップディスプレイ14の表示の制御とを行う制御装置4とを備える。例えば、撮像素子100における不足光に対応する領域のゲインを高く設定することにより、カメラ3Aによって取得される画像の対象物が明るくなり、対象物(歩行者、車両(クルマ、二輪車を含む)、標識等)を認識しやすくなる。また、運転者30に対象物の存在を知らせたり、注意を促したりすることができる。   According to the above-described fourth embodiment, the following operation and effect can be obtained. That is, the electronic device includes an imaging unit 32 including an imaging element 100 capable of independently setting imaging conditions of a plurality of regions, a head-up display 14 provided on a front surface of a driver 30 of the vehicle 1, an imaging unit, A control device 4 is provided for setting imaging conditions for a plurality of areas and controlling the display of the head-up display 14 based on the information on the brightness in front of the vehicle 1 obtained from the image captured at 32. For example, by setting the gain of the region corresponding to the insufficient light in the image sensor 100 to be high, the object of the image acquired by the camera 3A becomes bright, and the object (including a pedestrian, a vehicle (including a car and a motorcycle), Signs, etc.). In addition, it is possible to notify the driver 30 of the presence of the target object or to call attention.

(第五の実施の形態)
第五の実施の形態では、運転者30が装着したウェアラブルカメラ19と、車両1に搭載されたカメラ3Aとが協働する。図29(a)は、第五の実施の形態を説明する図である。図29(a)において、カメラ3Aはドライブレコーダとしての機能を備えており、例えば車両1から電源供給が開始(システムオン)されたり、エンジンが始動されたりすると、所定のフレームレートで撮像を開始する。ウェアラブルカメラ19は、例えば運転者30に装着されたときから所定のフレームレートで撮像を開始する。ウェアラブルカメラ19は、内蔵する無線通信ユニットを介して制御装置4へ撮像した画像を逐次送信する。制御装置4は、カメラ3Aおよびウェアラブルカメラ19によって取得された画像を制御装置4の記憶部4bに記録することができる。
(Fifth embodiment)
In the fifth embodiment, the wearable camera 19 worn by the driver 30 and the camera 3A mounted on the vehicle 1 cooperate. FIG. 29A is a diagram for explaining the fifth embodiment. In FIG. 29A, the camera 3A has a function as a drive recorder. For example, when the power supply is started from the vehicle 1 (system on) or the engine is started, the camera 3A starts imaging at a predetermined frame rate. I do. The wearable camera 19 starts imaging at a predetermined frame rate, for example, when the wearable camera 19 is worn by the driver 30. The wearable camera 19 sequentially transmits captured images to the control device 4 via a built-in wireless communication unit. The control device 4 can record images acquired by the camera 3A and the wearable camera 19 in the storage unit 4b of the control device 4.

カメラ3Aは、撮像素子100の撮像チップ111の撮像面を第1領域(通常撮像領域)と第2領域(特殊撮像領域)とに分割し、第1領域と第2領域との間で異なる撮像条件を設定して撮像を行うことができる。図29(b)によれば、第1領域は、奇数の列の上記ブロックによって構成され、第2領域は、偶数の列の上記ブロックによって構成されている。すなわち、撮像チップ111におけるブロックが、奇数列と偶数列とに分割される。
なお、第1領域と第2領域との分割態様は図29(b)の例に限らず、図4(b)のように奇数行と偶数行とに分割したり、図4(c)のように市松模様状に分割したりすることもできる。
The camera 3A divides the imaging surface of the imaging chip 111 of the imaging device 100 into a first area (normal imaging area) and a second area (special imaging area), and performs different imaging between the first area and the second area. Imaging can be performed by setting conditions. According to FIG. 29 (b), the first area is constituted by the blocks in the odd columns, and the second area is constituted by the blocks in the even columns. That is, the blocks in the imaging chip 111 are divided into odd columns and even columns.
Note that the manner of dividing the first area and the second area is not limited to the example of FIG. 29B, but may be divided into odd rows and even rows as shown in FIG. It can be divided in a checkered pattern like this.

制御装置4は、例えば夜間の走行時には、カメラ3Aにおける上記第1領域において通常の撮像を行わせるとともに、カメラ3Aにおける上記第2領域においてゲインを第1領域のゲインより高く設定して撮像を行わせる。   For example, at the time of traveling at night, the control device 4 causes the camera 3A to perform normal imaging in the first area and sets the gain in the second area in the camera 3A to be higher than the gain in the first area to perform imaging. Let

制御装置4は、例えば昼間の走行時において逆光状態では、カメラ3Aにおける上記第1領域において通常の撮像を行わせるとともに、カメラ3Aにおける上記第2領域においてゲインを第1領域のゲインより低く設定して撮像を行わせる。ゲインを低く設定する他に、蓄積時間を短く設定してもよい。   For example, in a backlight state during traveling in the daytime, the control device 4 causes the camera 3A to perform normal imaging in the first area, and sets the gain in the second area in the camera 3A to be lower than the gain in the first area. To perform imaging. In addition to setting the gain low, the accumulation time may be set short.

制御装置4は、夜間走行や昼間の逆光状態に該当しない場合には、カメラ3Aにおける上記第2領域の画素を駆動しない。制御装置4は、カメラ3Aにおける第1領域を用いて通常の撮像のみを行わせる。   The control device 4 does not drive the pixels in the second area in the camera 3A when the vehicle does not correspond to the night driving or daylight backlight state. The control device 4 causes only normal imaging to be performed using the first area in the camera 3A.

ウェアラブルカメラ19は、視線検出ユニットを搭載しており、運転者30の視線検出を行うことができる。視線検出ユニットで検出した視線情報は、上記無線通信ユニットを介して撮像画像とともにウェアラブルカメラ19から制御装置4へ無線通信により送信される。   The wearable camera 19 is equipped with a line-of-sight detection unit, and can detect the line of sight of the driver 30. The line-of-sight information detected by the line-of-sight detection unit is transmitted by wireless communication from the wearable camera 19 to the control device 4 together with the captured image via the wireless communication unit.

制御装置4は、運転者30の視線に基づき、ウェアラブルカメラ19による撮像範囲がカメラ3Aによる撮像範囲に含まれるか否かを判断する。そして、制御装置4は、ウェアラブルカメラ19による撮像範囲がカメラ3Aによる撮像範囲に含まれる場合、カメラ3Aによって取得された画像のみを制御装置4の記憶部4bに記録する。   The control device 4 determines whether or not the imaging range of the wearable camera 19 is included in the imaging range of the camera 3A based on the line of sight of the driver 30. Then, when the imaging range of the wearable camera 19 is included in the imaging range of the camera 3A, the control device 4 records only the image acquired by the camera 3A in the storage unit 4b of the control device 4.

また、制御装置4は、ウェアラブルカメラ19による撮像範囲の一部がカメラ3Aによる撮像範囲に含まれる場合、カメラ3Aによって取得された画像とウェアラブルカメラ19によって取得された画像との双方を制御装置4の記憶部4bに記録する。   When a part of the imaging range of the wearable camera 19 is included in the imaging range of the camera 3A, the control device 4 controls both the image acquired by the camera 3A and the image acquired by the wearable camera 19. In the storage unit 4b.

さらにまた、制御装置4は、ウェアラブルカメラ19による撮像範囲がカメラ3Aによる撮像範囲に含まれない場合、カメラ3Aによって取得された画像とウェアラブルカメラ19によって取得された画像との双方を制御装置4の記憶部4bに記録する。   Furthermore, when the imaging range of the wearable camera 19 is not included in the imaging range of the camera 3A, the control device 4 transmits both the image acquired by the camera 3A and the image acquired by the wearable camera 19 to the control device 4. The information is recorded in the storage unit 4b.

上述した第五の実施の形態によれば、次の作用効果が得られる。
(1)画像記録装置は、車両1の周囲を撮像するカメラ3Aと、車両1の運転者30に装着されたウェアラブルカメラ19で撮像された第2画像を入力する制御装置4と、カメラ3Aで撮像された第1画像の撮影範囲と第2画像の撮影範囲とを比較する制御装置4と、制御装置4の比較結果により、第1画像および第2画像の少なくとも一方の画像を記憶部4bに記録する制御装置4とを備える。例えば、ウェアラブルカメラ19による撮像範囲の少なくとも一部がカメラ3Aによる撮像範囲に含まれない場合には、カメラ3Aによって取得された第1画像とウェアラブルカメラ19によって取得された第2画像との双方を制御装置4の記憶部4bに記録することにより、カメラ3Aのみでは得られない情報を残しておくことができる。
一方、ウェアラブルカメラ19による撮像範囲の全てがカメラ3Aによる撮像範囲に含まれている場合には、第1画像のみを制御装置4の記憶部4bに記録することにより、記憶部4bの使用量を少なく抑えることができる。
According to the above-described fifth embodiment, the following operation and effect can be obtained.
(1) The image recording device includes a camera 3A that captures an image around the vehicle 1, a control device 4 that inputs a second image captured by a wearable camera 19 mounted on a driver 30 of the vehicle 1, and a camera 3A. The control device 4 that compares the captured range of the captured first image and the captured range of the second image, and at least one of the first image and the second image is stored in the storage unit 4b based on the comparison result of the control device 4. And a control device 4 for recording. For example, when at least a part of the imaging range of the wearable camera 19 is not included in the imaging range of the camera 3A, both the first image acquired by the camera 3A and the second image acquired by the wearable camera 19 are displayed. By recording the information in the storage unit 4b of the control device 4, information that cannot be obtained by the camera 3A alone can be left.
On the other hand, when the entire imaging range of the wearable camera 19 is included in the imaging range of the camera 3A, only the first image is recorded in the storage unit 4b of the control device 4, so that the usage amount of the storage unit 4b is reduced. It can be kept low.

(2)また、カメラ3Aにおいて第2領域で撮像を行った場合において、第1領域での通常の撮像によって得られた画像と、第2領域での条件が異なる撮像によって得られた画像との双方を記録するので、通常の撮像ではわかりづらい情報を残しておくことができる。さらにまた、カメラ3Aにおける第2領域で撮像を行わない場合は、第1領域での通常の撮像によって得られた画像のみを記録するので、記憶部4bの使用量を少なく抑えることができる。 (2) In the case where the camera 3A performs imaging in the second area, an image obtained by normal imaging in the first area and an image obtained by imaging in the second area under different conditions are used. Since both are recorded, it is possible to leave information that is difficult to understand in normal imaging. Furthermore, when imaging is not performed in the second area of the camera 3A, only images obtained by normal imaging in the first area are recorded, so that the amount of use of the storage unit 4b can be reduced.

(変形例)
上述した各実施の形態において、車両1に搭載したカメラ3Aによって取得した画像を、車両1以外の他の車両との間で共有したり、交通管制センターとの間で共有してもよい。例えば、カメラ3Aで取得した画像を無線通信装置によって他の車両または交通管制センターへ送信する。車両1から他の車両への送信は、車車間通信で行ってもよいし、車両1から交通管制センターを介して送るようにしてもよい。
(Modification)
In each of the above-described embodiments, the image acquired by the camera 3A mounted on the vehicle 1 may be shared with another vehicle other than the vehicle 1, or may be shared with a traffic control center. For example, the image acquired by the camera 3A is transmitted to another vehicle or a traffic control center by the wireless communication device. Transmission from the vehicle 1 to another vehicle may be performed by inter-vehicle communication, or may be transmitted from the vehicle 1 via a traffic control center.

なお、車両1から交通管制センターへ画像を送信した場合は、交通管制センターが車両1から受信した画像に基づいて生成した情報を他の車両へ配信する構成にしてもよい。例えば、車両1から受信した画像に障害物が写っている場合、交通管制センターの制御装置が、画像を解析して「県道○○線△△4丁目付近に落下物があります。」というメッセージを生成し、他の車両へ配信する。   When an image is transmitted from the vehicle 1 to the traffic control center, information generated by the traffic control center based on the image received from the vehicle 1 may be distributed to other vehicles. For example, when an obstacle is included in the image received from the vehicle 1, the control device of the traffic control center analyzes the image and issues a message "There is a falling object near the prefectural road XX line @ 4-chome." Generate and distribute to other vehicles.

車両1のカメラ3Aで上述した道路上の障害物を含む画像が取得される場合、制御装置4は、障害物に対して撮像チップ111における注目領域を設定し、他の領域(順注目領域)と異なる撮像条件を設定(例えば解像度やフレームレート等を高くする)する。これにより、注目領域の障害物の詳細な情報を得ることができる。また、注目領域のみ(すなわち画像の一部)を高精細に撮像することで、撮像チップ111における全ての領域(画像の全部)を高精細に撮像する場合に比べて、取得される画像のデータ量を少なく抑えることができる。   When the image including the above-described obstacle on the road is acquired by the camera 3A of the vehicle 1, the control device 4 sets a region of interest in the imaging chip 111 with respect to the obstacle, and sets another region (forward region of interest). (For example, increasing the resolution and the frame rate). Thereby, detailed information on the obstacle in the attention area can be obtained. Further, by capturing only the region of interest (that is, a part of the image) with high definition, the data of the acquired image can be compared with the case of capturing the entire region (all of the image) with the imaging chip 111 with high definition. The amount can be kept low.

データ量を少なくすることで、車両1から他の車両または交通管制センターへ画像を送信する場合の通信量を少なく抑えることができる。また、カメラ3Aで取得した画像をドラーブレコーダとして保存する場合には、データ量を少なくすることで、記録する記憶媒体の容量を抑えることができる。   By reducing the data amount, the communication amount when transmitting an image from the vehicle 1 to another vehicle or a traffic control center can be reduced. When an image obtained by the camera 3A is stored as a drag recorder, by reducing the data amount, the capacity of a storage medium for recording can be reduced.

なお、車両1から他の車両または交通管制センターへ画像を送信する場合の通信量を少なく抑える場合において、撮像チップ111における全ての領域を高精細に撮像した上で、障害物に対する領域のみを切り出した一部の画像を車両1から他の車両または交通管制センターへ送信するようにしてもよい。   In the case where the communication amount when transmitting an image from the vehicle 1 to another vehicle or the traffic control center is to be reduced, all areas in the imaging chip 111 are imaged with high definition, and only an area corresponding to an obstacle is cut out. Some of the images may be transmitted from the vehicle 1 to another vehicle or a traffic control center.

車両1に搭載したカメラ3Aによって取得した画像を、車両1以外の他の車両や交通管制センターとの間で共有する例としては、上記障害物の有無の他にも、事故の有無、災害発生の有無、工事の有無、渋滞の有無、検問の有無、チェーン装着規制の有無等にも適用することができる。   Examples of sharing an image acquired by the camera 3A mounted on the vehicle 1 with vehicles other than the vehicle 1 and the traffic control center include, in addition to the presence or absence of the above-mentioned obstacle, presence or absence of an accident, occurrence of a disaster, It can also be applied to the presence or absence of construction, the presence or absence of construction, the presence or absence of congestion, the presence or absence of inspection, and the presence or absence of chain attachment restrictions.

1…車両、2…運転支援装置、3A、3B…カメラ、4…制御装置、4a、35a…CPU、4b、35b…記憶部、10…ステアリングホイール、12…車速センサ、14…表示・再生装置、16…視線検出装置、17…通信部、18…レーダー、31…撮像光学系、32…撮像部、35…制御部、70…撮像面、81…第1領域、非優先領域、82…第2領域、優先領域、83…最優先領域、100…撮像素子、111…撮像チップ   REFERENCE SIGNS LIST 1 vehicle, 2 driving assistance device, 3A, 3B camera, 4 control device, 4a, 35a CPU, 4b, 35b storage unit, 10 steering wheel, 12 vehicle speed sensor, 14 display / reproduction device , 16: eye-gaze detecting device, 17: communication unit, 18: radar, 31: imaging optical system, 32: imaging unit, 35: control unit, 70: imaging surface, 81: first area, non-priority area, 82: 2 areas, priority area, 83: highest priority area, 100: imaging element, 111: imaging chip

Claims (11)

車に搭載される電子機器において、
第1の撮像条件により被写体を撮像する第1領域と、前記第1の撮像条件とは異なる第2の撮像条件により被写体を撮像する第2領域と、をそれぞれ複数有する撮像部と、
前記第1領域により生成された第1画像信号に基づいて対象物の検出を行う検出部と、
前記第2領域により生成された第2画像信号に基づいて表示部に画像を表示する表示制御部と、
を備えた電子機器。
In electronic devices mounted on cars,
An imaging unit having a plurality of first regions for imaging the subject under the first imaging condition and a plurality of second regions for imaging the subject under a second imaging condition different from the first imaging condition;
A detection unit that detects an object based on a first image signal generated by the first region;
A display control unit that displays an image on a display unit based on a second image signal generated by the second region;
Electronic equipment with.
請求項1に記載の電子機器において、The electronic device according to claim 1,
前記撮像部は、少なくとも第1の方向に交互に配置された前記第1領域と前記第2領域とを有する電子機器。  The electronic device, wherein the imaging unit has the first region and the second region alternately arranged in at least a first direction.
請求項2に記載の電子機器において、The electronic device according to claim 2,
前記撮像部は、前記第1の方向と交わる第2の方向に交互に配置された前記第1領域と前記第2領域とを有する電子機器。  The electronic device, wherein the imaging unit includes the first region and the second region alternately arranged in a second direction that intersects the first direction.
請求項1から3のいずれか一項に記載の電子機器において、
前記表示制御部は、前記検出部で検出された前記対象物の情報を前記表示部に表示する電子機器。
The electronic device according to any one of claims 1 to 3 ,
The display controller, an electronic apparatus for displaying information of the object detected in the previous danger out portion on the display unit.
請求項1から4のいずれか一項に記載の電子機器において、
前記撮像部は、前記第1領域のフレームレートが前記第2領域のフレームレートよりも高い、電子機器。
The electronic device according to any one of claims 1 to 4 ,
The electronic device, wherein the imaging unit is configured such that a frame rate of the first area is higher than a frame rate of the second area.
請求項1からのいずれか一項に記載の電子機器において、
前記撮像部は、前記第1領域のゲインが前記第2領域のゲインよりも高い、電子機器。
The electronic device according to any one of claims 1 to 5 ,
The electronic device, wherein the imaging unit has a gain in the first area higher than a gain in the second area.
請求項1からのいずれか一項に記載の電子機器において、
前記車の乗員の視線位置を検出する視線検出部を備え、
記検出部は、前記視線検出部による検出結果に基づいて、前記第1画像信号において前記第1領域のうちの前記視線位置を含まない領域で前記対象物の検出を行う電子機器。
The electronic device according to any one of claims 1 to 6 ,
A line-of-sight detector that detects a line-of-sight position of the occupant of the vehicle,
Prior dangerous out unit, based on a detection result by the visual line detection part, an electronic device to detect the object at the viewpoint position does not include the area of said first region in said first image signal.
請求項に記載の電子機器において、
前記第1領域のうちの前記視線位置を含まない領域と、前記第1領域のうちの前記視線位置を含む領域とで、前記第1画像信号の撮像条件を異ならせて設定する設定部と、
を備える電子機器。
The electronic device according to claim 7 ,
A setting unit that sets the imaging conditions of the first image signal differently in an area that does not include the line-of-sight position in the first area and in an area that includes the line-of-sight position in the first area;
Electronic equipment provided with.
請求項に記載の電子機器において、
前記設定部は、前記第1領域のうちの前記視線位置を含まない領域のフレームレートを、前記第1領域のうちの前記視線位置を含む領域のフレームレートよりも高く設定する、電子機器。
The electronic device according to claim 8 ,
The electronic device, wherein the setting unit sets a frame rate of an area of the first area that does not include the line-of-sight position higher than a frame rate of an area of the first area that includes the line-of-sight position.
請求項1から9のいずれか一項に記載の電子機器において、
前記撮像部は、第1画像信号と第2画像信号とで共通の対象物を撮像する、電子機器。
The electronic device according to any one of claims 1 to 9,
The electronic device, wherein the imaging unit captures an image of a common target using the first image signal and the second image signal.
請求項1から請求項10のいずれか一項に記載の電子機器を搭載する自動車。   An automobile equipped with the electronic device according to any one of claims 1 to 10.
JP2016131881A 2016-07-01 2016-07-01 Electronics and vehicles Active JP6668975B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016131881A JP6668975B2 (en) 2016-07-01 2016-07-01 Electronics and vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016131881A JP6668975B2 (en) 2016-07-01 2016-07-01 Electronics and vehicles

Publications (3)

Publication Number Publication Date
JP2018007038A JP2018007038A (en) 2018-01-11
JP2018007038A5 JP2018007038A5 (en) 2019-07-04
JP6668975B2 true JP6668975B2 (en) 2020-03-18

Family

ID=60948153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016131881A Active JP6668975B2 (en) 2016-07-01 2016-07-01 Electronics and vehicles

Country Status (1)

Country Link
JP (1) JP6668975B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7061786B2 (en) * 2018-02-06 2022-05-02 セルスター工業株式会社 Drive recorder, potential accident recording device
JP7272715B2 (en) * 2018-02-06 2023-05-12 セルスター工業株式会社 Latent accident recorder
KR102724377B1 (en) * 2018-12-27 2024-11-01 현대오토에버 주식회사 Apparatus and method for providing information on fixed hazardous objects
JP2024038527A (en) * 2021-01-12 2024-03-21 ソニーセミコンダクタソリューションズ株式会社 Signal processing device, signal processing method, and signal processing system
JP2023071336A (en) * 2021-11-11 2023-05-23 パナソニックIpマネジメント株式会社 On-vehicle unit, information processing device, sensor data transmission method, and information processing method
JP2024094532A (en) * 2022-12-28 2024-07-10 キヤノン株式会社 Image capture setting device and image capture device
JP2024106871A (en) * 2023-01-27 2024-08-08 キヤノン株式会社 IMAGE PROCESSING SYSTEM, MOBILE BODY, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009004947A (en) * 2007-06-20 2009-01-08 Panasonic Corp Imaging device and image processing display device
RU2018109081A (en) * 2012-05-02 2019-02-26 Никон Корпорейшн DEVICE FOR IMAGE FORMATION
JP5790808B2 (en) * 2014-02-18 2015-10-07 セイコーエプソン株式会社 Imaging device
CN112866566B (en) * 2014-05-29 2023-05-09 株式会社尼康 Driving assistance devices and vehicles equipped with driving assistance devices

Also Published As

Publication number Publication date
JP2018007038A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
US11539894B2 (en) In-vehicle camera system and image processing apparatus
JP6668975B2 (en) Electronics and vehicles
CN109076163B (en) Imaging control device, imaging control method, and imaging device
EP2950521B1 (en) Camera capable of reducing motion blur in a low luminance environment and vehicle including the same
EP3093194B1 (en) Information provision device
JP6703747B2 (en) Information display device, information providing system, mobile device, information display method and program
KR101579098B1 (en) Stereo camera, driver assistance apparatus and Vehicle including the same
US20220107497A1 (en) Head-up display, vehicle display system, and vehicle display method
EP1961613B1 (en) Driving support method and driving support device
US8477191B2 (en) On-vehicle image pickup apparatus
JP6287406B2 (en) Head-up display device
JP2012527681A (en) Lane departure detection method and apparatus using vehicle periphery image
JP6443716B2 (en) Image display device, image display method, and image display control program
JP6512475B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
US11772545B2 (en) Apparatus, system and method for controlling lighting using gated imaging
JP2009227018A (en) Anti-dazzle device for vehicle
JP2016109645A (en) Information providing device, information providing method, and control program for providing information
WO2017221945A1 (en) Display apparatus, display system, moving body, and display method
JP2020201670A (en) Recognition device, recognition method, and program
JP6876277B2 (en) Control device, display device, display method and program
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
JP6748947B2 (en) Image display device, moving body, image display method and program
KR102227371B1 (en) Image projection apparatus of vehicle and vehicle including the same
US11827148B2 (en) Display control device, display control method, moving body, and storage medium
JP2009214831A (en) Display for vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200210

R150 Certificate of patent or registration of utility model

Ref document number: 6668975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250