[go: up one dir, main page]

JPH02502947A - Vehicle detection with image processing for traffic monitoring and control - Google Patents

Vehicle detection with image processing for traffic monitoring and control

Info

Publication number
JPH02502947A
JPH02502947A JP63502277A JP50227788A JPH02502947A JP H02502947 A JPH02502947 A JP H02502947A JP 63502277 A JP63502277 A JP 63502277A JP 50227788 A JP50227788 A JP 50227788A JP H02502947 A JPH02502947 A JP H02502947A
Authority
JP
Japan
Prior art keywords
field
traffic
view
pixel array
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63502277A
Other languages
Japanese (ja)
Inventor
ミカロパウロス,パノス ジー.
ファンダコウスキー,リチャード エー.
ジョーケザス,メレティオス
フィッチ,ロバート シー.
Original Assignee
リージェンツ オブ ザ ユニバーシティ オブ ミネソタ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リージェンツ オブ ザ ユニバーシティ オブ ミネソタ filed Critical リージェンツ オブ ザ ユニバーシティ オブ ミネソタ
Publication of JPH02502947A publication Critical patent/JPH02502947A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

A vehicle detection system for providing data characteristic of traffic conditions includes a camera overlooking a roadway section for providing video signals representative of the field (traffic scene), and a digitizer for digitizing these signals and providing successive arrays of pixels (picture elements) characteristic of the field at successive points in space and time. A video monitor coupled to the camera provides a visual image of the field of view. Through use of a terminal and in conjunction with the monitor, an operator controls a formatter so as to select a subarray of pixels corresponding to specific sections in the field of view. A microprocessor then processes the intensity values representative of the selected portion of the field of view in accordance with spatial and/or temporal processing methods to generate data characteristic of the presence and passage of vehicles. This data can be utilized for real-time traffic surveillance and control, or stored in memory for subsequent processing and evaluation of traffic flow conditions.

Description

【発明の詳細な説明】 発明の名称 交通監視および整理のための像処理による車両検出発明の背景 1、発明の分野 本発明は、一般的には、交通検知および監視装置に関するものである。具体的に は、本発明は、車両の存在、通過を判定し、種々の交通パラメータを測定し、か つ交通監視および整理を容易にするため、ハイウェイや街路の現場の赤外線像ま たは可視像がディジタル計算手段により処理されるようにされた車両検出システ ムである。このシステムはまた、車両カウンタ/分類装置として、さらに事故検 出、安全解析、交通パラメータの測定などの、その他の交通工学上の用途に使用 することができる。[Detailed description of the invention] name of invention Background of the invention: Vehicle detection by image processing for traffic monitoring and control 1. Field of invention The present invention relates generally to traffic detection and monitoring devices. specifically The present invention determines the presence and passage of vehicles, measures various traffic parameters, and Infrared images or in-situ images of highways and streets to facilitate traffic monitoring and control. vehicle detection system in which the visible image is processed by digital computing means; It is mu. The system can also be used as a vehicle counter/classifier, as well as for accident detection. Used for other traffic engineering applications such as transportation, safety analysis, and measurement of traffic parameters. can do.

2、従来技術の説明 交通量の多い都市部の交差点、および容量や効率よりもむしろ安全が主要な関心 事である、交通量の少ない田園または郊外の交差点の両方で、交通の流れを規制 するため交通信号が広く使用されている。交通整理信号のタイミング(すなわち 、サイクルタイムおよび各々の移動・進行に与えられる青信号の長さ)は過去の データにより固定されているか、または可変かつ実時間の検出データに基いてい る。予め時間を定められた交通整理信号のタイミング・シーケンスは、要求パタ ーンに関する過去の情報から得られるが、一方、実時間の交通整理決定は実際の 交通の流れ情報から得られる。2. Description of conventional technology Intersections in busy urban areas and where safety rather than capacity or efficiency is the primary concern to regulate traffic flow, both at low-traffic rural or suburban intersections where Therefore, traffic signals are widely used. Traffic control signal timing (i.e. , cycle time and length of green light given to each move/progress) Fixed by data or based on variable and real-time sensed data. Ru. The timing sequence of pre-timed traffic control signals is based on the required pattern. on the other hand, real-time traffic control decisions depend on actual traffic control decisions. Obtained from traffic flow information.

この情報は現地で処理するか、または、信号設定に関する決定が行なわれる中央 コンピュータに遠隔伝送することができる。実時間交通整理信号は、急速な需用 変動に応じる能力を有し、原理的には、予め時間設定された信号よりも望ましく 、また効率的である。This information can be processed locally or centrally where decisions about signal settings are made. Can be remotely transmitted to a computer. Real-time traffic control signals are in rapid demand. has the ability to respond to fluctuations and is, in principle, preferable to pre-timed signals. , also efficient.

実時間交通整理信号のため現在使用されている装置は高価で、しかも不正確なこ とがよくある。高速道路および幹線道路の監視および規制のための効果的な交通 検知は、車両検出、カウント(計数)および分類、およびその他の交通パラメー タ測定を必要とする。そのような検出装置の圧倒的多数は誘導ループ型であり、 磁気誘導により車両の存在を検出するように、舗装面に配置されたワイヤループ から成っている。The equipment currently used for real-time traffic control signals is expensive and inaccurate. This is often the case. Effective traffic monitoring and regulation of highways and highways Detection includes vehicle detection, counting and classification, and other traffic parameters. Requires data measurement. The vast majority of such detection devices are of the inductive loop type; Wire loops placed on the pavement to detect the presence of vehicles by magnetic induction It consists of

そのような検出装置から得られる情報は非常に限られているので、複雑な交通整 理および監視システムのための必要データを得るためには、そのような検出装置 を多数設置することがしばしば必要である。例えば、1車線ごとの交通量の測定 のためには、車線当り少なくとも1台の検出装置を必要とし、一方、速度の測定 のためには少なくとも2台の検出装置を必要とする。既存のシステムの問題点は 信頼性および保守である。主要都市では、25%ないし30%の誘導ループが作 動、していない。さらに、誘導ループは設置費用が高い。The information obtained from such detection devices is very limited, so complex traffic control In order to obtain the necessary data for management and monitoring systems, such detection equipment is required. It is often necessary to install a large number of For example, measuring traffic volume per lane requires at least one detection device per lane, while speed measurement This requires at least two detection devices. The problems with the existing system are reliability and maintenance. In major cities, 25% to 30% induction loops are created. I haven't moved. Additionally, induction loops are expensive to install.

可視センサまたは赤外線センサを利用した電気光学式車両検出システムが、ワイ ヤループ検出装置に代るものとして示唆されてきた。電子カメラのような、当該 システムのセンサが、交通現場の視野に焦点を合わせら゛れ、所定のフレーム速 度(通常のテレビジョンのように)で像を発生する。コンピュータ制御の下で、 交通像を有するフレームデータが捕捉され、ディジタル化され、コンピュータメ モリに記憶される。Electro-optical vehicle detection systems using visible or infrared sensors can It has been suggested as an alternative to Yaloup detection devices. Such as electronic cameras, The system's sensors focus on a field of view of the traffic scene and set a predetermined frame rate. generate images at degrees (like regular television). under computer control, Frame data with traffic images are captured, digitized, and stored on computer media. Memorized by Mori.

コンピュータは次に、記憶データを処理する。車両検出は、選択された各ウィン ドウの像を、車両が存在しない場合のウィンドウの背景像と比較することによっ て行なうことができる。瞬時像の強度が背景のそれよりも大きい場合は、車両検 出がなされる。検出後、車両の速度および特徴を抽出することができる。これに より、交通データが得られ、交通整理および監視のため使用されることができる 。The computer then processes the stored data. Vehicle detection is performed on each selected window. By comparing the image of the doe with the background image of the window when no vehicle is present. can be done. If the intensity of the instantaneous image is greater than that of the background, the vehicle inspection An exit is made. After detection, the speed and characteristics of the vehicle can be extracted. to this traffic data can be obtained and used for traffic control and monitoring. .

この種の電気光学式車両検出システムを費用効果のあるものにするためには、捕 捉された映像から全ての必要な情報を得ることができるように、大きな視野の交 通をカバーするような方法で1台のカメラを位置決めしなければならない。To make this type of electro-optical vehicle detection system cost-effective, A large field of view intersection so that you can get all the necessary information from the captured image. One camera must be positioned in such a way that it covers the entire area.

換言すると、交差点接近部または、そこから情報を得ることが所望される車道部 分の、全ての戦略的地点の像を、1台のカメラで提供することができなければな らない。これらの像のフレームを処理するために、コンビ二一夕が必要とする時 間は、実時間用途にとって非常に重要である。さらに、像を表わすデータを処理 するために現在使用されている方法は、それほど有効ではない。In other words, the intersection approach area or the roadway area from which it is desired to obtain information. One camera must be able to provide images of all strategic locations for minutes. No. To process the frames of these statues, the combination is required: time is very important for real-time applications. Furthermore, the data representing the image is processed. The methods currently used to do so are not very effective.

改善された交通整理監視システムが引き続き必要とされていることは明らかであ る。商業的に発展し得るためには、システムは信頼性があり、費用効率が高く、 正確で、かつ多機能を実行し得るものでなければならない。混雑した街路網およ び高速道路での交通整理の必要性が増大している。It is clear that there is a continued need for improved traffic control and monitoring systems. Ru. To be commercially viable, a system must be reliable, cost-effective, and It must be accurate and capable of performing multiple functions. crowded street network and The need for traffic control on roads and expressways is increasing.

このことは実時間検出および監視装置によってのみ実現することができる。その ような機械−視覚装置がここで提案される。究極の目的は、人間の監視者を、交 通監視整理のための機械のみによる視覚で置き換えることである。最後に、提案 される装置は、ワイヤを舗装面に配置することを必要としないので、信頼性を増 し、保守を減少させる。This can only be achieved with real-time detection and monitoring equipment. the Such a machine-visual device is proposed here. The ultimate goal is to replace human observers with The goal is to replace visual inspection with only machines for monitoring and organizing traffic. Finally, a suggestion The device does not require wires to be placed on the pavement, increasing reliability. and reduce maintenance.

発明の要約 本発明の一実施例による車両検出システムは、交通視野(fleld of t raffic)を感知し、連続した時点における視野の特徴を示す画素強度値の 連続したアレイを提供するためのセンサ手段を備える。センサ手段に結合され、 かつサブアレイ選択信号に応答するフォーマツタ手段は、交通視野の所望の部分 の特徴を表わす強度値のサブアレイを選択する。端末などのサブアレイ選択手段 は、交通視野の所望部分を表わすサブアレイ選択信号を発生する。処理手段は、 選択されたサブアレイの強度値を処理し、サブアレイによって代表される視野の 部分内の車両の特徴を表わす特性データを発生する。Summary of the invention A vehicle detection system according to an embodiment of the present invention has a field of view of traffic. raffic) and detect pixel intensity values representing the characteristics of the visual field at successive points in time. Sensor means are provided for providing a continuous array. coupled to the sensor means; and the formatter means responsive to the subarray selection signal selects the desired portion of the traffic field of view. Select a subarray of intensity values representative of the characteristics of . Subarray selection means such as terminals generates a subarray selection signal representative of the desired portion of the traffic field of view. The processing means are Process the intensity values of the selected subarray and calculate the field of view represented by the subarray. Generate characteristic data representing characteristics of the vehicle within the section.

一実施例では、処理手段は像強度のアレイを空間的に処理し、車両の存在の特徴 を表わすデータを発生する。他の実施例では、処理手段は像強度のアレイを時間 的に処理し、視野内の車両の存在の特徴を表わすデータを発生する。さらに他の 実施例では、処理手段は、空間的に処理されたデータと時間的に処理されたデー タとを論理的に組み合わせて、視野内の車両の存在の特徴を表わすデータを発生 する。In one embodiment, the processing means spatially processes the array of image intensities and characterizes the presence of the vehicle. Generate data representing . In other embodiments, the processing means processes the array of image intensities over time. and generate data characterizing the presence of vehicles within the field of view. still other In embodiments, the processing means comprises spatially processed data and temporally processed data. data are logically combined to generate data that characterizes the presence of vehicles within the field of view. do.

本発明の車両検出システムは、効果的であると共に費用効率が良好である。フォ ーマットを使用することにより、カメラによって得られた像の特定の部分が選択 され、処理されることが可能となる。したがって、1台のカメラを、多重検出、 すなわち、道路に沿った多数の地点を検出するために、効果的に使用することが できる。処理される必要がない像の部分は使用されないので、コンピュータ時間 が節約される。さらに、時間および空間データ処理法により、データを迅速に処 理し、正確な結果を発生することができる。それにより正確な実時間交通整理を 実現することができる。The vehicle detection system of the present invention is both effective and cost effective. Fo - By using mattes, specific parts of the image obtained by the camera can be selected. and can be processed. Therefore, one camera can be used for multiple detection, That is, it can be used effectively to detect large numbers of points along a road. can. Parts of the image that do not need to be processed are not used, saving computer time. is saved. In addition, temporal and spatial data processing methods allow data to be processed quickly. control and produce accurate results. This allows for accurate real-time traffic control. It can be realized.

図面の簡単な説明 第1図は本発明による車両検出交通整理システムのブロック図である。Brief description of the drawing FIG. 1 is a block diagram of a vehicle detection traffic control system according to the present invention.

第2図は、第1図に示すカメラによって捕捉された像のディジタル化されたフレ ームを示す図である。Figure 2 shows a digitized frame of the image captured by the camera shown in Figure 1. FIG.

第3図は、第1図に示すフォーマツタの動作を示す図である。FIG. 3 is a diagram showing the operation of the formatter shown in FIG. 1.

第4図は、第1図に示すシステムによって実行される゛ことが可能な、空間デー タ処理法のブロック図である。Figure 4 shows the spatial data that can be implemented by the system shown in Figure 1. FIG. 3 is a block diagram of a data processing method.

第5図は、第4図に示す空間データ処理法において実行される空間平均ステップ を説明する図である。Figure 5 shows the spatial averaging step performed in the spatial data processing method shown in Figure 4. FIG.

第6図は、第1図に示すシステムによって実行されることが可能な時間データ処 理法のブロック図である。FIG. 6 shows the temporal data processing that can be performed by the system shown in FIG. It is a block diagram of the theory.

第7図は、第1図の監視装置によって表示される像、および端末およびフォーマ ツタの動作を示す図である。Figure 7 shows the image displayed by the monitoring device of Figure 1 and the terminal and formatter. It is a diagram showing the operation of ivy.

第8図は、第4図に示す論理処理ステップを示す図である。FIG. 8 is a diagram showing the logical processing steps shown in FIG. 4.

第9図は、第1図に示すシステムによって実現することができるもう1つの処理 方法のブロック図である。Figure 9 shows another process that can be realized by the system shown in Figure 1. FIG. 2 is a block diagram of the method.

第10図は、速度決定処理方法を示す図である。FIG. 10 is a diagram showing a speed determination processing method.

第11図は、第1図のシステムによって実行される式1式% 好ましい実施例の詳細な説明 本発明による車両検出交通整理システム10を第1図に概略的に示す。図示のよ うに、車両検出システム10はカメラ等のセンサ12、監視装置13、ディジタ イザ14、フォーマツタ16、マイクロプロセッサ等のコンピュータ18、関連 のランダム・アクセス・メモリすなわちRAM17および読取専用メモリすなわ ちROM19、端末20、交通信号制御装置22、および記録装置24を備える 。Figure 11 shows Equation 1 Equation % executed by the system of Figure 1. DETAILED DESCRIPTION OF PREFERRED EMBODIMENTS A vehicle detection traffic control system 10 according to the present invention is schematically illustrated in FIG. As shown in the diagram The vehicle detection system 10 includes a sensor 12 such as a camera, a monitoring device 13, and a digital camera. Iza 14, Formatsuta 16, Computers such as microprocessors 18, related random access memory or RAM 17 and read-only memory or It includes a ROM 19, a terminal 20, a traffic signal control device 22, and a recording device 24. .

カメラ12は街灯支柱、交通信号灯支柱、・建物またはその他の支持構造物(図 示せず)の25ないし40フイートの高さに置くことができ、第1図に示すよう な車道26上の所望の通行領域に焦点を合わせられる。カメラ12は、カメラの 装置0どれでもよい。カメラ12は、通常のテレビジョン・フレーム速度を使用 する従来の方法で作動することができる。The camera 12 is attached to a street light pole, traffic light pole, building or other support structure (see Figure (not shown) and can be placed at a height of 25 to 40 feet, as shown in Figure 1. A desired traffic area on the roadway 26 can be focused on. The camera 12 is a camera Any device 0 is fine. Camera 12 uses normal television frame rate It can be operated in a conventional manner.

第2図に示すように、各連続フレーム29(1つのみしか示していないが)は、 ある瞬間における交通視野の像30を捕捉する。カメラ12は、像3゛0を一連 の走査線32として特徴づけるアナログ映像信号を発生する。各走査線は、48 4本の走査線から成る1フレームについて約65ミリ秒の間持続し、カメラの視 野に包含される現場領域から反射されるエネルギの強度を表わす。カメラ12は 、スペクトルの可視部分で作動するものとして説明したが、現場から放射さカメ ラ12により発生されたアナログ映像信号はディジタイザ14によりディジタル 化される。ディジタイザ14は、走査線のアナログ信号を、第2図に示すn番目 のフレームの個々の位置第1行、第5列における像3Gの強度Iを表わす画素! 0.に変換する。図示のように、ディジタイザ14は、lコ 像30を(iXj)フレーム、すなわち、画素のアレイに分割する。第2図に示 す例では、1−j−22であるが、一般には、もっと大きなアレイが使用される 。As shown in FIG. 2, each consecutive frame 29 (although only one is shown) is An image 30 of the traffic view at a certain moment in time is captured. The camera 12 sends a series of images 3゛0 An analog video signal characterized as a scan line 32 is generated. Each scan line consists of 48 Each frame of four scan lines lasts approximately 65 milliseconds, and represents the intensity of energy reflected from the field area encompassed by the field. The camera 12 , described as operating in the visible part of the spectrum; The analog video signal generated by the controller 12 is converted into a digital signal by the digitizer 14. be converted into The digitizer 14 converts the analog signal of the scanning line into the nth line shown in FIG. Pixels representing the intensity I of the image 3G at each position in the first row and fifth column of the frame! 0. Convert to As shown, the digitizer 14 is Divide the image 30 into (iXj) frames, ie, an array of pixels. Shown in Figure 2. In this example, it is 1-j-22, but typically larger arrays are used. .

車道26(第1図)に対するカメラ12の位置および方向によっては、像30は 相当に大きな交通視野でもよい。しかし、像30から種々のタイプの情報(例え ば、最も左側の車線における列の長さ、交差点における車両の存在、または右側 車線における車両の速度など)を引き出すため、一般的には、像30の特定部分 のみを処理すればよい。Depending on the position and orientation of camera 12 relative to roadway 26 (FIG. 1), image 30 A fairly large traffic field of view may also be used. However, various types of information (e.g. For example, the length of the line in the left-most lane, the presence of vehicles at an intersection, or the Typically, specific parts of the image 30 are You only need to process it.

第1図に示すように、監視装置13は、カメラ12から映像信号を受は取るよう に接続されており、それにより像30の実時間表示を提供することができる。第 7図は、監視装置13上に表示されている、第2図および第3図の像に対応する 像30のグラフ図である。端末20を使って、操作員は、以後の処理のために、 像30のウィンドウすなわち所望部分を選択することができる。As shown in FIG. 1, the monitoring device 13 receives and receives video signals from the camera 12. , thereby providing a real-time display of the image 30. No. 7 corresponds to the images of FIGS. 2 and 3 displayed on the monitoring device 13. FIG. 3 is a graphical representation of image 30; Using the terminal 20, the operator performs the following steps for further processing. A window or desired portion of image 30 can be selected.

一実施例では、操作員は端末20を使って、監視装置13上の所望のウィンドウ を画定する場所に、カーソル15(第7図)等のインジケータを位置づける。端 末20を介して、操作員はフォーマツタ16に、ウィンドウ内の像30の部分を 表わす画素In、、をディジタイザ14から選択させることlコ ができる。選択された画素In、、は次にマイクロプロセッサJ 18に転送され、RAM17に記憶される。In one embodiment, an operator uses terminal 20 to select a desired window on monitoring device 13. An indicator, such as a cursor 15 (FIG. 7), is positioned at a location defining the cursor 15 (FIG. 7). end Through the terminal 20, the operator directs the formatter 16 to the portion of the image 30 within the window. To select from the digitizer 14 the pixels In, . Can be done. The selected pixel In,, is then processed by the microprocessor J 18 and stored in the RAM 17.

上記手順は、第3図および第7図を参照してさらに詳細に説明することができる 。例えば、第3図の最も左側の車線の上部におけるウィンドウ40内のデータを 処理したい場合は、操作員は、このウィンドウの左上および右下のコーナーを表 わす場所にカーソル15を位置させることができる。これに応答して、フォーマ ツタ16は、ウィンドウ40内の像30の部分を表わす4≦i≦10および5≦ j≦8に対する画素この画素は次に、マイクロプロセッサ18を介してRAM1 7に転走される。この手順は連続フレーム29について繰り返される。同様な方 法で、ウィンドウ41を表わす1−19.9≦j≦13に対する画素1n1j、 または、ウィンドウ43を表わす8≦i≦14、j−12に対する画素In、、 を選択することができる。The above procedure can be explained in further detail with reference to FIGS. 3 and 7. . For example, the data in window 40 at the top of the leftmost lane in FIG. If desired, the operator should display the upper left and lower right corners of this window. The cursor 15 can be positioned at the desired location. In response, the former The ivy 16 represents the portion of the image 30 within the window 40 where 4≦i≦10 and 5≦ pixel for j≦8 This pixel is then stored in RAM1 via microprocessor 18. Rolled to 7. This procedure is repeated for successive frames 29. Similar person pixel 1n1j for 1-19.9≦j≦13 representing window 41, Or, pixel In for 8≦i≦14, j-12 representing window 43, can be selected.

lコ 一度選択されて記憶されると、像30のウィンドウ部分の連続フレームを表わす 画素In、、は種々の時間的、空間的lコ および(または)その他の統計的方法にしたがい、マイクロプロセッサ18によ って処理され、車道26の選択されたウィンドウ内の車両28の存在、通過、速 度またはその他の特徴を決定することができる。このデータは次に、既知の方法 で交通信号制御装置22によって使用され、そのとき現在の交通状懇に応じて車 道26に沿った交通の流れを最適化することができる。あるいはまた、後の処理 および(または)評価のために、データは記録装置24によって記録されること も可能である。l co Once selected and stored, it represents successive frames of the window portion of image 30. Pixel In, , has various temporal and spatial components. and/or other statistical methods by the microprocessor 18. The presence, passage, and speed of vehicles 28 within the selected window of roadway 26 are degree or other characteristics can be determined. This data is then processed using known methods is used by the traffic signal controller 22 to control the traffic signal according to the current traffic conditions. Traffic flow along road 26 can be optimized. Alternatively, post-processing and/or for evaluation, the data is recorded by a recording device 24. is also possible.

車両28の存在、通過および(または)その他の特徴を判定するために、マイク ロプロセッサ18によって実行される空間的データ処理法を、第4図に関連して 説明する。第4図に示す空間的データ処理ステップは、ある瞬間における交通視 野の「−瞥」から車両28の特徴をシステム10が決定できるようにする。A microphone is used to determine the presence, passage and/or other characteristics of the vehicle 28. The spatial data processing method performed by the processor 18 is illustrated in connection with FIG. explain. The spatial data processing steps shown in Figure 4 are based on the traffic view at a certain moment. Allows the system 10 to determine characteristics of the vehicle 28 from a "-glance" of the field.

この決定は、瞬間像から得られた測定値と、像における背景データの特徴を表わ す、対応する測定値との比較に基づいて行なわれる。したがって、車両の特徴の 決定は、その画素1n1jによって代表される像30の選択されたウィンドウの 強度プロフィールの特徴に基づいている。この処理方法の基礎になっている仮定 は、像30の選択された部分の瞬間的強度プロフィールの特徴(s tgnat ure)は、車両28が視野内に存在するとき大きく変更されるということであ る。This determination is based on the measurements taken from the instantaneous image and the characteristics of the background data in the image. This is done on the basis of a comparison with the corresponding measured value. Therefore, the characteristics of the vehicle The determination is made that the selected window of the image 30 represented by that pixel 1n1j Based on the characteristics of the intensity profile. Assumptions underlying this processing method is the characteristic of the instantaneous intensity profile of the selected portion of the image 30 (s tgnat ure) is significantly changed when the vehicle 28 is within the field of view. Ru.

43で示した(第3図)のような、ウィンドウのn番目のフレーム(最後の)に 対する画素I09.は先ず、ステップJ 50に示すように、マイクロプロセッサ18によって、それ以前のNフレームの 対応画素と時間平均される。Nは、RAM17またはROM19に記憶されたパ ラメータである。一実施例では、マイクロプロセッサ18は、式1−3によって 定義された漸化式(recursive f’or+mula)にしたがって間 画素”1jは、Nフレームに渡るウィンドウ43の平均背景強度を表わす。43 (Figure 3), in the nth frame (last) of the window. Pixel I09. First, step J As shown at 50, the microprocessor 18 processes the previous N frames. Time averaged with corresponding pixels. N is the parameter stored in RAM17 or ROM19. It is a parameter. In one embodiment, microprocessor 18 executes equation 1-3 to According to the defined recursive formula (recursive f’or+mula) Pixel "1j" represents the average background intensity of window 43 over N frames.

時間平均画素In1jは次に、加算ステップ52に示すように、現在のアレイ画 素In、、から減算されて、背景調節され1コ かって、マイクロプロセッサ18により、数学的に実行することができる。背景 調節画素Tn、、を使用することにより、1コ アスファルトとコンクリートの間の変化、鉄道踏切、または道路面上の標識から 生じるような、道路表面のどのような自然変化をも補償できるようになる。The time averaged pixel In1j is then added to the current array image, as shown in addition step 52. It is subtracted from the element In, , and the background is adjusted. Once again, the microprocessor 18 can perform the mathematical implementation. background By using adjustment pixels Tn, . From changes between asphalt and concrete, railway crossings, or signs on road surfaces It will be possible to compensate for any natural changes in the road surface that may occur.

背景調節画素〒n を計算すると、マイクロプロセッサj 18は式5または式6にしたがって空間平均アレイA 3.を1コ 発生する。平均化(Hveragi ng)ウィンドウの大きさは車両28の大 きさを表わすように選ばれるので、車道26に対するカメラ12の位置および方 向(第1図)に応じて変化するであろう。After calculating the background adjustment pixel 〒n , the microprocessor j 18 is the spatial average array A3 according to equation 5 or equation 6. 1 piece Occur. The size of the averaging window is the size of the vehicle 28. The position and orientation of the camera 12 relative to the roadway 26 It will change depending on the direction (Fig. 1).

マイクロプロセッサ18は、式5にしたがい、(IXL)平均化ウィンドウを使 って、41のような(IXJ)水平ウィンドウ(第3図)に対する空間平均画素 A 0.を計算lコ することができる。同様な方法で、(MXI)平均化ウィンドウを使って、43 のような(Ixl)垂直ウィンドウ式6を使用することができる。式7を使用す ることにより、マイクロプロセッサ18は、(MXL)平均化ウィンドウを使っ て40のような2次元ウィンドウに対する空間平均画素A  tjを発生するこ とができる。Microprocessor 18 uses the (IXL) averaging window according to Equation 5. Therefore, the spatial average pixel for a (IXJ) horizontal window (Fig. 3) such as 41 A 0. Calculate can do. In a similar manner, using the (MXI) averaging window, 43 A vertical window equation 6 such as (Ixl) can be used. Using Equation 7 By doing so, microprocessor 18 uses the (MXL) averaging window. to generate a spatial average pixel A tj for a two-dimensional window such as 40. I can do it.

第5図は、(I X 6)平均化ウィンドウ(L−6)46を使って(I X  30)水平ウィンドウ44に対して空間平均面素人n1jが発生される例を示す 。したがって、式5は、L−6の場合には式8になる。その実行中に、マイクロ プロセッサ18はこウィンドウ44全体について、背景調節強度値Tn  の連 続した6個づつのグループを平均する。背景間j 次に、背景調節画素の第2のグループT” ++ (2≦j≦7)lコ が同様な方法で平均される。この処理は、背景調節画素T” 1j(2s≦j≦ 30)が平均されるまで、マイクロプロセッサ18によって繰り返される。その 結果が空間平均アレステップ56で示すように、マイクロプロセッサ18は次に 、背景調節画素in−および空間平均画素A 、の関数と1コ                       1コして、空間分散v 1jを計算する。これは 、n番目のフレームの43のような選択されたウィンドウ内の全ての値工 、。FIG. 5 shows that (I 30) An example is shown in which the spatially averaged surface n1j is generated for the horizontal window 44. . Therefore, Equation 5 becomes Equation 8 in the case of L-6. During its execution, the micro The processor 18 calculates a series of background adjustment intensity values Tn for the entire window 44. Average the consecutive groups of six. between background Next, a second group of background adjustment pixels T''++ (2≦j≦7) are averaged in a similar manner. This process is performed for the background adjustment pixel T''1j (2s≦j≦ 30) is repeated by microprocessor 18 until averaged. the As the result shows in spatial averaging step 56, microprocessor 18 then , background adjustment pixel in- and spatial average pixel A, and one column 1. Calculate the spatial variance v1j. this is , all values in the selected window, such as 43 of the nth frame.

1コ およびAnljについて行なわれる。1 piece and Anlj.

分散値V 1.は、背景調節値I 1.が分散ウィンドウ1コ                     lコ(variance window)内の空間平 均値An、、からどれだけ変動lコ するかの尺度を与える。分散ウィンドウは、空間平均ウィンドウのように、28 のような車両を表わすような大きさにされる。マイクロプロセッサ18は、例え ば、式9の公式を使って、(IXL)分散ウィンドウについて空間分散値車両が ない場合の分散A” ijは、式9を使って、論理58からのフィードバックで 計算される。問題のウィンドウに車両が存在し、かつn番目のフレームAVni jが更新されていないと、論理58が判断した場合は、である。そのウィンドウ に車両が存在しないと論理が判断した場合は’AVnijは式9にしたがって更 新される。Variance value V 1. is the background adjustment value I1. is one distributed window Space plane within the variance window How much does it vary from the average value An? Give a measure of what to do. The variance window, like the spatial average window, is 28 is sized to represent a vehicle such as . The microprocessor 18 is For example, using the formula in Equation 9, the spatial variance value vehicle for the (IXL) variance window is The variance A” ij in the case where there is no Calculated. If there is a vehicle in the window in question and the nth frame AVni If logic 58 determines that j has not been updated, then . that window If the logic determines that there is no vehicle in , 'AVnij is updated according to Equation 9. be renewed.

論理58は背景調節強度”ijまたは分散vn1jのいずれかについて演算する 。もしも、 であるか、または である場合は、場所(i j)に車両が存在する可能性があり、このことは P1j″″1 によって示される。論理58は長さ6のウィンドウについてP9.の値を累積す る。多数決原理を使って、もしもlコ (IXk)(但し、k−30)ウィンドウのどこかでか成立する場合は、車両が 存在するという決定がなされる。Logic 58 operates on either the background adjustment strength "ij or the variance vn1j . If, or If , there is a possibility that a vehicle exists at location (i j), which means P1j″″1 Indicated by Logic 58 uses P9. for a window of length 6. Accumulate the values of Ru. Using the majority rule, if (IXk) (However, k-30) If it holds true somewhere in the window, the vehicle A decision is made that it exists.

存在検出の最初の画素における車両検出によって通過が判定される。Passage is determined by vehicle detection at the first pixel of presence detection.

存在する車両28を示す第8図に関連して説明する。画素P、、(6≦j≦11 )は、これらの画素によってカバーされlコ る像の部分に車両28があったので、式10にしたがい、マイクロプロセッサ1 8によって「1」にセットされているであろう。This will be explained with reference to FIG. 8, which shows a vehicle 28 present. Pixel P, (6≦j≦11 ) is covered by these pixels Since the vehicle 28 was located in the area of the image, microprocessor 1 8 would have been set to "1".

残りの画素P、(1≦j≦5)およびPlj(12≦j≦5)は、車両を含む像 の部分を表わさないので、「0」にセットされるであろう。検出ウィンドウ72 は、この例では(I X 6)ウィンドウである。検出ウィンドウ72によって 包含されている画素(すなわち、P08、ただしく5≦j≦10))の1コ 値の和は、式11によって記述されるように、定数X−4と比較される。The remaining pixels P, (1≦j≦5) and Plj (12≦j≦5) are images containing the vehicle. It will be set to ``0'' because it does not represent the part of . Detection window 72 is the (IX6) window in this example. By detection window 72 One of the included pixels (i.e. P08, where 5≦j≦10) The sum of the values is compared to a constant X-4, as described by Equation 11.

この場合は、和は6に等しくなるので、マイクロプロセッサ18は存在信号を発 生するであろう。例えば、ウィンドウ72が画素P、、(13≦j≦18)を包 含する場合は、和は1コ 0に等しくなり、マイクロプロセッサは、車両の不存在を表わす信号を発生する であろう。In this case, the sum is equal to 6, so microprocessor 18 issues a presence signal. will live. For example, the window 72 encompasses pixels P, (13≦j≦18). If included, the sum is 1 piece. 0 and the microprocessor generates a signal indicating the absence of a vehicle. Will.

マイクロプロセッサ18はまた、車両存在判断のためのベイズ(Bayes)な どのような、他の統計的判断基準を備えることができる。車両の通過を表わすデ ータ(例えば、関連のウィンドウへの進入時に論理状態を切換える信号)を、同 様な方法で決定することができる。前記ステップは全て、新しい各フレームにつ いて連続的に繰り返される。The microprocessor 18 also includes a Bayesian processor for vehicle presence determination. Any other statistical criteria can be provided. A display indicating the passing of a vehicle. (e.g., a signal that toggles logic state on entry to the associated window). It can be determined in various ways. All of the above steps are performed for each new frame. is repeated continuously.

存在、通過および、速度などの他の車両特性を決定するため、マイクロプロセッ サ18によって実行される、時間的データ処理法を第6図に概略的に示す。時間 的手法は、車両が存在しない場合の道路面の背景強度を推定する。それは瞬間( 現フレーム)強度と比較され、゛もしも後者の方が統計的に大きい場合は、車両 存在判定が下される。A microprocessor is used to determine presence, passage, and other vehicle characteristics such as speed. The temporal data processing method carried out by the sensor 18 is schematically illustrated in FIG. time This method estimates the background intensity of the road surface when no vehicles are present. It was a moment ( current frame) strength, and if the latter is statistically greater, the vehicle Existence judgment is made.

クロプロセッサ18は先ず強度値を時間平均し、画素in 、。Croprocessor 18 first time averages the intensity values, pixel in,.

J の時間平均アレイを発生する。時間平均画素rn 、、は、式1−3にしたがっ て、空間的処理と類似の方法で計算される。J generate a time-averaged array of . The time averaged pixel rn, , is according to formula 1-3. It is calculated using a method similar to spatial processing.

マイクロプロセッサ18は次に、ステップ62および式4に6  ′ したがって、瞬時画素10.から時間平均l 1jを減算するlコ ことにより、n番目のフレームについて背景調整された画素背景調節された強度 の画素を使って、マイクロプロセッサ18は次に、ステップ64に示すように、 R個の先行フレー発生する。時間分散値Qn、、は、先行するRフレームの背景 1コ 調節画素Tn1j、およびN個の先行フレームでの対応画素における平均強度M 0.の関数として発生される。マイクロプロ1コ セッサ18は、式12および13にしたがって時間分散値および平均値を計算す る。一実施例では、RおよびNは20フレームに等しい。Microprocessor 18 then converts step 62 and equation 4 to 6' Therefore, instantaneous pixel 10. l code to subtract the time average l1j from For the nth frame, the background-adjusted pixel background-adjusted intensity Using the pixels of , microprocessor 18 then, as shown in step 64, R preceding frames are generated. The time variance value Qn, , is the background of the preceding R frame. 1 piece The average intensity M at the adjustment pixel Tn1j and the corresponding pixels in N previous frames 0. generated as a function of 1 micropro The processor 18 calculates the time variance value and the average value according to equations 12 and 13. Ru. In one example, R and N are equal to 20 frames.

マイクロプロセッサ18はまた、第4図に示した空間分散処理ステップ56に関 連して説明した方法と同様な方法で、時間分散ステップ64の一部として、車両 がない場合の背景分散 Qn を計算する。背景分散A” ijは、移動平均1 j (runing average)の関数として計算される(式12,13)。Microprocessor 18 also performs the spatially distributed processing step 56 shown in FIG. As part of the time dispersion step 64, the vehicle Calculate the background variance Qn when there is no Qn. The background variance A” ij is the moving average 1 j It is calculated as a function of (running average) (Equations 12 and 13).

車両が存在しないものと、論理68が決定した場合は、分散は式12.13にし たがって更新される。論理68にしたがって、車両が存在すると決定された場合 は、である。比較器66は次のように動作する。背景調節瞬時n 強度I  が式14にしたがって背景分散の関数と比較されij る。関数f (AQ” sj>は、例えば、背景分散値AQ 1jの絶対値また は平方根でよい。定数には、典型的には1と4の間になる。瞬時背景調節値が背 景分散の関数関係よりも太きい場合は、車両が画素ijに存在するという決定が 、比較機構によって下される。これはP、、−1で表わされる。そうでJ なければP−、−0(車両なし)で示される。If logic 68 determines that the vehicle is not present, then the variance is given by Equation 12.13. Therefore, it will be updated. If it is determined that a vehicle is present according to logic 68 is. Comparator 66 operates as follows. background adjustment instant n The intensity I is compared with a function of the background variance according to equation 14 and ij Ru. The function f (AQ''sj> is, for example, the absolute value of the background variance value AQ1j or can be the square root. The constant will typically be between 1 and 4. The instantaneous background adjustment value If it is thicker than the functional relationship of the scene variance, the decision that the vehicle is present at pixel ij is , determined by the comparison mechanism. This is denoted by P,,-1. That's right J If there is no vehicle, it is indicated by P-, -0 (no vehicle).

lコ 値が0または1のP05画素は論理68に入力され、そこでJ 処理されて車両の存在および通過を決定する。ステップ68での論理処理は、第 4図に示され、かつ式11によって記述されている空間処理法のステップ58に 関連して説明した処理と同様に行なわれる。上記ステップの全ては、各々の新し いフレームまたは画素I のアレイについて、連続的に繰りij 返される。l co P05 pixels with a value of 0 or 1 are input to logic 68 where J Processed to determine vehicle presence and passage. The logic processing at step 68 Step 58 of the spatial processing method shown in Figure 4 and described by Equation 11. The processing is similar to that described in connection with this. All of the above steps apply to each new Continuously repeat ij for an array of frames or pixels I returned.

第4図と関連して説明した空間データ処理法、および第6図に関連して説明した 時間データ処理法は、車両検出に関連した正確なデータを提供するが、システム 10の性能はこれらの方法の同時使用によって改善することができる。The spatial data processing method explained in connection with FIG. 4 and the method explained in connection with FIG. Although temporal data processing methods provide accurate data related to vehicle detection, the system The performance of 10 can be improved by the simultaneous use of these methods.

第9図に示すように、n番目のフレームの選択されたウィンドウに対する画素強 度値In、、は、空間および時間処理法J (それぞれステップ76および78)の両方にしたがって、マイクロプロセッサ 18によって同時に処理することができる。As shown in Figure 9, the pixel intensity for the selected window of the nth frame is The degree value In, , is the spatial and temporal processing method J (steps 76 and 78, respectively), the microprocessor 18 can be processed simultaneously.

これら2つの処理法からの結果(例えば、存在、通過、またはその他の特徴を表 わすデータ)は次に、ステップ80に示すように、論理的に処理されるか、また は結合されるかして、存在、通過、またはその他の特徴を表わす信号またはデー タを発生する。Results from these two processing methods (e.g., representing presence, passage, or other characteristics) data) is then processed logically or otherwise, as shown in step 80. may be combined to create a signal or data indicating the presence, passage, or other characteristic of generate data.

一実施例では、マイクロプロセッサ18は空間および時間処理ステップ76およ び78の各出力にrANDJ演算を行ない、空間処理法および時間処理法の両方 によって、存在または通過データが発生された場合にのみ、存在または通過デー タを発生する。In one embodiment, microprocessor 18 performs spatial and temporal processing steps 76 and Perform rANDJ operation on each output of exists or passes through data only if it is caused by generate data.

第4図に示す空間処理法、または第6図に示す時間処理法のいずれかの実行を介 して、マイクロプロセッサ18によって発生された存在および(または)通過デ ータを、マイクロプロセッサ18によってさらに処理し、車両速度データを発生 することができる。この処理法を第10図に関連して説明する。Through execution of either the spatial processing method shown in Figure 4 or the temporal processing method shown in Figure 6. presence and/or passage data generated by microprocessor 18. further processing by microprocessor 18 to generate vehicle speed data. can do. This processing method will be explained in connection with FIG.

速度データは、数(N)フレームにわたり、ゲートP1□2およびP1□6など の2つのゲートに割り当てられた論理状態を監視することによって計算される。The velocity data spans several (N) frames and includes gates P1□2 and P1□6, etc. is calculated by monitoring the logic states assigned to the two gates of .

画素P1□2とPl、6の間の空間距離は、幾何学的形状およびセンサ・パラメ ータに基づく交通フィールドにおける実際の距離りに対応する。The spatial distance between pixels P1□2 and Pl,6 depends on the geometry and sensor parameters. corresponds to the actual distance in the traffic field based on the data.

マイクロプロセッサ18は、画素Pi12の論理状態が論理「0」から論理「1 」に切り換わるフレームと、画素P1□6により表わされる論理状態が論理「0 」から論理「1」に切り換わる7レームとの間での、経過フレームの数を監視す る。The microprocessor 18 changes the logic state of the pixel Pi12 from logic "0" to logic "1". ” and the logic state represented by pixel P1□6 becomes logic “0”. ” to 7 frames switching to logic “1”. Ru.

これら2つの事象を分離するフレームの数Nは、時間Δtに対応する。マイクロ プロセッサ18はそれにより、式15を使って速度を計算することができる。こ の判定の精度は、幾つかの対を含む計算によって改善することができる。The number N of frames separating these two events corresponds to the time Δt. micro Processor 18 can then calculate the speed using Equation 15. child The accuracy of the determination of can be improved by calculations involving several pairs.

好ましい実施例に関連して本発明を説明したが、当業者は、発明の精神および範 囲から逸脱することなく形式および細部において変更を行なうことができること を認識するであろう。Although the invention has been described in conjunction with preferred embodiments, those skilled in the art will understand the spirit and scope of the invention. be able to make changes in form and detail without departing from the framework; will recognize it.

7ζ3,11 x3  =、−γ′−ノロへジーr、7 ’−六ノ (選王更ゴ赦丘つィ;ドウ ツj1:文9し7) ズヱ。7ζ3,11 x3 =, -γ'-Noroheji r, 7'-Rokuno (Senou Saragoshukyutsui; Do Tsuj1: Sentence 9 and 7) Zue.

%  =st 4,7シ ’(t−m>(j−’)                                         @ K  7 A、j=:≦、 Xl(j−J)                バεぐfん (1ルー1)−Arσ−ノ))2         ■9ノ’ij 〉kf ( AQtj八ぎLl<kイ4.瘍1コ”h);I、【う畠赦ζ゛fご1コOih各 国際調査報告% = st 4,7 shi’ (t-m>(j-’) @ K 7 A, j=:≦, Xl (j-J) (1 ru 1)-Arσ-ノ)) 2       ■9ノ’ij 〉kf ( AQtj Yagi Ll<ki4. 1 tumor"h);I, international search report

Claims (15)

【特許請求の範囲】[Claims] 1.交通の視野を感知し、視野の特徴を表わす連続した画素アレイを供給するた めのセンサ手段と、上記センサ手段に結合されて、交通の視野内の画素のサブア レイを選択するためのフォーマッタ手段と、選択された画素サブアレイを処理し 、交通の視野の部分内の車両の存在または通過を表わす特性データを供給するた めのプロセッサ手段とを備えた車両検出システム。1. To sense the field of view of traffic and provide a continuous pixel array representing the characteristics of the field of view. a sub-array of pixels in the field of view of the traffic, coupled to said sensor means; A formatter means for selecting rays and processing the selected pixel subarray. , to provide characteristic data representing the presence or passage of vehicles within the field of view of traffic. a vehicle detection system comprising: processor means for detecting a vehicle; 2.上記センサ手段は、視野を表わす映像信号を供給するためのカメラと、映像 信号をディジタル化して画素アレイを発生するためのディジタイザとを備えた請 求の範囲第1項のシステム。2. The sensor means includes a camera for supplying a video signal representative of the field of view; and a digitizer for digitizing the signal to generate the pixel array. The system in the first term of the scope of demand. 3.上記サブアレイ選択手段は、操作員の操作に応答して、視野の所望部分を表 わすサブアレイ選択信号を供給するための端末を含む請求の範囲第1項のシステ ム。3. The subarray selection means displays a desired portion of the field of view in response to an operation by an operator. A system according to claim 1, including a terminal for providing a subarray selection signal. Mu. 4.上記プロセッサ手段は、視野の選択された部分内の車両の存在の特徴を表わ すデータを供給するための手段を備えた請求の範囲第1項のシステム。4. The processor means characterizes the presence of a vehicle within the selected portion of the field of view. 2. The system of claim 1, further comprising means for supplying data. 5.上記プロセッサ手段は、視野の選択された部分を介して、車両の存在または 通過の特徴を表わすデータを供給するための手段を備えた請求の範囲第1項のシ ステム。5. The processor means detects the presence or absence of a vehicle via a selected portion of the field of view. The system according to claim 1, comprising means for supplying data representative of the characteristics of the passage. stem. 6.上記プロセッサ手段は、空間処理法にしたがって画素アレイを処理するため の手段を備えた請求の範囲第1項のシステム。6. said processor means for processing the pixel array according to a spatial processing method; A system according to claim 1, comprising the means of: 7.上記プロセッサは、時間処理法にしたがって画素アレイを処理するための手 段を備えた請求の範囲第1項のシステム。7. The above processor has a method for processing the pixel array according to a temporal processing method. The system of claim 1 comprising stages. 8.上記センサ手段に結合されて、車両検出が行なわれようとしている道路上の 部分または地点を、使用者がそれによって選択できるようにする、交通の視野の 可視表示を提供するための監視手段をさらに備えた請求の範囲第1項のシステム 。8. coupled to the sensor means on the road on which vehicle detection is to be carried out; of a view of traffic by which a portion or point can be selected by the user The system of claim 1 further comprising monitoring means for providing a visual indication. . 9.上記プロセッサ手段に結合されて、特性データの関数として交通を整理/監 視(monitoring)/分類一カウントするための交通整理/監視(su rveillance)/カウソトー分類解除(declassifying) 手段をさらに備えた請求の範囲第1項のシステム。9. coupled to said processor means to direct/monitor traffic as a function of characteristic data; Traffic control/monitoring/classification/counting rveillance)/declassifying The system of claim 1 further comprising means. 10.特性データをさらに処理して記憶するための記憶手段をさらに備えた請求 の範囲第1項のシステム。10. Claim further comprising storage means for further processing and storing characteristic data The system in the first term of the range. 11.時間にしたがって交通の視野の特徴を表わす連続した画素アレイを発生す るための像形成手段と、画素を処理して、視野内の車両の存在および通過を表わ すデータを発生するためのプロセッサ手段とを備えた型のシステムであって、上 記像形成手段と上記プロセッサ手段との間に結合され、上記プロセッサ手段によ る処理のために、交通の視野の所望部分の特徴を表わす画素のサブアレイを選択 するためのフォーマッタ手段を備えたことを特徴とするシステム。11. Generates a continuous pixel array representing the characteristics of the traffic field of view over time. an imaging means for processing the pixels to represent the presence and passage of a vehicle within the field of view; and a processor means for generating data to be processed. coupled between the image forming means and the processor means; Select a subarray of pixels representing the characteristics of the desired portion of the traffic field of view for processing. A system characterized by comprising a formatter means for. 12.上記フォーマッタ手段に結合され、操作員が上記フォーマッタ手段を制御 し、交通の視野の所望部分の特徴を表わす画素を選択することを可能にするため の端末手段をさらに備えた請求の範囲第11項のシステム。12. coupled to said formatter means, said operator controlling said formatter means; and to make it possible to select pixels that represent the characteristics of a desired part of the traffic field of view. 12. The system of claim 11, further comprising terminal means. 13.上記像形成手段に結合され、交通の視野の可視像を発生するための監視装 置をさらに備え、操作員が、上記監視装置と共に上記端末手段を使用して視野内 の対象画素を選択する請求の範囲第12項のシステム。13. a surveillance device coupled to said imaging means for generating a visible image of the field of view of the traffic; further comprising: an operator who uses the terminal means in conjunction with the monitoring device to monitor the 13. The system of claim 12, which selects target pixels of . 14.交通の視野内の車両の特徴を表わすデータを発生するように、交通の視野 を表わす画素アレイを、時間にしたがって(over time)空間的に処理 するために、プログラマブル計算手段を動作させるための方法であって、交通の 視野を表わす連続した画素アレイを時間にしたがって受け取り、 連続したアレイの対応画素を時間にしたがって時間平均して時間平均アレイを供 給し、 時間平均アレイの対応画素を瞬時アレイの画素と加算して背景調節画素アレイを 発生し、 背景調節画素のウィンドウ・グループを空間的に平均して空間平均アレイを発生 し、 背景調節画素および空間平均画素の関数として画素の空間分散を発生し、 瞬時画素アレイを空間分散アレイと論理的に比較することにより、車両の存在お よび通過を表わすデータを発生することを特徴とする方法。14. A traffic field of view to generate data representing characteristics of vehicles within the traffic field of view. Processing the pixel array representing spatially over time A method for operating a programmable computing means in order to receiving a continuous pixel array representing a field of view over time; The corresponding pixels of the consecutive arrays are time-averaged over time to provide a time-averaged array. supply, The background adjustment pixel array is created by adding the corresponding pixels of the time-averaged array with the pixels of the instantaneous array. occurs, Spatially average window groups of background adjustment pixels to generate a spatially averaged array death, generating a spatial variance of pixels as a function of a background adjustment pixel and a spatially averaged pixel; By logically comparing the instantaneous pixel array with the spatially distributed array, the presence of a vehicle can be determined. A method characterized in that the method comprises: generating data representative of calls and passages. 15.車両の存在および通過の特徴を表わすデータを発生するように、交通の視 野を表わす連続した画素アレイを、時間にしたがって、時間的に処理するためプ ログラマブル計算手段を動作させるための方法であって、 交通の視野を表わす連続した画素アレイを、時間にしたがって受け取り、 連続した強度値アレイの対応画素を時間平均して時間平均画素アレイを発生し、 時間平均アレイの対応する時間平均画素と瞬時画素アレイの画素とを加算して背 景調節画素アレイを発生し、背景調節画素アレイに基づいて時間分散画素アレイ を発生し、 対応する時間分散画素アレイの関数として、しきい値のしきい画素アレイを発生 し、 対応する背景調節画素アレイおよびしきい値の論理関数として、車両の存在およ び通過を表わすデータを発生することを含む方法。15. Traffic vision is used to generate data representing vehicle presence and passage characteristics. A continuous pixel array representing a field is processed temporally according to time. A method for operating a logrammable calculation means, the method comprising: receiving a continuous pixel array representing a field of view of the traffic over time; time-averaging corresponding pixels of the successive intensity value array to generate a time-averaged pixel array; The corresponding time-averaged pixel of the time-averaged array and the pixel of the instantaneous pixel array are added together to calculate the Generate a background control pixel array and generate a time-distributed pixel array based on the background control pixel array. occurs, Generate a threshold pixel array of thresholds as a function of the corresponding time-dispersed pixel array death, Vehicle presence and and generating data representative of the passage.
JP63502277A 1987-02-17 1988-02-12 Vehicle detection with image processing for traffic monitoring and control Pending JPH02502947A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US015,104 1987-02-17
US07/015,104 US4847772A (en) 1987-02-17 1987-02-17 Vehicle detection through image processing for traffic surveillance and control

Publications (1)

Publication Number Publication Date
JPH02502947A true JPH02502947A (en) 1990-09-13

Family

ID=21769564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63502277A Pending JPH02502947A (en) 1987-02-17 1988-02-12 Vehicle detection with image processing for traffic monitoring and control

Country Status (6)

Country Link
US (1) US4847772A (en)
EP (1) EP0344208B1 (en)
JP (1) JPH02502947A (en)
AT (1) ATE123350T1 (en)
DE (1) DE3853913T2 (en)
WO (1) WO1988006326A1 (en)

Families Citing this family (194)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0298250B1 (en) * 1987-07-10 1992-05-06 Siemens Aktiengesellschaft Versatile recognition of object structures in colour and grey value images
IL86202A (en) * 1988-04-27 1992-01-15 Driver Safety Systems Ltd Traffic safety monitoring apparatus
JP2669031B2 (en) * 1989-02-28 1997-10-27 日産自動車株式会社 Autonomous vehicles
AT398011B (en) * 1989-06-08 1994-08-25 Alcatel Austria Ag DEVICE FOR MONITORING SPEED LIMITS OF TRAFFIC PARTICIPANTS
GB8913946D0 (en) * 1989-06-16 1989-08-02 Univ London Method and apparatus for traffic monitoring
DE4042258A1 (en) * 1990-03-21 1991-09-26 Monte Bau U Handelsgesellschaf Traffic light system with electronic and computer control - uses camera and/or other read device to monitor traffic conditions
JP2712844B2 (en) * 1990-04-27 1998-02-16 株式会社日立製作所 Traffic flow measurement device and traffic flow measurement control device
JPH0440313A (en) * 1990-06-06 1992-02-10 Mitsubishi Electric Corp Device for automatically following and detecting distance to receding vehicle
EP0476562A3 (en) * 1990-09-19 1993-02-10 Hitachi, Ltd. Method and apparatus for controlling moving body and facilities
US5161107A (en) * 1990-10-25 1992-11-03 Mestech Creation Corporation Traffic surveillance system
JPH04331311A (en) * 1991-01-24 1992-11-19 Mitsubishi Electric Corp Detecting apparatus of inter-vehicle distance
US5319394A (en) 1991-02-11 1994-06-07 Dukek Randy R System for recording and modifying behavior of passenger in passenger vehicles
US5301239A (en) * 1991-02-18 1994-04-05 Matsushita Electric Industrial Co., Ltd. Apparatus for measuring the dynamic state of traffic
DE4105809A1 (en) * 1991-02-23 1992-09-03 Industrieanlagen Betriebsges Dynamic analysis of road traffic flow - using video camera mounted over junction to provide input to computer to generate statistical data for optimising flow
US5296852A (en) * 1991-02-27 1994-03-22 Rathi Rajendra P Method and apparatus for monitoring traffic flow
DE69232732T2 (en) * 1991-03-19 2009-09-10 Mitsubishi Denki K.K. Measuring device for moving bodies and image processing device for measuring traffic flow
US5408330A (en) * 1991-03-25 1995-04-18 Crimtec Corporation Video incident capture system
US5509082A (en) * 1991-05-30 1996-04-16 Matsushita Electric Industrial Co., Ltd. Vehicle movement measuring apparatus
JP2655953B2 (en) * 1991-07-19 1997-09-24 株式会社日立製作所 Traffic control system
FR2679682B1 (en) * 1991-07-22 1995-05-24 Inrets METHOD FOR DETECTING CHANGES IN THE OCCUPANCY OF A TRACK.
DE4128312A1 (en) * 1991-08-27 1993-03-04 Telefonbau & Normalzeit Gmbh Detecting motor vehicle movements and traffic density in traffic monitoring system - using video camera coupled to digital image memory for comparison of stored with actual images to identify motion with further comparison to identify vehicle types
JP3110095B2 (en) * 1991-09-20 2000-11-20 富士通株式会社 Distance measuring method and distance measuring device
US5535314A (en) * 1991-11-04 1996-07-09 Hughes Aircraft Company Video image processor and method for detecting vehicles
WO1993009523A1 (en) * 1991-11-07 1993-05-13 Traffic Vision Systems International Inc. Video-based object acquisition, identification and velocimetry
US5282182A (en) 1991-11-12 1994-01-25 Kreuzer Monroe E Video monitor and housing assembly
FR2685497B1 (en) * 1991-12-20 1996-05-31 Inrets METHOD FOR DETERMINING THE OCCUPANCY OF A PORTION OF TRACK SUITABLE FOR TRAVELING BY BODIES OF ANY KIND.
US5604821A (en) * 1992-02-28 1997-02-18 The University Of South Florida Structure and method for dynamic scene analysis
WO1993019441A1 (en) * 1992-03-20 1993-09-30 Commonwealth Scientific And Industrial Research Organisation An object monitoring system
JP2917661B2 (en) * 1992-04-28 1999-07-12 住友電気工業株式会社 Traffic flow measurement processing method and device
US5396429A (en) * 1992-06-30 1995-03-07 Hanchett; Byron L. Traffic condition information system
DE4225466C2 (en) * 1992-08-01 1995-08-31 Franz J Gebert Method for recording traffic data and device for transmitting speed change sign information
AT402675B (en) * 1992-09-03 1997-07-25 Schweitzer Karl Ing DEVICE FOR MONITORING THE TRAFFIC DEVICE FOR MONITORING THE TRAFFIC OF MOTOR VEHICLES MOTOR VEHICLES
US5448484A (en) * 1992-11-03 1995-09-05 Bullock; Darcy M. Neural network-based vehicle detection system and method
DE4300651A1 (en) * 1993-01-08 1994-07-14 Refit Ev Determination of road traffic data
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5670935A (en) 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US6498620B2 (en) 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
US5910854A (en) 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US7339149B1 (en) 1993-02-26 2008-03-04 Donnelly Corporation Vehicle headlight control using imaging sensor
US5465289A (en) * 1993-03-05 1995-11-07 E-Systems, Inc. Cellular based traffic sensor system
BR9407082A (en) * 1993-07-22 1996-08-13 Minnesota Mining & Mfg Apparatus and process for calibrating a three-dimensional space
US5467634A (en) * 1993-07-22 1995-11-21 Minnesota Mining And Manufacturing Company Method and apparatus for calibrating three-dimensional space for machine vision applications
US5801943A (en) * 1993-07-23 1998-09-01 Condition Monitoring Systems Traffic surveillance and simulation apparatus
US5515042A (en) * 1993-08-23 1996-05-07 Nelson; Lorry Traffic enforcement device
US5586063A (en) * 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
US5416711A (en) * 1993-10-18 1995-05-16 Grumman Aerospace Corporation Infra-red sensor system for intelligent vehicle highway systems
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
BE1008236A3 (en) * 1994-04-08 1996-02-20 Traficon Nv TRAFFIC MONITORING DEVICE.
US5404306A (en) * 1994-04-20 1995-04-04 Rockwell International Corporation Vehicular traffic monitoring system
US5668663A (en) 1994-05-05 1997-09-16 Donnelly Corporation Electrochromic mirrors and devices
US5774569A (en) * 1994-07-25 1998-06-30 Waldenmaier; H. Eugene W. Surveillance system
JPH08167100A (en) * 1994-12-12 1996-06-25 Hisaji Nakamura Steering device
US6044166A (en) * 1995-01-17 2000-03-28 Sarnoff Corporation Parallel-pipelined image processing system
DE69635980T2 (en) * 1995-01-17 2007-01-25 Sarnoff Corp. METHOD AND DEVICE FOR DETECTING OBJECT MOVEMENT IN A PICTURE
JPH10512953A (en) * 1995-01-18 1998-12-08 ラリー シー ハーディン Optical range and speed detection system
US5621645A (en) * 1995-01-24 1997-04-15 Minnesota Mining And Manufacturing Company Automated lane definition for machine vision traffic detector
FR2732492B1 (en) * 1995-04-03 1997-05-30 Telediffusion Fse METHOD AND SYSTEM FOR MONITORING AND QUALIFYING ROAD TRAFFIC BY ANALYSIS OF DIGITAL IMAGES
JP3151372B2 (en) * 1995-04-19 2001-04-03 インターナショナル・ビジネス・マシーンズ・コーポレ−ション Moving object speed detecting apparatus and method
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US5742699A (en) * 1995-08-31 1998-04-21 Adkins; William A. Passive velocity measuring device
FR2739208B1 (en) * 1995-09-22 1997-10-31 Faiveley Transport METHOD FOR DETECTING THE PRESENCE OF AN ELEMENT ON A TRACK PORTION
WO1997016806A1 (en) * 1995-11-01 1997-05-09 Carl Kupersmit Vehicle speed monitoring system
US6111523A (en) 1995-11-20 2000-08-29 American Traffic Systems, Inc. Method and apparatus for photographing traffic in an intersection
US6985172B1 (en) 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
WO1997020433A1 (en) 1995-12-01 1997-06-05 Southwest Research Institute Methods and apparatus for traffic incident detection
TW349211B (en) * 1996-01-12 1999-01-01 Sumitomo Electric Industries Method snd apparatus traffic jam measurement, and method and apparatus for image processing
US5938717A (en) * 1996-03-04 1999-08-17 Laser Technology, Inc. Speed detection and image capture system for moving vehicles
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
JP3435623B2 (en) * 1996-05-15 2003-08-11 株式会社日立製作所 Traffic flow monitoring device
US5948038A (en) * 1996-07-31 1999-09-07 American Traffic Systems, Inc. Traffic violation processing system
AU5424698A (en) * 1996-10-28 1998-05-22 John B. Moetteli Traffic law enforcement system having decoy units
US6188778B1 (en) 1997-01-09 2001-02-13 Sumitomo Electric Industries, Ltd. Traffic congestion measuring method and apparatus and image processing method and apparatus
US5995900A (en) * 1997-01-24 1999-11-30 Grumman Corporation Infrared traffic sensor with feature curve generation
AU3826502A (en) * 1997-02-24 2002-06-27 Redflex Traffic Systems Pty Ltd Vehicle imaging and verification
FR2763726B1 (en) * 1997-05-20 2003-01-17 Bouchaib Hoummadi METHOD FOR MANAGING ROAD TRAFFIC BY VIDEO CAMERA
US6172613B1 (en) 1998-02-18 2001-01-09 Donnelly Corporation Rearview mirror assembly incorporating vehicle information display
US6124886A (en) 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
US6121898A (en) * 1997-10-28 2000-09-19 Moetteli; John B. Traffic law enforcement system
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6546119B2 (en) 1998-02-24 2003-04-08 Redflex Traffic Systems Automated traffic violation monitoring and reporting system
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
US6177885B1 (en) 1998-11-03 2001-01-23 Esco Electronics, Inc. System and method for detecting traffic anomalies
US6285297B1 (en) 1999-05-03 2001-09-04 Jay H. Ball Determining the availability of parking spaces
JP2000339923A (en) * 1999-05-27 2000-12-08 Mitsubishi Electric Corp Apparatus and method for collecting image
EP1056064B1 (en) * 1999-05-28 2007-12-12 Nippon Telegraph and Telephone Corporation Apparatus and method for speed measurement of vehicles with an image processing system
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
WO2007053710A2 (en) 2005-11-01 2007-05-10 Donnelly Corporation Interior rearview mirror with display
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
AU2001243285A1 (en) 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
ES2169657B1 (en) * 2000-04-14 2003-11-01 Univ De Valencia Inst De Robot AUTOMATIC DETECTION SYSTEM OF TRAFFIC INCIDENTS IN URBAN ENVIRONMENTS.
JP2004510363A (en) 2000-08-31 2004-04-02 ライテック コーポレイション Sensors and imaging systems
US7581859B2 (en) 2005-09-14 2009-09-01 Donnelly Corp. Display device for exterior rearview mirror
WO2006124682A2 (en) 2005-05-16 2006-11-23 Donnelly Corporation Vehicle mirror assembly with indicia at reflective element
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
DE60220379T2 (en) 2001-01-23 2008-01-24 Donnelly Corp., Holland IMPROVED VEHICLE LIGHTING SYSTEM
US6690294B1 (en) 2001-07-10 2004-02-10 William E. Zierden System and method for detecting and identifying traffic law violators and issuing citations
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
US6882287B2 (en) 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
JP3878008B2 (en) * 2001-12-07 2007-02-07 株式会社日立製作所 Vehicle travel control device and map information data recording medium
US9092841B2 (en) 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
US20050169278A1 (en) * 2002-04-12 2005-08-04 Xyratex Technology Limited Atm traffic generator with interleave memory
EP1504276B1 (en) 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
US6918674B2 (en) 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
EP1514246A4 (en) 2002-06-06 2008-04-16 Donnelly Corp INNER RETRIEVER SYSTEM WITH COMPASS
US6999004B2 (en) * 2002-06-17 2006-02-14 Siemens Corporate Research, Inc. System and method for vehicle detection and tracking
FR2842637B1 (en) * 2002-07-22 2004-10-01 Citilog METHOD FOR DETECTING AN INCIDENT OR THE LIKE ON A TRACK PORTION
DE10239675B4 (en) * 2002-08-26 2009-10-15 Technische Universität Dresden Method for determining traffic state variables
AU2003270386A1 (en) 2002-09-06 2004-03-29 Rytec Corporation Signal intensity range transformation apparatus and method
WO2004026633A2 (en) 2002-09-20 2004-04-01 Donnelly Corporation Mirror reflective element assembly
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
KR20040051777A (en) * 2002-12-13 2004-06-19 주식회사 엘지씨엔에스 Noticing method of vehicle-trouble
US7382277B2 (en) 2003-02-12 2008-06-03 Edward D. Ioli Trust System for tracking suspicious vehicular activity
NO20032053D0 (en) 2003-05-07 2003-05-07 Posco Group Ltd Directing
US7289037B2 (en) 2003-05-19 2007-10-30 Donnelly Corporation Mirror assembly for vehicle
US7747041B2 (en) * 2003-09-24 2010-06-29 Brigham Young University Automated estimation of average stopped delay at signalized intersections
US7446924B2 (en) 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
US20050131627A1 (en) * 2003-12-15 2005-06-16 Gary Ignatin Traffic management in a roadway travel data exchange network
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US8243986B2 (en) * 2004-06-09 2012-08-14 Cognex Technology And Investment Corporation Method and apparatus for automatic visual event detection
US8891852B2 (en) 2004-06-09 2014-11-18 Cognex Technology And Investment Corporation Method and apparatus for configuring and testing a machine vision detector
US20050276445A1 (en) * 2004-06-09 2005-12-15 Silver William M Method and apparatus for automatic visual detection, recording, and retrieval of events
US8127247B2 (en) 2004-06-09 2012-02-28 Cognex Corporation Human-machine-interface and method for manipulating data in a machine vision system
IL162921A0 (en) 2004-07-08 2005-11-20 Hi Tech Solutions Ltd Character recognition system and method
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US7636449B2 (en) 2004-11-12 2009-12-22 Cognex Technology And Investment Corporation System and method for assigning analysis parameters to vision detector using a graphical interface
US7720315B2 (en) * 2004-11-12 2010-05-18 Cognex Technology And Investment Corporation System and method for displaying and using non-numeric graphic elements to control and monitor a vision system
US9292187B2 (en) 2004-11-12 2016-03-22 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
US8370054B2 (en) 2005-03-24 2013-02-05 Google Inc. User location driven identification of service vehicles
US7274307B2 (en) * 2005-07-18 2007-09-25 Pdk Technologies, Llc Traffic light violation indicator
US8018352B2 (en) * 2006-03-27 2011-09-13 Cognex Corporation Video traffic monitoring and signaling apparatus
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
US7580547B2 (en) 2006-10-24 2009-08-25 Iteris, Inc. Electronic traffic monitor
EP2122599B1 (en) 2007-01-25 2019-11-13 Magna Electronics Inc. Radar sensing system for vehicle
US8712105B2 (en) * 2007-04-16 2014-04-29 Redflex Traffic Systems Pty, Ltd. Vehicle speed verification system and method
US7869621B1 (en) * 2007-06-07 2011-01-11 Aydin Arpa Method and apparatus for interpreting images in temporal or spatial domains
US8237099B2 (en) * 2007-06-15 2012-08-07 Cognex Corporation Method and system for optoelectronic detection and location of objects
US8718319B2 (en) * 2007-06-15 2014-05-06 Cognex Corporation Method and system for optoelectronic detection and location of objects
US7914187B2 (en) 2007-07-12 2011-03-29 Magna Electronics Inc. Automatic lighting system with adaptive alignment function
US7646311B2 (en) * 2007-08-10 2010-01-12 Nitin Afzulpurkar Image processing for a traffic control system
US8017898B2 (en) 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
US8451107B2 (en) 2007-09-11 2013-05-28 Magna Electronics, Inc. Imaging system for vehicle
US8446470B2 (en) 2007-10-04 2013-05-21 Magna Electronics, Inc. Combined RGB and IR imaging sensor
US8253592B1 (en) 2007-11-26 2012-08-28 Rhythm Engineering, LLC External adaptive control systems and methods
US8237791B2 (en) * 2008-03-19 2012-08-07 Microsoft Corporation Visualizing camera feeds on a map
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
US20100020170A1 (en) 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System
US9487144B2 (en) 2008-10-16 2016-11-08 Magna Mirrors Of America, Inc. Interior mirror assembly with display
EP2179892A1 (en) 2008-10-24 2010-04-28 Magna Electronics Europe GmbH & Co. KG Method for automatic calibration of a virtual camera
US8964032B2 (en) * 2009-01-30 2015-02-24 Magna Electronics Inc. Rear illumination system
EP2401176B1 (en) 2009-02-27 2019-05-08 Magna Electronics Alert system for vehicle
EP2459416B2 (en) 2009-07-27 2019-12-25 Magna Electronics Inc. Parking assist system
WO2011014497A1 (en) 2009-07-27 2011-02-03 Magna Electronics Inc. Vehicular camera with on-board microcontroller
US9041806B2 (en) 2009-09-01 2015-05-26 Magna Electronics Inc. Imaging and display system for vehicle
DE102009049382A1 (en) 2009-10-15 2011-04-21 Weisgerber, Martin, Dr. Method for determining traffic density and traffic dynamics, involves receiving sound emission that is produced by road traffic using passive processing system, and analyzing data about sound emission using integrated circuit
US8890955B2 (en) 2010-02-10 2014-11-18 Magna Mirrors Of America, Inc. Adaptable wireless vehicle vision system based on wireless communication error
US9117123B2 (en) 2010-07-05 2015-08-25 Magna Electronics Inc. Vehicular rear view camera display system with lifecheck function
WO2012075250A1 (en) 2010-12-01 2012-06-07 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US20120162431A1 (en) * 2010-12-23 2012-06-28 Scott Riesebosch Methods and systems for monitoring traffic flow
US9085261B2 (en) 2011-01-26 2015-07-21 Magna Electronics Inc. Rear vision system with trailer angle detection
US8498448B2 (en) * 2011-07-15 2013-07-30 International Business Machines Corporation Multi-view object detection using appearance model transfer from similar scenes
WO2013016409A1 (en) 2011-07-26 2013-01-31 Magna Electronics Inc. Vision system for vehicle
US9286516B2 (en) 2011-10-20 2016-03-15 Xerox Corporation Method and systems of classifying a vehicle using motion vectors
US8532914B2 (en) 2011-11-11 2013-09-10 Verizon Patent Licensing Inc. Live traffic congestion detection
US9651499B2 (en) 2011-12-20 2017-05-16 Cognex Corporation Configurable image trigger for a vision system and method for using the same
US9558409B2 (en) 2012-09-26 2017-01-31 Magna Electronics Inc. Vehicle vision system with trailer angle detection
US9446713B2 (en) 2012-09-26 2016-09-20 Magna Electronics Inc. Trailer angle detection system
CN103136933B (en) * 2013-01-14 2015-07-01 东南大学 Transferring coordination control method of conventional buses and subway stations
US9275545B2 (en) 2013-03-14 2016-03-01 John Felix Hart, JR. System and method for monitoring vehicle traffic and controlling traffic signals
US9171213B2 (en) 2013-03-15 2015-10-27 Xerox Corporation Two-dimensional and three-dimensional sliding window-based methods and systems for detecting vehicles
US8971581B2 (en) 2013-03-15 2015-03-03 Xerox Corporation Methods and system for automated in-field hierarchical training of a vehicle detection system
CN103426309B (en) * 2013-07-29 2015-05-13 吉林大学 Method of judging level of traffic jam according to taxi running conditions
US10160382B2 (en) 2014-02-04 2018-12-25 Magna Electronics Inc. Trailer backup assist system
CN103996293B (en) * 2014-06-09 2016-02-24 重庆大学 The real-time road condition acquiring inquiry system of working in coordination with based on automobile friend and collection querying method
US9881384B2 (en) 2014-12-10 2018-01-30 Here Global B.V. Method and apparatus for providing one or more road conditions based on aerial imagery
CN104778837B (en) * 2015-04-14 2017-12-05 吉林大学 Road traffic operation situation multi-time scale prediction method
CN104732762B (en) * 2015-04-21 2017-01-25 银江股份有限公司 Traffic abnormal road section probability identification method
CN105006149B (en) * 2015-07-10 2017-07-21 信融源大数据科技(北京)有限公司 Traffic estimates Dynamic iterations method
US10015394B2 (en) 2015-10-06 2018-07-03 Genetec Inc. Camera-based speed estimation and system calibration therefor
US10875403B2 (en) 2015-10-27 2020-12-29 Magna Electronics Inc. Vehicle vision system with enhanced night vision
US10132971B2 (en) 2016-03-04 2018-11-20 Magna Electronics Inc. Vehicle camera with multiple spectral filters
US10223911B2 (en) 2016-10-31 2019-03-05 Echelon Corporation Video data and GIS mapping for traffic monitoring, event detection and change prediction
US10438071B2 (en) 2017-01-25 2019-10-08 Echelon Corporation Distributed system for mining, correlating, and analyzing locally obtained traffic data including video
MA50826B1 (en) 2020-09-07 2022-05-31 Vetrasoft Autonomous deliberative traffic lights
US11715305B1 (en) * 2022-11-30 2023-08-01 Amitha Nandini Mandava Traffic detection system using machine vision

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS588398A (en) * 1981-07-07 1983-01-18 オムロン株式会社 Traffic flow measuring apparatus
JPS6077297A (en) * 1983-10-05 1985-05-01 日本電気株式会社 Stopped vehicle detection system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3663937A (en) * 1970-06-08 1972-05-16 Thiokol Chemical Corp Intersection ingress-egress automatic electronic traffic monitoring equipment
FR2204841B1 (en) * 1972-10-30 1977-08-26 France Etat
US3930735A (en) * 1974-12-11 1976-01-06 The United States Of America As Represented By The United States National Aeronautics And Space Administration Traffic survey system
SE394146B (en) * 1975-10-16 1977-06-06 L Olesen SATURATION DEVICE RESP CONTROL OF A FOREMAL, IN ESPECIALLY THE SPEED OF A VEHICLE.
JPS5474700A (en) * 1977-11-26 1979-06-14 Agency Of Ind Science & Technol Collection and delivery system for traffic information by photo electric conversion element group
CA1116286A (en) * 1979-02-20 1982-01-12 Control Data Canada, Ltd. Perimeter surveillance system
US4433325A (en) * 1980-09-30 1984-02-21 Omron Tateisi Electronics, Co. Optical vehicle detection system
US4490851A (en) * 1982-04-16 1984-12-25 The United States Of America As Represented By The Secretary Of The Army Two-dimensional image data reducer and classifier
JPS6278979A (en) * 1985-10-02 1987-04-11 Toshiba Corp Picture processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS588398A (en) * 1981-07-07 1983-01-18 オムロン株式会社 Traffic flow measuring apparatus
JPS6077297A (en) * 1983-10-05 1985-05-01 日本電気株式会社 Stopped vehicle detection system

Also Published As

Publication number Publication date
US4847772A (en) 1989-07-11
EP0344208A4 (en) 1991-03-13
WO1988006326A1 (en) 1988-08-25
DE3853913T2 (en) 1996-02-08
EP0344208B1 (en) 1995-05-31
ATE123350T1 (en) 1995-06-15
DE3853913D1 (en) 1995-07-06
EP0344208A1 (en) 1989-12-06

Similar Documents

Publication Publication Date Title
JPH02502947A (en) Vehicle detection with image processing for traffic monitoring and control
KR101375583B1 (en) Object Density Estimation in Video
US6798908B2 (en) Surveillance apparatus and recording medium recorded surveillance program
JP3178719B2 (en) Dynamic object recognition method and image processing system thereof
US5296852A (en) Method and apparatus for monitoring traffic flow
US6707486B1 (en) Directional motion estimator
AU718373C (en) Video imaging systems
US20110182473A1 (en) System and method for video signal sensing using traffic enforcement cameras
KR100862398B1 (en) Automatic parking control method for illegal parking of unmanned parking lot with multiple cameras and its system
EP0878965A2 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
CN105957110B (en) Apparatus and method for detection object
CN104601966B (en) A kind of visual analysis people flow rate statistical method and apparatus based on laser detection line
CN106373430A (en) Intersection pass early warning method based on computer vision
TW200905575A (en) Method for finding paths in video
JP4239621B2 (en) Congestion survey device
JP4607394B2 (en) Person detection system and person detection program
JPH09293141A (en) Moving object detection device
CN118609356A (en) A method for real-time monitoring and prediction of traffic congestion caused by specific sudden gathering events
KR100532058B1 (en) Traffic information acquisition method and apparatus using camera calibration
JP2005284652A (en) Video monitoring method and apparatus using moving vector
JP3905774B2 (en) PATTERN ESTIMATION METHOD, PATTERN ESTIMATION DEVICE, PATTERN ESTIMATION METHOD PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JPH05300516A (en) Animation processor
JPH0991586A (en) Method and device for monitoring road state
JP2007018324A (en) Intruding object detection apparatus, method and program by image processing
KR20160043484A (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera