JP4305057B2 - Armpit detector - Google Patents
Armpit detector Download PDFInfo
- Publication number
- JP4305057B2 JP4305057B2 JP2003145047A JP2003145047A JP4305057B2 JP 4305057 B2 JP4305057 B2 JP 4305057B2 JP 2003145047 A JP2003145047 A JP 2003145047A JP 2003145047 A JP2003145047 A JP 2003145047A JP 4305057 B2 JP4305057 B2 JP 4305057B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- driver
- image area
- time
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Emergency Alarm Devices (AREA)
- Studio Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、脇見検出装置に関する。
【0002】
【従来の技術】
従来、運転者の顔向き角度に応じた脇見許容時間と、その顔向き角度を維持した時間とに基づいて、運転者の脇見行為を検出する脇見検出装置が知られている(例えば特許文献1,2)。
【0003】
この装置では、運転者の顔の向きに応じて脇見許容時間を変更し、脇見行為を判断している。例えば、運転者の顔向き角度が大きい場合には、運転者の視界に前方方向の景色等が入り難くなることから、脇見時間を短く設定して脇見行為を判断する。また、運転者の顔向き角度が小さい場合には、運転者の視界に前方方向の景色等が比較的入りやすいことから、脇見時間を長く設定して脇見行為を判断する。
【0004】
このように、脇見許容時間を変更することで好適に運転者の脇見行為を検出するようにしている。
【0005】
【特許文献1】
特開平3−167698号公報
【0006】
【特許文献2】
特開平7−57172号公報
【0007】
【発明が解決しようとする課題】
しかし、上記脇見検出装置では、運転者の視界を遮る左右のピラー部分等を考慮に入れていないため、脇見行為を適切に判断するには不充分である。例えば、顔向き角度が小さいような場合であっても、運転者の視認位置がピラー部等の近傍である場合には、運転者の視界が遮られることから、脇見許容時間を比較的短くするなどの必要がある。
【0008】
このように、従来の脇見検出装置では、未だ、運転者の脇見行為を適切に検出しているとはいえない。
【0009】
【課題を解決するための手段】
本発明によれば、撮影手段が車両の運転者の顔を撮影し、追跡手段が撮像手段により得られた運転者の顔を含む撮像画像に基づいて、運転者の眼の位置を追跡し、学習手段が追跡手段から時系列的に出力される眼の位置の移動量と滞留時間とを判定して、運転者が所定位置を見たときの撮像画像上の眼の位置を学習し、画像領域設定手段が学習手段によって学習された撮像画像上の眼の位置を基準として脇見許容時間が異なる所定個数の画像領域を設定し、脇見検出手段が画像領域設定手段により設定された画像領域に割り振られた脇見許容時間に基づいて、脇見検出を行う。
より具体的には、学習手段は、所定位置として、左右のドアミラー及びルームミラーの位置を見たときの撮像画像上の眼の位置を学習し、画像領域設定手段は、ルームミラー視認時の眼の位置に基づいて、前方注視領域の右に隣接する第1の画像領域(A)の右端を決定し、右ドアミラー視認時の眼の位置に基づいて、前方注視領域の左に隣接する第2の画像領域(B)の左端及び下端を決定し、左ドアミラー視認時の眼の位置に基づいて、第1の画像領域(A)の右に隣接する第3の画像領域(C)の右端及び下端を決定する。
【0010】
【発明の効果】
本発明によれば、撮像画像上の眼の位置を基準として脇見許容時間が異なる所定個数の画像領域を設定している。通常、運転者は車両の構造物等のうち比較的多く視認するものがある。これらの構造物としては、左右のドアミラー及びルームミラーがある。このため、これらの構造物を視認したときの撮像画像上の眼の位置を基準とすることで、車両の構造物等の位置に基づく、画像領域が設定できる。すなわちルームミラー視認時の眼の位置に基づいて、前方注視領域の右に隣接する第1の画像領域(A)の右端を決定し、右ドアミラー視認時の眼の位置に基づいて、前方注視領域の左に隣接する第2の画像領域(B)の左端及び下端を決定し、左ドアミラー視認時の眼の位置に基づいて、第1の画像領域(A)の右に隣接する第3の画像領域(C)の右端及び下端を決定することができる。また、車両の構造物等の位置に基づくため、運転者の視界を遮る部分等を考慮に入れた脇見許容時間を所定個数の画像領域それぞれに割り振ることもできる。
【0011】
そして、各画像領域に割り振られた脇見許容時間と追跡される眼の位置とに基づいて脇見検出を行う。このため、各画像領域に割り振られた脇見許容時間に基づいて、車両内環境に適合した脇見検出が行うことができる。
【0012】
従って、運転者の脇見行為の検出につき、精度向上を図ることができる。
【0013】
【発明の実施の形態】
以下、本発明の好適な実施形態を図面に基づいて説明する。
【0014】
図1は、本発明の第1実施形態に係る脇見検出装置の構成図である。同図に示すように、本実施形態の脇見検出装置1は、車両の運転者の顔を撮影する撮像部(撮像手段)10を備えている。この撮像部10は、例えば可視光を撮像するためのCCDカメラなどであり、運転者の正面下方に設置される。
【0015】
また、上記脇見検出装置1は、撮像部10により撮像された撮像画像に基づき、運転者の脇見行為を検出する処理装置20と、処理装置20が運転者の脇見行為を検出した場合に、その旨を運転者に報知する報知器30とを備えている。
【0016】
次に、処理装置20の詳細構成を図2を参照して説明する。図2は、本発明の第1実施形態に係る脇見検出装置1の機能ブロック図である。
【0017】
上記処理装置20は、撮像部10からの撮像画像のデータに基づいて、運転者の眼の位置を検出する位置検出部21と、運転者の眼の位置を追跡する追跡部(追跡手段)22とを備えている。
【0018】
この位置検出部21は、撮像部10から入力した撮像画像の全体から眼の位置を検出するものである。また、追跡部22は、位置検出部21により検出された運転者の眼の位置を基準にして、眼の位置を含む追跡領域を画像上に定め、後の撮像された画像から眼の位置を検出する場合、追跡領域内から運転者の眼を検出するものである。
【0019】
また、上記処理装置20は、追跡部22から時系列的に出力される眼の位置の移動量と滞留時間とを判定する学習部(学習手段)23を有している。この学習部23は、判定した移動量及び滞留時間に基づいて、運転者が左右のドアミラーやルームミラー等を見たときにおける撮像画像上の眼の位置を学習するものである。
【0020】
また、上記処理装置20は、学習部23にて学習された撮像画像上の眼の位置を基準として画像領域を設定する画像領域設定部(画像領域設定手段)24を備えている。画像領域設定部24は、画像領域を所定個数だけ設定する。ここで、画像領域とは、脇見を検出するための脇見許容時間が割り振られた領域である。画像領域設定部24は、この所定個数の画像領域それぞれに異なる脇見許容時間を割り振る。
【0021】
上記処理装置20は、脇見検出を行う脇見検出部(脇見検出手段)25を具備している。この脇見検出部25は、上記脇見許容時間に基づいて脇見検出を行うものである。詳しくは、脇見検出部25は、追跡部22により追跡される眼の位置がどの画像領域に属するかを判断する。そして、追跡部22により追跡される眼の位置の滞留時間と、眼の位置が属する画像領域の脇見許容時間とに基づいて脇見検出を行う。
【0022】
次に、上記脇見検出装置1の動作の概略を説明する。まず、撮像部10は、運転者の顔を含む領域を撮像し、得られた撮像画像のデータを処理装置20に送出する。
【0023】
処理装置20の位置検出部21は、撮像画像データの入力し、運転者の眼の位置を検出する。眼の位置の検出は、例えば以下のように行う。図3は、位置検出部21が眼の位置の検出に際して行う初期処理の説明図である。なお、図3においては、縦480画素、横512画素の撮像画像を例に説明する。
【0024】
まず、位置検出部21は、画像縦方向にすべての画素について、濃度値のデータを取得する。すなわち、図3に示す座標(0,0)から(0、479)に向かって濃度値データを取得し、次に座標(1,0)から(1、479)に向かって濃度値データを取得する。そして、図3に示すXa及びXbを経て、最終的に座標(511,0)から(511、479)のラインについて濃度値データを取得する。その後、位置検出部21は、濃度値の変化が所定の条件を満たす画素を抽出して、図4に示すような画素群を得る。図4は、位置検出部21が所定の画素を抽出したとき様子を示す説明図である。同図に示すように、抽出された画素は、運転者の眉、眼、鼻及び口の位置に対応するものとなっている。詳細に説明すると、Xcラインについては、2つの画素A1,A2が抽出されている。また、Xdラインについては、4つの画素A1〜A4が抽出されている。これらの画素A1〜A4は、例えば、それぞれ濃度値の変化量によって区別されている。そして、画素の抽出後、位置検出部21は、画像横方向に近接する画素をグループ化する。
【0025】
図5は、画像横方向に近接する画素をグループ化したときの様子を示す説明図である。同図に示すように、グループ化することにより、位置検出部21は、運転者の右眉、左眉、右眼、左眼、鼻及び口それぞれに対応した連続データG1〜G6を形成する。
【0026】
その後、位置検出部21は、ゾーン化の処理を行う。図6は、位置検出部21によるゾーン化後の様子を示す説明図である。位置検出部21は、連続データG1〜G6の存在位置について画像縦方向にゾーン化する。この際、位置検出部21は、3つのゾーン(ZONE:L、ZONE:C、ZONE:R)を形成する。そして、位置検出部21は、相対位置関係を判断して眼の位置を検出する。
【0027】
眼の位置の検出後、追跡部22は、検出された眼の位置の座標値を記憶し、この記憶した位置を基準にして、全体画像よりも小さい追跡領域を設定する。その後、追跡部22は、撮像画像が入力される毎に、追跡領域内において眼の位置を検出する。
【0028】
図7は、追跡部22による眼の位置の追跡の様子を示す説明図であり、(a)は初期の追跡領域を示しており、(b)は初期の追跡領域の設定後に、検出した眼の位置を示しており、(c)は検出した眼の位置に基づいて新たに設定する追跡領域を示しており、(d)は新たに設定した追跡領域内から検出した眼の位置を示している。なお、図7において、破線で示す眼は前回検出されたものとし、実線で示す眼は今回検出されたものとする。
【0029】
位置検出部21により眼の位置が検出された場合、追跡部22は、検出された眼の位置を中心として追跡領域を設定する(図7(a))。このときの眼の座標位置を(xk1,yk1)とする。その後、撮像画像が入力された場合、追跡部22は、(xk1,yk1)を中心とする追跡領域内から眼の位置を検出する(図7(b))。このとき検出された眼の座標位置を(xk2,yk2)とする。
【0030】
そして、追跡部22は、新たに検出された眼の座標位置(xk2,yk2)を中心とする追跡領域を設定する(図7(c))。その後、再度撮像画像が入力された場合、追跡部22は、(xk2,yk2)を中心とする追跡領域内から眼の位置を検出する。このときに検出された眼の座標位置を(xk3,yk3)とする。
【0031】
そして、追跡部22は、再度、新たな眼の座標位置(xk3,yk3)を中心とする追跡領域を設定する(図7(d))。その後、同様に、追跡部22は、追跡領域内から眼の位置を検出していく。
【0032】
追跡部22は、図7に示すように検出した眼の位置のデータを学習部23及び脇見検出部25に送出する。学習部23は、時系列的に入力される眼の位置のデータを学習する。通常、車両運転中の運転者は、確認動作を行うため、ルームミラーや左右のドアミラー等を視認する。このため、学習部23は、撮像画像上の眼の移動量等を判定することで、ルームミラーや左右のドアミラーの位置等を見たときの目の位置を知ることができる。
【0033】
図8は、運転者が前方、ルームミラー、左右のドアミラーを視認したときに様子を示す説明図であり、(a)は運転者が前方を視認しているときの運転者の眼の位置を示している。また、(b)はルームミラーを視認しているときの運転者の眼の位置を示しており、(c)は右ドアミラーを、(d)は左ドアミラーを視認しているときの運転者の眼の位置を示している。さらに、(e)は運転者の視認箇所に応じた眼の座標位置を示している。なお、図8においては、X方向に640画素、Y方向に480画素の画像を例に説明する。
【0034】
図8(a)〜(d)に示すように、運転者が前方、ルームミラー、左右のドアミラーを視認する場合、図8(e)に示すように、画像上から得られる眼の座標位置は、前方を注視している場合を除き、ほぼ一定である。具体的には、運転者が前方を視認している場合、眼の座標位置(x,y)は、(260,220)〜(285,240)において分散している。なお、ここでは両眼の中心位置を眼の座標位置としている。
【0035】
一方、運転者が右ドアミラーを視認している場合、(175,245)付近に集中し、左ドアミラーを視認している場合、(395,245)付近に集中する。また、運転者がルームミラーを視認している場合、(380,220)付近に集中する。
【0036】
このように、ミラー視認時の運転者の眼の位置が或る程度同じ箇所に集中することから、前方視認時とミラー視認時との眼の移動量は、予めデータを採取しておくことにより個人差を含んだ状態で取得しておくことができる。すなわち、所定方向に所定の移動量分だけ眼が移動した場合には、3つのミラーのうちいずれかを視認しようとしていると推測することに役立てることができる。
【0037】
ここで、ミラー視認時の運転者の眼の滞留時間は平均0.7秒とわかっている。図9は、ミラー視認時の運転者の眼の滞留時間と車速との関係を示す説明図である。
【0038】
同図に示すように、運転者の眼の滞留時間は、約0.7秒の箇所に集中していることがわかる。また、この時間は車速に影響を受けることがないこともわかる。従って、上記移動方向及び移動量と、眼の滞留時間に基づいて、どのミラーを視認したかを特定できることとなる。
【0039】
学習部23は、上記ように、眼の移動方向及び移動量と、眼の滞留時間に基づいて、運転者がミラーを見たときの撮像画像上の眼の位置を学習する。そして、学習部23は、学習した眼の位置のデータを画像領域設定部24に送出する。
【0040】
画像領域設定部24は、上記学習部23にて学習された眼の位置のデータに基づいて、脇見許容時間が異なる所定個数の画像領域を設定する。すなわち、左右ドアミラー、ルームミラーを視認しているときの眼の位置に基づいて、撮像画像上に画像領域を設定する。
【0041】
図10は、脇見許容時間が異なる所定個数の画像領域の例を示す説明図であり、(a)は所定個数の画像領域の例を示しており、(b)は画像領域毎の脇見許容時間の例を示している。なお、図10(a)に示す縦方向及び横方向の数値は、運転者の顔向き角度を示している。また、画像領域は、本来撮像画像上に設定されるものであるが、図10においては説明の便宜上、運転者の視界に基づいた画像領域を説明することとする。さらに、以下の説明において、運転者が運転中に最も多く視認する前方の領域を前方注視領域とする。
【0042】
画像領域設定部24は、図10(a)に示すように、例えば5つの画像領域A〜Eを設定する。まず、画像領域設定部24は、ルームミラー視認時の眼の位置に基づいて、画像領域Aの右端を決定する。また、画像領域設定部24は、右ドアミラー視認時の眼の位置に基づいて、画像領域Bの左端及び下端を決定し、左ドアミラー視認時の眼の位置に基づいて、画像領域Cの右端及び下端を決定する。また、画像領域Eについて、左右ドアミラー視認時の眼の位置に基づいて、上端を決定する。
【0043】
また、画像領域設定部24は、画像領域Dの左端を右方向の追跡限界位置に基づいて決定する。図11は、画像領域設定部24による画像領域Dの設定方法の説明図であり、(a)は運転者が左ドアミラーを見たときの顔の向きの様子を示しており、(b)は運転者が右ドアミラーを見たときの顔の向きの様子を示している。
【0044】
図11(a)に示すように、運転者が左ドアミラーを見た運転者の左眼の位置は、ほぼ追跡限界に達している。つまり、運転者が左ドアミラーを見ている状態から、これ以上顔を左に向けると、左眼が撮像されないようになってしまう。このように、左ドアミラー視認時においては、運転者の左眼を撮像できる限界に達している。
【0045】
また、図11(b)に示すように、運転者が右方を視認している場合に、右目が追跡限界に達することがある。例えば、運転者が交差点の確認等で右ドアミラーよりもさらに右方を視認している場合などである。この場合、運転者がこれ以上顔を右に向けると、右眼が撮像されないようになってしまう。この位置が右方向の追跡限界位置である。画像領域設定部24は、撮像画像内から右方向の限界位置を特定し、この追跡限界位置に基づいて画像領域Dの左端を決定し、画像領域Dを設定する。
【0046】
なお、右方向の追跡限界位置は、上記のように、撮像画像から求めるようにしてもよいが、他の方法によっても求めてもよい。すなわち、左ドアミラー視認時の追跡限界位置に基づいて、演算により右方向の追跡限界位置を求めるようにしてもよい。この場合、左方向の追跡限界位置と対象となる位置を求めるようにすれば、右方向の追跡限界の位置が求められることとなる。
【0047】
図12は、撮像画像上に設定された画像領域A〜Eの具体例の説明図である。図10(a)に示す画像領域を撮像画像上に置き換えると、図12に示すようになる。これら領域A〜Eは、上記したように、ルームミラーの視認時における眼の座標位置、及び左右ドアミラー視認時における眼の座標位置を基準として設定されている。また、左右の追跡限界位置も基準となっている。
【0048】
再度、図10を参照する。画像領域設定部24は、上記のようにして割り付けた画像領域A〜Eのそれぞれに異なる脇見許容時間を設定する。例えば、図10(b)に示すように、画像領域Dの脇見許容時間は、画像領域Bの脇見許容時間よりも小さい。これは、画像領域Dの方が画像領域Bよりも顔向き角度が大きくなるからである。また、同様に、画像領域Cの脇見許容時間は、画像領域Aの脇見許容時間よりも小さくなる。
【0049】
さらに、画像領域Bの脇見許容時間は、画像領域Aの脇見許容時間よりも小さくなる。両領域A,Bを視認した場合、運転者の顔向き角度はほぼ同じである。ところが、画像領域Bと前方注視領域の間にはピラーが設けられている。そして、このピラーにより運転者が画像領域Bを視認している場合には、前方注視領域が見えにくくなってしまう。このため、両領域A,Bの顔向き角度はほぼ同じであっても、画像領域Bの脇見許容時間は、画像領域Aの脇見許容時間よりも小さくなる。
【0050】
また、画像領域Dの脇見許容時間は、画像領域Cの脇見許容時間よりも小さくなる。これら両領域C,Dについても顔向き角度はほぼ同じである。そして、画像領域Bと前方注視領域の間には、画像領域Bを介してピラーが設置されている。同様に、画像領域Cと前方注視領域の間にもピラーが設置されている。ところが、左側のピラーは運転者に対して右側のピラーよりも遠い位置に設置されている。このため、運転者からの見かけ上のピラーの太さは、異なることとなる。そして、運転者にとっては、見かけ上のピラーの太さが太い方が、前方注視領域の視認の障害となる。故に、画像領域Dの脇見許容時間は、画像領域Cの脇見許容時間よりも小さくなる。
【0051】
さらに、画像領域Eの脇見許容時間は、画像領域Dの脇見許容時間とほぼ同じである。例えば運転者がオーディオ装置等の設置位置を視認する場合、瞼が下がるために前方注視領域が殆ど見えなくなってしまう。このため、画像領域Eは、脇見許容時間が短くなり、前述までに最も脇見許容時間が最も短かった画像領域Dとほぼ同等となってしまう。
【0052】
そして、脇見検出部25は、このように設定された画像領域A〜E及び脇見許容時間に基づいて、運転者の脇見行為を検出することとなる。すなわち、画像領域A〜E内のいずれかに眼の位置が納まったまま、脇見許容時間が経過した場合に、脇見検出部25は、運転者の脇見行為を検出することとなる。
【0053】
次に、本実施形態に係る脇見検出装置1の動作を詳細に説明する。まず、脇見検出装置1の撮像部10は、運転者の顔を含む領域を撮像し、得られた撮像画像のデータを処理装置20に送出する。
【0054】
そして、処理装置20は、図13に従う処理を実行する。図13は、図1に示した処理装置20の詳細動作を示すフローチャートである。
【0055】
同図に示すように、まず、位置検出部21は、撮像画像のデータを入力する(ST10)。その後、位置検出部21は、眼の追跡領域が設定されているか否かを判断する(ST11)。眼の追跡領域が設定されていると判断した場合(ST11:YES)、処理はステップST14に移行する。
【0056】
一方、眼の追跡領域が設定されていないと判断した場合(ST11:NO)、位置検出部21は、画像全体から眼の位置を検出する(ST12)。ここでは、図3〜図6を参照して説明したように、眼の位置を検出する。そして、位置検出部21は、眼の位置のデータを追跡部22に送出する。
【0057】
その後、追跡部22は、位置検出部21からの眼の位置のデータに基づいて、追跡領域を設定する(ST13)。そして、追跡部22は、新たに入力される撮像画像のデータに基づいて、追跡領域内から眼を検出する(ST14)。その後、追跡部22は、眼の追跡が正しく行われているか否かを判断する(ST15)。
【0058】
眼の追跡が正しく行われていないと判断した場合(ST15:NO)、追跡部22は、眼の追跡領域をクリアし(ST16)、処理はステップST10に戻る。この場合、再度追跡領域の設定が行われることとなる。
【0059】
一方、眼の追跡が正しく行われていると判断した場合(ST15:YES)、追跡部22は、目の追跡領域を更新する(ST17)。すなわち、図7を参照して説明したように、眼の位置に基づき追跡領域を更新することとなる。
【0060】
その後、学習部23は、所定位置視認時の眼の位置の学習は終了したか否かを判断する(ST18)。すなわち、ルームミラー、左右のドアミラー及び右方向の追跡限界位置のすべての学習が終了したか否かを判断している。所定位置視認時の眼の位置の学習は終了していないと判断した場合(ST18:NO)、学習部23は、眼の位置の学習処理を行う(ST19)。そして、処理はステップST10に戻ることとなる。
【0061】
そして、上記処理を繰り返し、眼の位置の学習が終了した場合、ステップST18にて「YES」と判断される。その後、画像領域設定部24は、画像領域が設定されているか否かを判断する(ST20)。画像領域が設定されていると判断した場合(ST20:YES)、処理はステップST22に移行する。
【0062】
一方、画像領域が設定されていないと判断した場合(ST20:NO)、画像領域設定部24は、所定個数の画像領域を設定すると共に、それら画像領域に異なる脇見許容時間を設定する(ST21)。
【0063】
その後、脇見検出部25は、追跡部22からの眼の位置のデータと、画像領域設定部24からの画像領域に関するデータに基づいて、脇見検出処理を行う(ST22)。
【0064】
この処理により脇見が検出されなかった場合、処理は、ステップST10に戻ることとなる。一方、脇見は検出された場合、脇見検出部25は、報知器30に脇見があった旨を示すデータを送出する。そして、報知器30は報知動作を行う(ST23)。その後、処理は終了する。
【0065】
このようにして、運転者の脇見行為の検出が行われる。上記したように、ステップST21において、脇見許容時間が異なる所定個数の画像領域が設定され、ステップST22において、脇見検出が行われる。この脇見許容時間は、図10を参照して説明したように、車両内の構造物等、例えばピラーの設置位置を考慮して定められたものであり、従来に比してより適切なものとなっている。そして、この適切な脇見許容時間に基づいて脇見検出を行うため、検出精度の高い装置が得られることとなる。
【0066】
次に、図13に示した学習処理(ST19)の詳細を図14〜図17を参照して説明する。図14は、図13に示した眼の位置の学習処理(ST19)の詳細を示すフローチャートであり、ルームミラーの視認時の学習処理を示している。
【0067】
同図に示すように、まず、学習部23は、眼の位置が右方向に所定量M1だけ移動したか否かを判断する(ST30)。眼の位置が右方向に所定量M1だけ移動していないと判断した場合(ST30:NO)、処理はステップST32に移行する。
【0068】
一方、眼の位置が右方向に所定量M1だけ移動したと判断した場合(ST30:YES)、学習部23は、眼の移動フラグFL1をオンし、図15〜図17にて説明する他の移動フラグFL2〜FL4をオフにする(ST31)。
【0069】
その後、学習部23は、眼の移動フラグFL1がオンで、且つ所定量M1だけ移動した位置に所定時間だけ眼の位置が滞留したか否かを判断する(ST32)。眼の移動フラグFL1がオンでなく、又は所定量M1だけ移動した位置に所定時間眼の位置が滞留しなかったと判断した場合(ST32:NO)、図14に示す処理は終了する。
【0070】
ここで、そもそも眼の位置が右方向に所定量M1だけ移動していなかった場合(ステップST30にて「NO」となった場合)、移動フラグFL1がオンとならないことから、図14に示す処理は終了することとなる。また、右方向に所定量M1だけ移動した場合であっても、滞留時間が短かった場合には、図14に示す処理は終了することとなる。なお、ステップST32における所定時間は、例えば「0.7秒」に設定される。
【0071】
このように、学習処理において、眼の位置のデータを学習すべきでないものを排除する処理を行い、後の処理にて不的確に画像領域を設定しないようにしている。
【0072】
ところで、眼の移動フラグFL1がオンで、且つ所定量M1だけ移動した位置に所定時間だけ眼の位置が滞留したと判断した場合(ST32:YES)、学習部23は、眼の移動フラグFL1をオフする(ST33)。そして、学習部23は、眼が滞留している位置に、矩形の小領域aが設定されているか否かを判断する。
【0073】
眼が滞留している位置に、矩形の小領域aが設定されていないと判断した場合(ST34:NO)、その滞留位置に矩形小領域aを設定し(ST35)、図14に示す処理は終了する。
【0074】
一方、矩形小領域aが設定されていると判断した場合(ST34:YES)、カウンタαの数値をカウントアップする(ST36)。ここで、矩形小領域aが設定されているものの、眼の滞留位置が矩形小領域a内でなかった場合、再度ステップST35にて小領域aを設定するか、図14に示す処理を終了させるなど行う(図示せず)。
【0075】
その後、学習部23は、カウンタαの数値が所定値に達したか否かを判断する(ST37)。カウンタαの数値が所定値に達していないと判断した場合(ST37:NO)、図14に示す処理は終了する。
【0076】
一方、カウンタαの数値が所定値に達したと判断した場合(ST37:YES)、学習部23は、例えば小領域aの位置をルームミラー視認時の眼の位置とする(ST38)。これにより、学習部23は、眼の位置の学習を完了する。その後、図14に示す処理は終了する。
【0077】
ところで、図14に示す処理が行われるのと並行して、図15〜図17に示す処理も実行される。図15〜図17は、図13に示した眼の位置の学習処理(ST19)の詳細を示すフローチャートである。なお、図15は左ドアミラーの視認時の、図16は右ドアミラー視認時の、図17は右後方視認時の学習処理を示している。
【0078】
図15に示すステップST40〜ステップST48は、図14に示したステップST30〜ステップST38と同様であるため、説明を省略する。また、図16に示すステップST50〜ステップST58、及び図17に示すステップST60〜ステップST68についても同様に省略する。なお、図15〜図17の処理では、それぞれステップST40,50,60において移動方向、及び移動量M2〜M4が異なり、また、図17については右後方確認時の所定時間が異なる。
【0079】
また、当然に小領域b〜d及びカウントアップを行うカウンタβ〜θ等も異なっている。
【0080】
次に、図13に示した脇見判定(ST22)について詳細に説明する。図18は、図13に示した脇見判定(ST22)の詳細なフローチャートである。なお、図18においては、画像領域A内に眼が存在する否かを判断する処理について説明する。また、図18では、画像領域Aに眼の位置が納まっている場合を示しているが、他の画像領域B〜Eについても同様である。
【0081】
まず、脇見検出部25は、画像領域A内に眼が存在するか否かを判断する(ST70)。眼が画像領域A内に存在すると判断した場合(ST70:YES)、脇見検出部25は、タイマーが作動中か否かを判断する(ST71)。
【0082】
タイマーが作動中であると判断した場合(ST71:YES)、処理はステップST73に移行する。一方、タイマーが作動中でないと判断した場合(ST71:NO)、脇見検出部25は、タイマーをスタートさせる(ST72)。
【0083】
その後、脇見検出部25は、タイマーにて計時される時間(即ち滞留時間)が、画像領域Aに設定される脇見許容時間を超えたか否かを判断する(ST73)。脇見許容時間を超えていないと判断した場合(ST73:NO)、図18に示す処理は終了する。
【0084】
一方、脇見許容時間を超えたと判断した場合(ST73:YES)、脇見検出部25は、警報出力を行うと共に、タイマーをリセットする(ST74)。そして、図18に示す処理は終了する。
【0085】
また、ステップST70において、眼が画像領域A内に存在しないと判断した場合(ST70:NO)、脇見検出部25は、警報出力をすることなく、タイマーをリセットし(ST75)、その後処理は終了する。
【0086】
ところで、本実施形態では、画像領域A〜Eの設定処理(ST21)は、ルームミラー、左右のドアミラー及び右方向の追跡限界位置(演算による算出を含む)のすべてについての学習が行われることで、実行されるようになっている。しかし、上記視認位置の学習が1つでも完了すれば、その位置を基準に画像領域のいずれかを設定し、脇見判定を開始するようにしてもよい。この場合、画像領域設定部24は、撮像画像上の眼の位置の学習が完了する毎に、順次画像領域を設定していくこととなる。
【0087】
図19は、段階的に画像領域を設定する場合の処理を示す説明図である。同図に示すように、まず、学習部23は、画像領域Aが未設定であり、且つルームミラー視認時の眼の位置の学習が終了したか否かを判断する(ST80)。画像領域Aが未設定、且つルームミラー視認時の眼の位置の学習が終了したと判断した場合(ST80:YES)、画像領域設定部24は、画像領域Fを設定し、さらにその領域Fの脇見許容時間を設定する(ST81)。そして、図19に示す処理は終了する。
【0088】
この画像領域Fは、例えば図20に示すようなものである。図20は、段階的に設定する画像領域の例を示す説明図である。画像領域Fは、画像領域A,Cと画像領域Eの一部を含む領域である。ステップST81にて画像領域Fを設定することとしたのは、ルームミラー視認時の眼の位置により、前方注視領域と画像領域Aとの境界を設定することができるからである。また、ルームミラー視認時の眼の位置だけでは、画像領域Aと画像領域Cとの境界が設定できないため、画像領域Aによりも顔向き角度が大きい側の領域を含むようにしている。さらに、ルームミラー視認時の眼の位置だけでは、領域の下端が設定できないため、画像領域Eの一部を含むようにしている。
【0089】
再度、図19を参照して説明する。画像領域Aが未設定であるか、又はルームミラー視認時の眼の位置の学習が終了しているかのいずれか一方でも満たさないと判断した場合(ST80:NO)、処理は、ステップST82に移行する。そして、学習部23は、画像領域Cが未設定であり、且つ左ドアミラー視認時の眼の位置の学習が終了したか否かを判断する(ST82)。
【0090】
そして、画像領域Cが未設定、且つ左ドアミラー視認時の眼の位置の学習が終了したと判断した場合(ST82:YES)、画像領域設定部24は、画像領域Cを設定し、さらにその領域Cの脇見許容時間を設定する(ST83)。
【0091】
ここでの画像領域Cは、図20に示すようなものであり、図12を参照して説明したものと同じである。左ドアミラー視認時の眼の位置が確定すると、前述のように画像領域Cの右端及び下端が決定するので、画像領域設定部24は、画像領域Cを決定し、さらに脇見許容時間を設定する。
【0092】
その後、画像領域設定部24は、画像領域Eが設定済みか否かを判断する(ST84)。画像領域Eが設定済みであると判断した場合(ST84:YES)、図19に示す処理は終了する。
【0093】
一方、画像領域Eが設定済みでないと判断した場合(ST84:NO)、画像領域設定部24は、画像領域E及び領域Eの脇見許容時間を設定する(ST85)。そして、図19に示す処理は終了する。
【0094】
ここでの画像領域Eは、図20に示すようなものであり、図12を参照して説明した者と同様である。左ドアミラー視認時の眼の位置が確定すると、前述のように画像領域Eの上端を決定することができる。このため、画像領域設定部24は、左ドアミラー視認時の眼の位置に基づいて、画像領域Gの上端を決定し、さらに領域Gの脇見許容時間を設定する。
【0095】
再度、図19を参照して説明する。画像領域Cが未設定であるか、又は左ドアミラー視認時の眼の位置の学習が終了しているかのいずれか一方でも満たさないと判断した場合(ST82:NO)、処理は、ステップST86に移行する。そして、学習部23は、画像領域Bが未設定であり、且つ右ドアミラー視認時の眼の位置の学習が終了したか否かを判断する(ST86)。
【0096】
そして、画像領域Bが未設定、且つ右ドアミラー視認時の眼の位置の学習が終了したと判断した場合(ST86:YES)、画像領域設定部24は、画像領域Gを設定し、さらにその領域Gの脇見許容時間を設定する(ST87)。
【0097】
ここでの画像領域Gは、図20に示すようなものであり、画像領域Bと画像領域Dとを加えた広さの領域である。ステップST87にて画像領域Gを設定することとしたのは、右ドアミラー視認時の眼の位置により、前方注視領域と画像領域Bとの境界を設定することができるからである。また、右ドアミラー視認時の眼の位置だけでは、画像領域Bと画像領域Dとの境界が設定できないためである。
【0098】
再度、図19を参照する。画像領域G及びその領域Gの脇見許容時間の設定後、処理はステップST84に移行する。そして、上記のように同様の処理を経て、図19に示す処理は終了する。
【0099】
また、画像領域Bが未設定であるか、又は右ドアミラー視認時の眼の位置の学習が終了しているかのいずれか一方でも満たさないと判断した場合(ST86:NO)、処理は、ステップST88に移行する。そして、学習部23は、画像領域Dが未設定であり、且つ右後方視認時の眼の位置の学習が終了したか否かを判断する(ST88)。
【0100】
そして、画像領域Dが未設定、且つ右後方視認時の眼の位置の学習が終了したと判断した場合(ST88:YES)、画像領域設定部24は、画像領域Dを設定し、さらにその領域Dの脇見許容時間を設定する(ST89)。
【0101】
ここでの画像領域Dは、図20に示すようなものであり、図12を参照して説明したものと同じである。右後方視認時の眼の位置が確定すると、前述のように画像領域Dと画像領域Bとの境界が決定するので、画像領域設定部24は、画像領域Dを決定し、さらに領域Dの脇見許容時間を設定する。そして、図19に示す処理は終了する。
【0102】
また、画像領域Dが未設定であるか、又は右後方視認時の眼の位置の学習が終了しているかのいずれか一方でも満たさないと判断した場合(ST88:NO)、図19に示す処理は終了する。
【0103】
このようにして、本実施形態に係る脇見検出装置1によれば、撮像画像上の眼の位置を基準として脇見許容時間が異なる所定個数の画像領域を設定している。通常、運転者はルームミラー等の比較的多く視認する。このため、撮像画像上の眼の位置を基準とすることで、ルームミラー等の位置に基づく、画像領域が設定できる。また、ルームミラー等の位置に基づくため、運転者の視界を遮るピラー等を考慮に入れた脇見許容時間を所定個数の画像領域それぞれに割り振ることもできる。
【0104】
そして、各画像領域に割り振られた脇見許容時間と追跡される眼の位置とに基づいて脇見検出を行う。このため、車両内環境に適合して各画像領域に割り振られた脇見許容時間に基づいて、脇見検出が行うことができる。
【0105】
従って、運転者の脇見行為の検出につき、精度向上を図ることができる。
【0106】
また、学習部23は、左右のドアミラー及びルームミラーの位置を見たときの撮像画像上の眼の位置を学習している。通常、運転中において運転者は、左右のドアミラー及びルームミラーの位置を多く視認する。このため、検出される眼の位置は、左右のドアミラー及びルームミラーを見たときの位置が多くなり、検出により得られるデータ量は他の車両内部の構造物を見ている場合に比して多くなる。故に、画像領域を決定するまでの時間が、他の車両内部の構造物を見ている場合に比して短くなる。従って、画像領域の設定までの時間を短縮することができる。
【0107】
また、学習部23は、運転者の眼が追跡限界位置に達したときの撮像画像上の眼の位置を学習している。通常、運転中において運転者は、比較的頻繁に右後方確認などを行う。このため、検出により得られるデータ量は他の車両内部の構造物を見ている場合に比して多くなる。故に、画像領域を決定するまでの時間が、他の車両内部の構造物を見ている場合に比して短くなる。従って、画像領域の設定までの時間を短縮することができる。
【0108】
また、学習部23は、運転者の眼が左右いずれか一方の追跡限界位置に達したときの撮像画像上の眼の位置を学習する。そして、学習した眼の位置に基づいて、運転者の眼が他方の追跡限界位置に達したときの撮像画像上の眼の位置を推定している。このため、他方の追跡限界位置に達したときの撮像画像上の眼の位置を検出していなくとも、推定により得られる位置に基づいて画像領域を設定することが可能となる。従って、画像領域の設定までの時間を短縮することができる。
【0109】
また、画像領域設定部24は、撮像画像上の眼の位置が学習される毎に、順次画像領域を設定していく。このため、すべての眼の位置の学習を待つことなく、画像領域は設定されていくので、脇見検出を行うまでの時間を短縮することができる。
【0110】
なお、上記実施形態において、図19に示した処理は、図12に示すステップST19,ST20,ST21に代えて、実行するようにすればよい。
【0111】
次に、本発明の第2実施形態を説明する。第2実施形態に係る脇見検出装置2は、第1実施形態のものと同様であるが、指示部(指示手段)40を備える点で、第1実施形態のものと異なっている。
【0112】
以下、第2実施形態に係る脇見検出装置2について説明する。図21は、本発明の第2実施形態に係る脇見検出装置2の構成図である。指示部40は、操作されることにより、学習部23に眼の位置の学習を行わせるものである。具体的に、指示部40は、車両の正面下方に設置されるスイッチ等から構成される。
【0113】
図22は、本発明の第2実施形態に係る脇見検出装置2の機能ブロック図である。同時に示すように、指示部40は、処理装置20内の学習部23に接続されている。この指示部40は、操作されることにより、所定の信号を学習部23に送出する。そして、これを受けた学習部23は、眼の位置の学習を開始する。
【0114】
図23は、図21に示した処理装置20の詳細動作を示すフローチャートである。なお、同図におけるステップST90〜ST96、及びステップST100〜T103は、図13に示したステップST10〜ST19、及びステップST20〜T23とそれぞれ同様であるため、説明を省略する。
【0115】
ステップST96において、学習部23は、眼の位置の学習処理を行う。このとき、運転者が指示部40を操作すると、所定の信号が送出される。
【0116】
学習部23は、ステップST97において、所定の信号が送出されたか否かを判断することで、指示部40が操作されたか否かを判断する。指示部40が操作されていないと判断した場合(ST97:NO)、処理はステップST90に戻る。
【0117】
一方、指示部40が操作されたと判断した場合(ST97:YES)、学習部23は、その指示に従って学習処理を開始する(ST98)。このとき行われる学習処理は、図14〜図17に示したものと同様であるが、ステップST96の処理と異なり、現在運転者が視認している位置を強制的に学習するものである。すなわち、運転者がルームミラーを視認している状態で、指示部40が操作されると、その位置を強制的に学習することとなる。
【0118】
そして、学習部23は、指示部40の操作を契機として行われた学習処理について、学習が完了したか否かを判断する(ST99)。学習が完了していないと判断した場合(ST99:NO)、処理はステップST90に戻る。一方、学習は完了したと判断した場合(ST99:YES)、画像領域設定部24は、画像領域が設定されているか否かを判断する(ST100)。そして、以後図13のステップST20〜T23と同様の処理が行われていく。
【0119】
このようにして、本実施形態に係る脇見検出装置2によれば、第1実施形態と同様に、運転者の脇見行為の検出につき、精度向上を図ることができ、画像領域の設定までの時間を短縮することができる。また、脇見検出を行うまでの時間を短縮することができる。
【0120】
また、操作されることにより、学習部23に眼の位置の学習を行わせる指示部40を備えている。このため、運転者が指示部40を操作するだけで、容易に眼の位置が学習され、画像領域の設定までの時間が短縮されることとなる。従って、運転開始時等から早期に脇見検出を行うことができる。
【0121】
次に、本発明の第3実施形態を説明する。第3実施形態に係る脇見検出装置3は、第1実施形態のものと同様であるが、走行状態検出部(走行状態検出手段)50及び許容時間変更部(許容時間変更手段)26を備える点で、第1実施形態のものと異なっている。
【0122】
以下、第3実施形態に係る脇見検出装置3について説明する。図24は、本発明の第3実施形態に係る脇見検出装置3の構成図である。走行状態検出部50は、車両の走行状態を検出するものであり、車速センサ51、車間距離センサ52(距離センサ)、及びナビゲーション装置53を含むものである。
【0123】
車速センサ51は、車両の車速を検出するものであり、例えば、自動変速機の出力側に設けられたセンサや、車輪の回転を検出するために設けられた車輪速センサ等から構成される。また、車間距離センサ52は、先行車両と自車両との距離を検出するものであり、例えばCCDカメラによる画像処理、赤外線カメラ、超音波センサ、ミリ波レーダ、レーザーレーダ等から構成される。
【0124】
また、ナビゲーション装置53は、自車位置、目的地、及び目的地までの経路等を運転者に提示することにより、車両を目的地まで案内するものである。また、ナビゲーション装置53は、地図上の道路の種別に関する情報を運転者に提示する機能を有している。
【0125】
図25は、本発明の第3実施形態に係る脇見検出装置3の機能ブロック図である。同時に示すように、第3実施形態に係る脇見検出装置3は、処理装置20内に許容時間変更部26を有している。
【0126】
許容時間変更部26は、走行状態検出部50からの出力信号に応じて、脇見許容時間を変更するものである。具体的に、許容時間変更部26は、車速センサ51からの車速信号に基づき、車両の速度が速くなるに従って脇見許容時間を短くする。また、許容時間変更部26は、車間距離センサ52からの距離信号に基づき、自車両が先行車両に近くなるに従って脇見許容時間を短くする。さらに、許容時間変更部26は、ナビゲーション装置53からの道路の種別に関する情報に基づき、自車両が自動車専用道路を走行しているときの脇見許容時間よりも、一般道路を走行しているときの脇見許容時間を短くする。
【0127】
次に、車速に基づいて脇見許容時間を変更する場合の動作を説明する。図26は、図24に示した処理装置20の詳細動作を示すフローチャートであり、車速に応じて脇見許容時間を変更する場合の例を示している。また、図26は、画像領域Aの脇見許容時間を変更する場合を説明する。
【0128】
まず、許容時間変更部26は、車速センサ51からの車速信号を入力し、車速を検出する(ST110)。そして、許容時間変更部26は、車速に応じた数値等を求める。また、許容時間変更部26は、画像領域設定部24にて設定された画像領域Aの脇見許容時間の情報を脇見検出部25から読み取る。そして、数値等の情報と、読み取った脇見許容時間の情報に基づいて、脇見許容時間の変更を行い、これを設定する(ST111)。
【0129】
この変更に際し、許容時間変更部26は、所定の演算式やマップデータ等を用いて、脇見許容時間の変更を行う。図27は、車速に応じた脇見許容時間の例を示す説明図である。具体的に、許容時間変更部26は、図27に示すように車速が速くなるに従って脇見許容時間を短くしている。なお、図27の領域A〜Eは、図12を参照して説明した画像領域A〜Eを指している。
【0130】
再度図26を参照する。脇見許容時間の変更後、処理は、ステップST112に移行し、ステップST112以降の処理を経て終了する。ステップST112〜ステップST117の処理は、図18に示したステップST70〜ステップST75の処理と同様であるため、説明を省略する。
【0131】
次に、車間距離に基づいて脇見許容時間を変更する場合の動作を説明する。図28は、図24に示した処理装置20の詳細動作を示すフローチャートであり、車間距離に応じて脇見許容時間を変更する場合の例を示している。また、図26は、画像領域Aの脇見許容時間を変更する場合を説明する。
【0132】
まず、許容時間変更部26は、車間距離センサ52からの距離信号を入力し、先行車までの距離を検出する(ST120)。そして、許容時間変更部26は、車間距離に応じた数値等を求める。また、許容時間変更部26は、画像領域設定部24にて設定された画像領域Aの脇見許容時間の情報を脇見検出部25から読み取る。そして、数値等の情報と、読み取った脇見許容時間の情報に基づいて、脇見許容時間の変更を行い、これを設定する(ST121)。
【0133】
この変更に際し、許容時間変更部26は、所定の演算式やマップデータ等を用いて、脇見許容時間の変更を行う。図29は、車速に応じた脇見許容時間の例を示す説明図である。具体的に、許容時間変更部26は、図29に示すように自車両が先行車両に近くなるに従って脇見許容時間を短くしている。なお、図27の領域A〜Eは、図12を参照して説明した画像領域A〜Eを指している。
【0134】
再度図28を参照する。脇見許容時間の変更後、処理は、ステップST122に移行し、ステップST122以降の処理を経て終了する。ステップST122〜ステップST127の処理は、図18に示したステップST70〜ステップST75の処理と同様であるため、説明を省略する。
【0135】
次に、道路の種別に関する情報に基づいて脇見許容時間を変更する場合の動作を説明する。図30は、図24に示した処理装置20の詳細動作を示すフローチャートであり、道路種別情報に基づいて脇見許容時間を変更する場合の例を示している。また、図30は、画像領域Aの脇見許容時間を変更する場合を説明する。
【0136】
まず、許容時間変更部26は、ナビゲーション装置53からの道路種別情報を入力し、自車両が一般道から自動車専用道路に入ったか否かを判断する(ST130)。
【0137】
自車両が一般道から自動車専用道路に入っていないと判断した場合(ST130:NO)、処理はステップST132に移行する。一方、自車両が一般道から自動車専用道路に入ったと判断した場合(ST130:YES)、許容時間変更部26は、画像領域設定部24にて設定された画像領域Aの脇見許容時間の情報を脇見検出部25から読み取る。そして、読み取った脇見許容時間を長く設定する。詳しくは、許容時間変更部26は、「脇見許容時間=脇見許容時間×1.2」とし、求められた新たな脇見許容時間を設定する(ST131)。
【0138】
その後、許容時間変更部26は、ナビゲーション装置53からの道路種別情報を入力し、自車両が自動車専用道路から一般道に入ったか否かを判断する(ST132)。
【0139】
自車両が自動車専用道路から一般道に入っていないと判断した場合(ST132:NO)、処理はステップST134に移行する。一方、自車両が自動車専用道路から一般道に入ったと判断した場合(ST132:YES)、許容時間変更部26は、画像領域設定部24にて設定された画像領域Aの脇見許容時間の情報を脇見検出部25から読み取る。そして、読み取った脇見許容時間を短く設定する。詳しくは、許容時間変更部26は、「脇見許容時間=脇見許容時間×0.83」とし、求められた新たな脇見許容時間を設定する(ST133)。
【0140】
脇見許容時間の変更後、処理は、ステップST134に移行し、ステップST134以降の処理を経て終了する。ステップST134〜ステップST139の処理は、図18に示したステップST70〜ステップST75の処理と同様であるため、説明を省略する。
【0141】
このようにして、本実施形態に係る脇見検出装置3によれば、第1実施形態と同様に、運転者の脇見行為の検出につき、精度向上を図ることができ、画像領域の設定までの時間を短縮することができる。また、脇見検出を行うまでの時間を短縮することができる。
【0142】
また、車両の走行状態を検出し、検出結果に応じて脇見許容時間を変更している。このため、車室内環境だけでなく、車両周囲の環境等をも考慮して脇見許容時間を変更できることなる。従って、運転者の脇見行為の検出につき、一層の精度向上を図ることができる。
【0143】
また、車速センサ51からの車速信号に基づき、車両の速度が速くなるに従って脇見許容時間を短くしている。このため、例えば、車両速度が速い場合には、運転者が前方注視領域近くを視認していたとしても脇見許容時間を短くすることができ、より適切に、脇見検出を行うことができる。
【0144】
また、車間距離センサ52からの距離信号に基づき、自車両が先行車両に近くなるに従って脇見許容時間を短くしている。このため、例えば、先行車両までの距離が短い場合には、運転者が前方注視領域近くを視認していたとしても脇見許容時間を短くすることができ、より適切に、脇見検出を行うことができる。
【0145】
また、通常、一般道は歩行者や信号等があり、自動車専用道路は歩行者や信号等がない。このように、一般道は自動車道路よりも車両の停止機会が多いのが実情である。また、自動車専用道路は路側帯も広めであることが多い。このため、自動車専用道路を走行時よりも一般道路を走行時の脇見許容時間を短くすることで、より適切に、脇見検出を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る脇見検出装置の構成図である。
【図2】本発明の第1実施形態に係る脇見検出装置の機能ブロック図である。
【図3】位置検出部が眼の位置の検出に際して行う初期処理の説明図である。
【図4】位置検出部が所定の画素を抽出したとき様子を示す説明図である。
【図5】画像横方向に近接する画素をグループ化したときの様子を示す説明図である。
【図6】位置検出部によるゾーン化後の様子を示す説明図である。
【図7】追跡部による眼の位置の追跡の様子を示す説明図であり、(a)は初期の追跡領域を示しており、(b)は初期の追跡領域の設定後に、検出した眼の位置を示しており、(c)は検出した眼の位置に基づいて設定する追跡領域を示しており、(d)は新たに設定した追跡領域内から検出した眼の位置を示している。
【図8】運転者が前方、ルームミラー、左右のドアミラーを視認したときに様子を示す説明図であり、(a)は運転者が前方を視認しているときの運転者の眼の位置を示し、(b)はルームミラーを視認しているときの運転者の眼の位置を示し、(c)は右ドアミラーを視認しているときの運転者の眼の位置を示し、(d)は左ドアミラーを視認しているときの運転者の眼の位置を示し、(e)は運転者の視認箇所に応じた眼の座標位置を示している。
【図9】ミラー視認時の運転者の眼の滞留時間と車速との関係を示す説明図である。
【図10】脇見許容時間が異なる所定個数の画像領域の例を示す説明図であり、(a)は所定個数の画像領域の例を示しており、(b)は画像領域毎の脇見許容時間の例を示している。
【図11】画像領域設定部による画像領域の設定方法の説明図であり、(a)は運転者が左ドアミラーを見たときの顔の向きの様子を示しており、(b)は運転者が右ドアミラーを見たときの顔の向きの様子を示している。
【図12】撮像画像上に設定された画像領域の具体例の説明図である。
【図13】図1に示した処理装置の詳細動作を示すフローチャートである。
【図14】図13に示した眼の位置の学習処理(ST19)の詳細を示すフローチャートであり、ルームミラーの視認時の学習処理を示している。
【図15】図13に示した眼の位置の学習処理(ST19)の詳細を示すフローチャートであり、左ドアミラーの視認時の学習処理を示している。
【図16】図13に示した眼の位置の学習処理(ST19)の詳細を示すフローチャートであり、右ドアミラー視認時の学習処理を示している。
【図17】図13に示した眼の位置の学習処理(ST19)の詳細を示すフローチャートであり、右後方視認時の学習処理を示している。
【図18】図13に示した脇見判定(ST22)の詳細なフローチャートである。
【図19】段階的に画像領域を設定する場合の処理を示す説明図である。
【図20】段階的に設定する画像領域の例を示す説明図である。
【図21】本発明の第2実施形態に係る脇見検出装置の構成図である。
【図22】本発明の第2実施形態に係る脇見検出装置の機能ブロック図である。
【図23】図21に示した処理装置の詳細動作を示すフローチャートである。
【図24】本発明の第3実施形態に係る脇見検出装置の構成図である。
【図25】本発明の第3実施形態に係る脇見検出装置の機能ブロック図である。
【図26】図24に示した処理装置の詳細動作を示すフローチャートであり、車速に応じて脇見許容時間を変更する場合の例を示している。
【図27】車速に応じた脇見許容時間の例を示す説明図である。
【図28】図24に示した処理装置の詳細動作を示すフローチャートであり、車間距離に応じて脇見許容時間を変更する場合の例を示している。
【図29】車速に応じた脇見許容時間の例を示す説明図である。
【図30】図24に示した処理装置の詳細動作を示すフローチャートであり、道路種別情報に基づいて脇見許容時間を変更する場合の例を示している。
【符号の説明】
1〜3…脇見検出装置
10…撮像部(撮像手段)
20…処理装置
21…位置検出部
22…追跡部(追跡手段)
23…学習部(学習手段)
24…画像領域設定部(画像領域設定手段)
25…脇見検出部(脇見検出手段)
26…許容時間変更部(許容時間変更手段)
30…報知器
40…指示部(指示手段)
50…走行状態検出部(走行状態検出手段)
51…車速センサ
52…車間距離センサ
53…ナビゲーション装置
A〜G…画像領域[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an armpit detection device.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is known an armpit detection device that detects a driver's armpit action based on an allowable armpit time corresponding to the driver's face angle and a time during which the face angle is maintained (eg, Patent Document 1). , 2).
[0003]
In this device, the aside look allowed time is changed according to the direction of the driver's face, and the look aside action is determined. For example, when the driver's face direction angle is large, it is difficult for a scene in the forward direction or the like to enter the driver's field of view. Further, when the driver's face angle is small, since the scenery in the forward direction or the like is relatively easy to enter the driver's field of view, the act of looking aside is determined by setting a long look aside time.
[0004]
In this way, the driver's side-seeing action is suitably detected by changing the side-viewing allowable time.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 3-167698
[0006]
[Patent Document 2]
JP-A-7-57172
[0007]
[Problems to be solved by the invention]
However, since the above-mentioned side-by-side detection device does not take into account the left and right pillar portions that block the driver's field of view, it is insufficient to appropriately determine the side-by-side action. For example, even when the face orientation angle is small, if the driver's visual recognition position is in the vicinity of the pillar portion or the like, the driver's field of view is obstructed, so that the allowable time for looking aside is relatively short. There is a need.
[0008]
As described above, it cannot be said that the conventional looking-aside detection device appropriately detects the driver's looking-aside act.
[0009]
[Means for Solving the Problems]
According to the present invention, the photographing means photographs the face of the driver of the vehicle, the tracking means tracks the position of the driver's eyes based on the captured image including the driver's face obtained by the imaging means, The learning means determines the movement amount and staying time of the eye position output in time series from the tracking means, learns the eye position on the captured image when the driver sees the predetermined position, and The area setting means sets a predetermined number of image areas with different looking-aside allowable times based on the eye positions on the captured image learned by the learning means, and the looking-ahead detection means is assigned to the image areas set by the image area setting means. Based on the allowed time for looking aside, aside detection is performed.
More specifically, the learning means learns the positions of the eyes on the captured image when viewing the positions of the left and right door mirrors and the room mirror as the predetermined positions, and the image area setting means The right end of the first image area (A) adjacent to the right of the front gaze area is determined based on the position of the second, and the second adjacent to the left of the front gaze area is determined based on the position of the eye when viewing the right door mirror. The left end and the lower end of the image area (B) are determined, and the right end of the third image area (C) adjacent to the right of the first image area (A) is determined based on the position of the eye when the left door mirror is viewed. Determine the bottom edge.
[0010]
【The invention's effect】
According to the present invention, a predetermined number of image regions having different looking-aside allowable times are set based on the position of the eye on the captured image. Usually the driver is a carBothSome structures are relatively visible.These structures include left and right door mirrors and room mirrors.For this reason,When these structures are visibleBy using the position of the eye on the captured image as a reference,BothAn image area based on the position of a structure or the like can be set.That is, the right end of the first image area (A) adjacent to the right of the front gaze area is determined based on the position of the eye when viewing the rear view mirror, and the front gaze area is determined based on the position of the eye when viewing the right door mirror. The third image adjacent to the right of the first image area (A) is determined based on the position of the eye when the left door mirror is visually recognized. The right end and bottom end of the region (C) can be determined.Also carBothSince it is based on the position of a structure or the like, it is also possible to assign a side-to-side permissible time that takes into account a portion that obstructs the driver's field of view into each of a predetermined number of image areas.
[0011]
Then, based on the allowable time for looking aside allocated to each image area and the eye position to be tracked, the looking aside is detected. For this reason, it is possible to perform a look-ahead detection adapted to the in-vehicle environment based on the look-ahead allowable time allocated to each image area.
[0012]
Therefore, it is possible to improve the accuracy in detecting the driver's act of looking aside.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.
[0014]
FIG. 1 is a configuration diagram of an armpit detection device according to the first embodiment of the present invention. As shown in the figure, the
[0015]
Further, the
[0016]
Next, a detailed configuration of the
[0017]
The
[0018]
The
[0019]
Further, the
[0020]
The
[0021]
The
[0022]
Next, the outline of the operation of the aside
[0023]
The
[0024]
First, the
[0025]
FIG. 5 is an explanatory diagram showing a state when pixels adjacent in the horizontal direction of the image are grouped. As shown in the figure, by grouping, the
[0026]
Thereafter, the
[0027]
After detecting the eye position, the
[0028]
7A and 7B are explanatory diagrams showing how the
[0029]
When the position of the eye is detected by the
[0030]
Then, the
[0031]
Then, the
[0032]
The
[0033]
FIG. 8 is an explanatory diagram showing the situation when the driver visually recognizes the front, the rear view mirror, and the left and right door mirrors, and (a) shows the position of the driver's eyes when the driver is visually checking the front. Show. Further, (b) shows the position of the driver's eyes when viewing the rearview mirror, (c) shows the right door mirror, and (d) shows the driver's eye when viewing the left door mirror. The position of the eye is shown. Furthermore, (e) has shown the coordinate position of the eye according to a driver | operator's visual recognition location. In FIG. 8, an example of an image having 640 pixels in the X direction and 480 pixels in the Y direction will be described.
[0034]
As shown in FIGS. 8A to 8D, when the driver visually recognizes the front, the rear view mirror, and the left and right door mirrors, as shown in FIG. 8E, the coordinate position of the eye obtained from the image is Except when looking ahead, it is almost constant. Specifically, when the driver visually recognizes the front, the coordinate positions (x, y) of the eyes are dispersed in (260, 220) to (285, 240). Here, the center position of both eyes is the coordinate position of the eyes.
[0035]
On the other hand, when the driver is viewing the right door mirror, it is concentrated near (175,245), and when the driver is viewing the left door mirror, it is concentrated near (395,245). Further, when the driver is viewing the room mirror, the driver concentrates near (380, 220).
[0036]
In this way, the position of the driver's eyes at the time of viewing the mirror is concentrated in the same place to some extent, so that the amount of eye movement between the front viewing and the mirror viewing can be obtained by collecting data in advance. It can be obtained in a state that includes individual differences. That is, when the eye moves by a predetermined amount of movement in a predetermined direction, it can be used to estimate that one of the three mirrors is going to be visually recognized.
[0037]
Here, it is known that the residence time of the eyes of the driver when the mirror is viewed is an average of 0.7 seconds. FIG. 9 is an explanatory diagram showing the relationship between the staying time of the driver's eyes and the vehicle speed when the mirror is viewed.
[0038]
As shown in the figure, it can be seen that the residence time of the driver's eyes is concentrated at a location of about 0.7 seconds. It can also be seen that this time is not affected by the vehicle speed. Therefore, it is possible to specify which mirror is viewed based on the moving direction and moving amount and the eye retention time.
[0039]
As described above, the
[0040]
The image
[0041]
FIG. 10 is an explanatory diagram showing an example of a predetermined number of image regions with different look-ahead allowable times, (a) showing an example of a predetermined number of image regions, and (b) showing a look-ahead allowable time for each image region. An example is shown. In addition, the numerical value of the vertical direction and horizontal direction shown to Fig.10 (a) has shown the driver | operator's face direction angle. Further, although the image area is originally set on the captured image, in FIG. 10, for convenience of explanation, the image area based on the driver's field of view will be described. Furthermore, in the following description, a front area that the driver visually recognizes most during driving is defined as a front gaze area.
[0042]
The image
[0043]
The image
[0044]
As shown in FIG. 11A, the position of the driver's left eye when the driver looks at the left door mirror has almost reached the tracking limit. In other words, if the driver turns his face further to the left from the state of looking at the left door mirror, the left eye will not be imaged. Thus, when the left door mirror is viewed, the limit has been reached that allows the driver's left eye to be imaged.
[0045]
Further, as shown in FIG. 11B, the right eye may reach the tracking limit when the driver is viewing the right side. For example, the driver may be viewing the right further than the right door mirror when confirming an intersection. In this case, if the driver turns his face further to the right, the right eye will not be imaged. This position is the tracking limit position in the right direction. The image
[0046]
The tracking limit position in the right direction may be obtained from the captured image as described above, but may be obtained by another method. That is, the tracking limit position in the right direction may be obtained by calculation based on the tracking limit position when the left door mirror is viewed. In this case, if the tracking limit position in the left direction and the target position are obtained, the position of the tracking limit in the right direction is obtained.
[0047]
FIG. 12 is an explanatory diagram of a specific example of the image areas A to E set on the captured image. When the image region shown in FIG. 10A is replaced with a captured image, the result is as shown in FIG. As described above, these areas A to E are set based on the coordinate position of the eye when the rear view mirror is viewed and the coordinate position of the eye when the left and right door mirrors are viewed. The left and right tracking limit positions are also used as a reference.
[0048]
Refer to FIG. 10 again. The image
[0049]
Further, the allowable time for looking aside in the image area B is smaller than the allowable time for looking aside in the image area A. When both areas A and B are visually recognized, the driver's face angle is substantially the same. However, a pillar is provided between the image area B and the forward gaze area. When the driver visually recognizes the image area B with this pillar, the front gaze area becomes difficult to see. For this reason, even if the face direction angles of both areas A and B are substantially the same, the allowable time for looking aside in image area B is shorter than the allowable time for looking aside in image area A.
[0050]
In addition, the allowable time for looking aside in the image area D is shorter than the allowable time for looking aside in the image area C. The face angle is substantially the same for both regions C and D. A pillar is installed between the image area B and the forward gaze area via the image area B. Similarly, pillars are also provided between the image area C and the forward gaze area. However, the left pillar is located farther from the driver than the right pillar. For this reason, the apparent pillar thickness from the driver is different. For the driver, the apparent pillar thickness is an obstacle to visual recognition of the forward gaze area. Therefore, the look-ahead allowable time of the image area D is smaller than the allowable look-ahead time of the image area C.
[0051]
Furthermore, the allowable time for looking aside in the image area E is substantially the same as the allowable time for looking aside in the image area D. For example, when the driver visually recognizes the installation position of the audio device or the like, the front gaze area becomes almost invisible because the heel is lowered. For this reason, the image area E has a shorter look-ahead allowable time, and is almost equivalent to the image area D that has the shortest look-ahead allowable time so far.
[0052]
The look-
[0053]
Next, the operation of the
[0054]
And the
[0055]
As shown in the figure, first, the
[0056]
On the other hand, when it is determined that the eye tracking area is not set (ST11: NO), the
[0057]
Thereafter, the
[0058]
When it is determined that eye tracking is not performed correctly (ST15: NO), the
[0059]
On the other hand, when it is determined that eye tracking is being performed correctly (ST15: YES), the
[0060]
Thereafter, the
[0061]
When the above process is repeated and learning of the eye position is completed, “YES” is determined in step ST18. Thereafter, the image
[0062]
On the other hand, when it is determined that no image area is set (ST20: NO), the image
[0063]
After that, the side-by-
[0064]
If no side effect is detected by this process, the process returns to step ST10. On the other hand, when a look-aside is detected, the look-
[0065]
In this way, detection of the driver's aside action is performed. As described above, in step ST21, a predetermined number of image regions having different look-ahead allowable times are set, and in step ST22, look-ahead detection is performed. As described with reference to FIG. 10, the side-viewing allowable time is determined in consideration of the installation position of the structure in the vehicle, for example, the pillar, and is more appropriate than the conventional one. It has become. Then, since the side-by-side detection is performed based on the appropriate side-by-side allowable time, an apparatus with high detection accuracy can be obtained.
[0066]
Next, details of the learning process (ST19) shown in FIG. 13 will be described with reference to FIGS. FIG. 14 is a flowchart showing details of the eye position learning process (ST19) shown in FIG. 13, and shows the learning process when the room mirror is viewed.
[0067]
As shown in the figure, first, the
[0068]
On the other hand, when it is determined that the eye position has moved to the right by the predetermined amount M1 (ST30: YES), the
[0069]
Thereafter, the
[0070]
Here, if the position of the eye has not moved to the right by the predetermined amount M1 (when “NO” in step ST30), the movement flag FL1 is not turned on, so the processing shown in FIG. Will end. Further, even when the rightward movement is performed by the predetermined amount M1, if the staying time is short, the processing shown in FIG. 14 ends. The predetermined time in step ST32 is set to “0.7 seconds”, for example.
[0071]
In this way, in the learning process, a process for excluding data that should not be learned for eye positions is performed, and an image region is not set inadvertently in the subsequent process.
[0072]
By the way, when it is determined that the eye movement flag FL1 is on and the eye position stays at the position moved by the predetermined amount M1 for a predetermined time (ST32: YES), the
[0073]
When it is determined that the rectangular small area a is not set at the position where the eye stays (ST34: NO), the rectangular small area a is set at the staying position (ST35), and the processing shown in FIG. finish.
[0074]
On the other hand, when it is determined that the rectangular small area a is set (ST34: YES), the value of the counter α is counted up (ST36). Here, when the rectangular small area a is set, but the staying position of the eye is not within the rectangular small area a, the small area a is set again in step ST35 or the processing shown in FIG. 14 is ended. Etc. (not shown).
[0075]
Thereafter, the
[0076]
On the other hand, when it is determined that the value of the counter α has reached a predetermined value (ST37: YES), the
[0077]
Incidentally, in parallel with the processing shown in FIG. 14, the processing shown in FIGS. 15 to 17 is also executed. 15 to 17 are flowcharts showing details of the eye position learning process (ST19) shown in FIG. 15 shows a learning process when the left door mirror is visually recognized, FIG. 16 shows a learning process when the right door mirror is visually recognized, and FIG.
[0078]
Steps ST40 to ST48 shown in FIG. 15 are the same as steps ST30 to ST38 shown in FIG. Similarly, Step ST50 to Step ST58 shown in FIG. 16 and Step ST60 to Step ST68 shown in FIG. 15 to 17, the moving direction and the moving amounts M2 to M4 are different in steps ST40, 50, and 60, respectively, and the predetermined time at the time of right rear confirmation is different in FIG.
[0079]
Naturally, the small areas b to d and the counters β to θ for counting up are also different.
[0080]
Next, the side look determination (ST22) shown in FIG. 13 will be described in detail. FIG. 18 is a detailed flowchart of the look-aside determination (ST22) shown in FIG. In FIG. 18, a process for determining whether or not an eye exists in the image area A will be described. Further, FIG. 18 shows a case where the eye position is stored in the image area A, but the same applies to the other image areas B to E.
[0081]
First, the
[0082]
If it is determined that the timer is operating (ST71: YES), the process proceeds to step ST73. On the other hand, when it is determined that the timer is not in operation (ST71: NO), the
[0083]
Thereafter, the look-
[0084]
On the other hand, when it is determined that the allowable time for looking aside has been exceeded (ST73: YES), the looking-
[0085]
In step ST70, when it is determined that the eye is not present in the image area A (ST70: NO), the
[0086]
By the way, in this embodiment, the setting process (ST21) of the image areas A to E is performed by learning about all of the rearview mirror, the left and right door mirrors, and the tracking limit position in the right direction (including calculation by calculation). Is supposed to be executed. However, if at least one learning of the visual recognition position is completed, one of the image areas may be set based on the position, and the side-by-side determination may be started. In this case, the image
[0087]
FIG. 19 is an explanatory diagram showing processing in the case where image areas are set step by step. As shown in the figure, first, the
[0088]
This image area F is, for example, as shown in FIG. FIG. 20 is an explanatory diagram illustrating an example of an image area that is set in stages. The image area F is an area including the image areas A and C and a part of the image area E. The reason why the image area F is set in step ST81 is that the boundary between the forward gaze area and the image area A can be set according to the position of the eye when the room mirror is viewed. In addition, since the boundary between the image area A and the image area C cannot be set only by the eye position when the room mirror is viewed, the area on the side having a larger face orientation angle than the image area A is included. Furthermore, since the lower end of the area cannot be set only by the eye position when viewing the room mirror, a part of the image area E is included.
[0089]
Again, a description will be given with reference to FIG. If it is determined that either the image area A is not set or the learning of the eye position at the time of viewing the rearview mirror is not satisfied (ST80: NO), the process proceeds to step ST82. To do. Then, the
[0090]
If it is determined that the image area C has not been set and the learning of the eye position at the time of viewing the left door mirror has ended (ST82: YES), the image
[0091]
The image area C here is as shown in FIG. 20, and is the same as that described with reference to FIG. When the position of the eye at the time of viewing the left door mirror is determined, the right end and the lower end of the image area C are determined as described above. Therefore, the image
[0092]
Thereafter, the image
[0093]
On the other hand, when it is determined that the image area E has not been set (ST84: NO), the image
[0094]
The image region E here is as shown in FIG. 20, and is the same as the person described with reference to FIG. When the position of the eye when viewing the left door mirror is determined, the upper end of the image area E can be determined as described above. For this reason, the image
[0095]
Again, a description will be given with reference to FIG. When it is determined that either the image area C is not set or the learning of the eye position at the time of viewing the left door mirror is not satisfied (ST82: NO), the process proceeds to step ST86. To do. Then, the
[0096]
When it is determined that the image area B has not been set and the learning of the eye position when viewing the right door mirror has ended (ST86: YES), the image
[0097]
Here, the image area G is as shown in FIG. 20 and is an area having a size obtained by adding the image area B and the image area D. The reason why the image region G is set in step ST87 is that the boundary between the front gaze region and the image region B can be set according to the position of the eye when the right door mirror is viewed. Moreover, it is because the boundary between the image area B and the image area D cannot be set only by the position of the eye when viewing the right door mirror.
[0098]
Reference is again made to FIG. After setting the image region G and the sidewatch allowable time for the region G, the process proceeds to step ST84. Then, through the same processing as described above, the processing shown in FIG.
[0099]
If it is determined that either the image area B has not been set or the learning of the eye position at the time of viewing the right door mirror has not been satisfied (ST86: NO), the process proceeds to step ST88. Migrate to Then, the
[0100]
When it is determined that the image area D has not been set and the learning of the eye position during right rear viewing has been completed (ST88: YES), the image
[0101]
The image region D here is as shown in FIG. 20, and is the same as that described with reference to FIG. When the position of the eye at the time of right rear viewing is determined, the boundary between the image region D and the image region B is determined as described above, so the image
[0102]
If it is determined that either the image area D is not set or the learning of the eye position at the time of right rear viewing is not satisfied (ST88: NO), the process shown in FIG. Ends.
[0103]
In this way, according to the aside
[0104]
Then, based on the allowable time for looking aside allocated to each image area and the eye position to be tracked, the looking aside is detected. For this reason, it is possible to perform a look-ahead detection based on a look-ahead allowable time allocated to each image area in conformity with the in-vehicle environment.
[0105]
Therefore, it is possible to improve the accuracy in detecting the driver's act of looking aside.
[0106]
The
[0107]
The
[0108]
Further, the
[0109]
The image
[0110]
In the above embodiment, the process shown in FIG. 19 may be executed in place of steps ST19, ST20, ST21 shown in FIG.
[0111]
Next, a second embodiment of the present invention will be described. The
[0112]
Hereinafter, the
[0113]
FIG. 22 is a functional block diagram of the
[0114]
FIG. 23 is a flowchart showing detailed operations of the
[0115]
In step ST96, the
[0116]
In step ST97, the
[0117]
On the other hand, when it is determined that the
[0118]
Then, the
[0119]
As described above, according to the side-by-
[0120]
In addition, an
[0121]
Next, a third embodiment of the present invention will be described. The
[0122]
Hereinafter, the aside
[0123]
The
[0124]
Further, the
[0125]
FIG. 25 is a functional block diagram of the
[0126]
The permissible
[0127]
Next, the operation in the case of changing the allowable time for looking aside based on the vehicle speed will be described. FIG. 26 is a flowchart showing a detailed operation of the
[0128]
First, the allowable
[0129]
In this change, the allowable
[0130]
Refer to FIG. 26 again. After the change of the time required for looking aside, the process proceeds to step ST112 and ends after the process after step ST112. The processing of step ST112 to step ST117 is the same as the processing of step ST70 to step ST75 shown in FIG.
[0131]
Next, the operation in the case of changing the sidewatch allowable time based on the inter-vehicle distance will be described. FIG. 28 is a flowchart showing the detailed operation of the
[0132]
First, the permissible
[0133]
In this change, the allowable
[0134]
Refer to FIG. 28 again. After changing the sidewatch allowable time, the process proceeds to step ST122, and ends after the process after step ST122. The processing of step ST122 to step ST127 is the same as the processing of step ST70 to step ST75 shown in FIG.
[0135]
Next, the operation in the case of changing the aside allowance time based on the information regarding the type of road will be described. FIG. 30 is a flowchart showing the detailed operation of the
[0136]
First, the permissible
[0137]
If it is determined that the host vehicle does not enter the automobile road from a general road (ST130: NO), the process proceeds to step ST132. On the other hand, when it is determined that the host vehicle has entered an automobile-only road from a general road (ST130: YES), the allowable
[0138]
Thereafter, the permissible
[0139]
When it is determined that the host vehicle does not enter the general road from the automobile exclusive road (ST132: NO), the process proceeds to step ST134. On the other hand, when it is determined that the host vehicle has entered a general road from an automobile-only road (ST132: YES), the permissible
[0140]
After changing the aside allowance time, the process proceeds to step ST134 and ends after the process after step ST134. The processes in steps ST134 to ST139 are the same as the processes in steps ST70 to ST75 shown in FIG.
[0141]
In this way, according to the
[0142]
Further, the traveling state of the vehicle is detected, and the allowable time for looking aside is changed according to the detection result. For this reason, not only the vehicle interior environment but also the environment around the vehicle and the like can be taken into consideration to change the allowable time for looking aside. Therefore, it is possible to further improve the accuracy in detecting the driver's aside action.
[0143]
Further, based on the vehicle speed signal from the
[0144]
In addition, based on the distance signal from the inter-vehicle distance sensor 52, the aside allowance time is shortened as the host vehicle becomes closer to the preceding vehicle. For this reason, for example, when the distance to the preceding vehicle is short, even if the driver visually recognizes the vicinity of the front gaze area, the allowable time for looking aside can be shortened, and the looking aside can be detected more appropriately. it can.
[0145]
In general, ordinary roads have pedestrians and signals, and automobile roads have no pedestrians and signals. Thus, the actual situation is that ordinary roads have more opportunities to stop vehicles than motorways. In addition, automobile roads often have wider roadside belts. For this reason, it is possible to more appropriately detect a side effect by shortening the time required for looking aside when traveling on a general road than when traveling on an automobile-only road.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an armpit detection device according to a first embodiment of the present invention.
FIG. 2 is a functional block diagram of the armpit detection device according to the first embodiment of the present invention.
FIG. 3 is an explanatory diagram of an initial process performed when a position detection unit detects an eye position.
FIG. 4 is an explanatory diagram showing a state when a position detection unit extracts a predetermined pixel.
FIG. 5 is an explanatory diagram showing a state when pixels adjacent in the horizontal direction of the image are grouped.
FIG. 6 is an explanatory diagram showing a state after zoning by a position detection unit.
FIGS. 7A and 7B are explanatory diagrams showing the tracking of the eye position by the tracking unit, where FIG. 7A shows an initial tracking area, and FIG. 7B shows the detected eye after setting the initial tracking area; (C) shows the tracking area set based on the detected eye position, and (d) shows the eye position detected from within the newly set tracking area.
FIG. 8 is an explanatory diagram showing a situation when the driver visually recognizes the front, the rear view mirror, and the left and right door mirrors, and FIG. (B) shows the position of the driver's eye when viewing the rearview mirror, (c) shows the position of the driver's eye when viewing the right door mirror, (d) The position of the driver's eyes when viewing the left door mirror is shown, and (e) shows the coordinate position of the eyes according to the driver's viewing location.
FIG. 9 is an explanatory diagram showing the relationship between the staying time of the driver's eyes and the vehicle speed when the mirror is viewed.
FIGS. 10A and 10B are explanatory diagrams showing examples of a predetermined number of image areas with different looking-aside allowable times; FIG. 10A shows an example of a predetermined number of image areas, and FIG. An example is shown.
11A and 11B are explanatory diagrams of a method for setting an image area by an image area setting unit, in which FIG. 11A shows the state of the face when the driver looks at the left door mirror, and FIG. Shows the face orientation when looking at the right door mirror.
FIG. 12 is an explanatory diagram of a specific example of an image area set on a captured image.
13 is a flowchart showing a detailed operation of the processing apparatus shown in FIG.
14 is a flowchart showing details of the eye position learning process (ST19) shown in FIG. 13, and shows the learning process when the rearview mirror is viewed. FIG.
FIG. 15 is a flowchart showing details of the eye position learning process (ST19) shown in FIG. 13, and shows the learning process when the left door mirror is viewed;
16 is a flowchart showing details of eye position learning processing (ST19) shown in FIG. 13, and shows learning processing when the right door mirror is viewed.
FIG. 17 is a flowchart showing details of the eye position learning process (ST19) shown in FIG. 13, showing the learning process at the time of right rear viewing;
18 is a detailed flowchart of aside look determination (ST22) shown in FIG.
FIG. 19 is an explanatory diagram showing processing when image regions are set in stages.
FIG. 20 is an explanatory diagram illustrating an example of an image region that is set in stages.
FIG. 21 is a configuration diagram of an armpit detection device according to a second embodiment of the present invention.
FIG. 22 is a functional block diagram of an armpit detection device according to a second embodiment of the present invention.
FIG. 23 is a flowchart showing detailed operations of the processing apparatus shown in FIG. 21;
FIG. 24 is a configuration diagram of an armpit detection device according to a third embodiment of the present invention.
FIG. 25 is a functional block diagram of an armpit detection device according to a third embodiment of the present invention.
FIG. 26 is a flowchart showing a detailed operation of the processing apparatus shown in FIG. 24, and shows an example in the case where the look-ahead allowable time is changed according to the vehicle speed.
FIG. 27 is an explanatory diagram showing an example of a side allowance time according to the vehicle speed.
FIG. 28 is a flowchart showing a detailed operation of the processing apparatus shown in FIG. 24, and shows an example in the case where the look-ahead allowable time is changed according to the inter-vehicle distance.
FIG. 29 is an explanatory diagram showing an example of a side allowance time according to the vehicle speed.
30 is a flowchart showing a detailed operation of the processing apparatus shown in FIG. 24, and shows an example in the case of changing the allowable time for looking aside based on road type information.
[Explanation of symbols]
1-3 ... armpit detection device
10: Imaging unit (imaging means)
20 ... Processing device
21: Position detection unit
22 ... Tracking unit (tracking means)
23. Learning part (learning means)
24: Image area setting unit (image area setting means)
25 .. Aside detection unit (side detection means)
26 ... Allowable time changing section (allowable time changing means)
30 ... Alarm
40. Instruction unit (instruction means)
50 ... Traveling state detection unit (running state detection means)
51. Vehicle speed sensor
52. Inter-vehicle distance sensor
53. Navigation device
AG ... Image area
Claims (11)
前記撮像手段により得られた運転者の顔を含む撮像画像に基づいて、運転者の眼の位置を追跡する追跡手段と、
前記追跡手段から時系列的に出力される眼の位置の移動量と滞留時間とを判定して、運転者が所定位置を見たときの撮像画像上の眼の位置を学習する学習手段と、
前記学習手段によって学習された撮像画像上の眼の位置を基準として脇見許容時間が異なる所定個数の画像領域を設定する画像領域設定手段と、
前記画像領域設定手段により設定された画像領域に割り振られた脇見許容時間に基づいて、脇見検出を行う脇見検出手段と、
を備え、
前記学習手段は、前記所定位置として、左右のドアミラー及びルームミラーの位置を見たときの撮像画像上の眼の位置を学習し、
前記画像領域設定手段は、ルームミラー視認時の眼の位置に基づいて、前方注視領域の右に隣接する第1の画像領域(A)の右端を決定し、右ドアミラー視認時の眼の位置に基づいて、前方注視領域の左に隣接する第2の画像領域(B)の左端及び下端を決定し、左ドアミラー視認時の眼の位置に基づいて、第1の画像領域(A)の右に隣接する第3の画像領域(C)の右端及び下端を決定することを特徴とする脇見検出装置。Photographing means for photographing the face of the driver of the vehicle;
Tracking means for tracking the position of the driver's eyes based on the captured image including the driver's face obtained by the imaging means;
Learning means for determining the movement amount and the staying time of the eye position output in time series from the tracking means, and learning the eye position on the captured image when the driver sees the predetermined position;
Image region setting means for setting a predetermined number of image regions with different aside allowance times based on the position of the eye on the captured image learned by the learning means;
Based on the allowable time for looking aside allocated to the image area set by the image area setting means,
Equipped with a,
The learning means learns the position of the eye on the captured image when viewing the positions of the left and right door mirrors and the room mirror as the predetermined position,
The image area setting means determines the right end of the first image area (A) adjacent to the right of the front gaze area based on the position of the eye when the rear view mirror is viewed, and sets the right position of the eye when the right door mirror is viewed. Based on the left end and the lower end of the second image area (B) adjacent to the left of the front gaze area based on the position of the eye when viewing the left door mirror, to the right of the first image area (A) An armpit detection device that determines a right end and a bottom end of an adjacent third image region (C) .
前記走行状態検出手段からの出力信号に応じて、脇見許容時間を変更する許容時間変更手段と、
をさらに備えることを特徴とする請求項1又は請求項2のいずれかに記載の脇見検出装置。Traveling state detecting means for detecting the traveling state of the vehicle;
In accordance with an output signal from the traveling state detection means, an allowable time changing means for changing the allowable time for looking aside;
The armpit detection device according to claim 1, further comprising:
前記許容時間変更手段は、車速センサからの車速信号に基づき、車両の速度が速くなるに従って脇見許容時間を短くする
ことを特徴とする請求項3に記載の脇見検出装置。The traveling state detection means includes a vehicle speed sensor that detects a vehicle speed of the vehicle,
4. The armpit detection device according to claim 3, wherein the permissible time changing means shortens the armpit allowable time as the vehicle speed increases based on a vehicle speed signal from a vehicle speed sensor.
前記許容時間変更手段は、距離センサからの距離信号に基づき、自車両が先行車両に近くなるに従って脇見許容時間を短くする
ことを特徴とする請求項3又は請求項4のいずれかに記載の脇見検出装置。The traveling state detection means includes a distance sensor that detects a distance between the preceding vehicle and the host vehicle,
5. The armpit look according to claim 3, wherein the permissible time changing means shortens the armpit allowance time as the host vehicle approaches the preceding vehicle based on a distance signal from a distance sensor. Detection device.
前記許容時間変更手段は、ナビゲーション装置からの道路の種別に関する情報に基づき、自車両が自動車専用道路を走行しているときの脇見許容時間よりも、一般道路を走行しているときの脇見許容時間を短くする
ことを特徴とする請求項3〜請求項5のいずれか1項に記載の脇見検出装置。The travel state detection means includes a navigation device that presents information about the type of road on the map to the driver,
The permissible time changing means is based on the information on the type of road from the navigation device, and the allowable time for looking aside when traveling on a general road rather than the allowable time for looking aside when the vehicle is traveling on an automobile-only road. 6. The armpit detection device according to claim 3, wherein the armpit detection device according to claim 3 is shortened.
前記学習は、前記所定位置として、左右のドアミラー及びルームミラーの位置を見たときの撮像画像上の眼の位置を学習し、
前記画像領域の設定は、ルームミラー視認時の眼の位置に基づいて、前方注視領域の右に隣接する第1の画像領域(A)の右端を決定し、右ドアミラー視認時の眼の位置に基づいて、前方注視領域の左に隣接する第2の画像領域(B)の左端及び下端を決定し、左ドアミラー視認時の眼の位置に基づいて、第1の画像領域(A)の右に隣接する第3の画像領域(C)の右端及び下端を決定することを特徴とする脇見検出装置。Based on the captured image including the driver's face obtained by photographing the driver's face, the driver's eye position is tracked, and the movement amount and retention of the driver's eye position specified by the tracking A predetermined number of images with different time-tolerance allowances based on the positions of the eyes on the captured image obtained by determining the time and learning the position of the eye when the driver views the predetermined position An armpit detection device that sets a region and performs armpit detection based on the armpit allowable time of the image region ,
The learning learns the position of the eye on the captured image when viewing the positions of the left and right door mirrors and the room mirror as the predetermined position,
The image area is set by determining the right end of the first image area (A) adjacent to the right of the front gaze area based on the position of the eye when viewing the rearview mirror, and setting the eye position when viewing the right door mirror. Based on the left end and the lower end of the second image area (B) adjacent to the left of the front gaze area based on the position of the eye when viewing the left door mirror, to the right of the first image area (A) An armpit detection device that determines a right end and a bottom end of an adjacent third image region (C) .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003145047A JP4305057B2 (en) | 2003-05-22 | 2003-05-22 | Armpit detector |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003145047A JP4305057B2 (en) | 2003-05-22 | 2003-05-22 | Armpit detector |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2004347464A JP2004347464A (en) | 2004-12-09 |
| JP4305057B2 true JP4305057B2 (en) | 2009-07-29 |
Family
ID=33532340
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003145047A Expired - Fee Related JP4305057B2 (en) | 2003-05-22 | 2003-05-22 | Armpit detector |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4305057B2 (en) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4852941B2 (en) * | 2005-09-05 | 2012-01-11 | トヨタ自動車株式会社 | Car alarm system |
| JP4821347B2 (en) * | 2006-02-07 | 2011-11-24 | トヨタ自動車株式会社 | Armpit driving prevention device |
| JP6520531B2 (en) | 2015-07-30 | 2019-05-29 | アイシン精機株式会社 | Driving support device |
| WO2018085804A1 (en) * | 2016-11-07 | 2018-05-11 | Nauto Global Limited | System and method for driver distraction determination |
| JP2019091267A (en) * | 2017-11-15 | 2019-06-13 | オムロン株式会社 | Inattentive driving determination device, inattentive driving determination method, and program |
| JP6705437B2 (en) * | 2017-11-15 | 2020-06-03 | オムロン株式会社 | Inattentive judgment device, inattentive judgment method, and program for inattentive judgment |
-
2003
- 2003-05-22 JP JP2003145047A patent/JP4305057B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2004347464A (en) | 2004-12-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2535224B1 (en) | Driving support equipment for vehicles | |
| JP3747599B2 (en) | Obstacle detection device for vehicle | |
| JP2002240659A (en) | Apparatus for judging the situation around the vehicle | |
| JPH1139596A (en) | Outside monitoring device | |
| JPH0696397A (en) | Device and method for image tracking | |
| JPH08263784A (en) | Road condition recognition device | |
| JP2008123462A (en) | Object detection device | |
| JP2002319091A (en) | Following vehicle recognition device | |
| JPH07223488A (en) | Vehicle surrounding information display device | |
| CN108482367B (en) | A method, device and system for assisting driving based on intelligent rearview mirror | |
| CN108357428A (en) | Device is aroused in the attention of vehicle | |
| JPH06124340A (en) | Vehicle image processing device | |
| JP2002314989A (en) | Peripheral monitor for vehicle | |
| JPH11348696A (en) | Traveling road shape estimating device and travel support device using the same | |
| JP2007226666A (en) | Driving support method and driving support device | |
| JP4305057B2 (en) | Armpit detector | |
| JP2004102827A (en) | Vehicle periphery monitoring device | |
| JP2005202787A (en) | Vehicle display device | |
| JP2005066023A (en) | Driver status detection device | |
| JP3464368B2 (en) | Rear side monitoring device for vehicles | |
| JP2003104148A (en) | Control device of vehicle | |
| JP2001222800A (en) | Side monitoring device for vehicle | |
| JP4281405B2 (en) | Confirmation operation detection device and alarm system | |
| JP2003187228A (en) | Device and method for recognizing vehicle | |
| JPH1011585A (en) | Object detection device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060403 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080403 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081014 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081210 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090407 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090420 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140515 Year of fee payment: 5 |
|
| LAPS | Cancellation because of no payment of annual fees |