JP7572237B2 - 視線キャリブレーションシステム - Google Patents
視線キャリブレーションシステム Download PDFInfo
- Publication number
- JP7572237B2 JP7572237B2 JP2020218516A JP2020218516A JP7572237B2 JP 7572237 B2 JP7572237 B2 JP 7572237B2 JP 2020218516 A JP2020218516 A JP 2020218516A JP 2020218516 A JP2020218516 A JP 2020218516A JP 7572237 B2 JP7572237 B2 JP 7572237B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- calibration
- driver
- display unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims description 34
- 230000001815 facial effect Effects 0.000 claims description 25
- 238000013500 data storage Methods 0.000 claims description 18
- 238000012806 monitoring device Methods 0.000 claims description 14
- 238000000034 method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 239000003550 marker Substances 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 238000013480 data collection Methods 0.000 description 8
- 230000007704 transition Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0693—Calibration of display systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Position Input By Displaying (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Eye Examination Apparatus (AREA)
Description
そのため、こうした機能を実現するためには、運転者の視線方向を精度よく検出することが重要であり、視線方向検出のキャリブレーション処理を精度よく行う必要がある。
図1から図13を用いて、本実施形態に係る視線キャリブレーションシステム1について説明する。
図1に示すように、本実施形態に係る視線キャリブレーションシステム1は、運転状態監視装置100と、第2の表示部200と、を含んで構成されている。
なお、詳細な構成については、別途、詳述する。
なお、図2にはウインドシールドに投影するHUDを例示したが、ダッシュボード上に設けられたコンバイナーに投影するHUDであってもよい。
また、本実施形態においては、HUDに限らず、運転席の正面に画像を提示する表示部を含む。
図1に示すように、運転状態監視装置100は、撮像部10と、第1の表示部20と、CPU30と含んで構成されている。
撮像部10は、図2に示すように、後述する第1の表示部20の外縁上部に設けられ、運転者の顔画像を取得する。
撮像部10は、例えば近赤外線カメラあるいはRGBカメラ等であって、照射された近赤外光に反射した反射光を受光することにより、運転者の顔を撮像する。撮像部10は、撮像した画像信号を、後述するCPU30に送出する。
なお、第1の表示部20は、車両に搭載されたナビゲーションシステムの表示部を兼ねていてもよい。
また、本実施形態においては、特に、第1の表示部20および第2の表示部200に対して、表示画像の制御を行う。また、CPU30は、撮像部10から入力した運転者の顔画像から運転者の顔の向きおよび視線方向を検出する。また、CPU30は、検出した運転者の顔の向きおよび視線方向に関する情報に基づいて、視線のキャリブレーション処理を実行する。
なお、CPU30の構成の詳細については後述する。
図1に示すように、CPU30は、キャリブレーションデータ生成部31と、キャリブレーション部32と、データ格納部33と、表示画像制御部34とを含んで構成されている。
キャリブレーションデータ生成部31は、撮像部10による運転者の撮影画像を解析することにより、運転者の顔向きを検出する。
なお、顔向き検出の手法としては、周知の方法を用いてもよい。
なお、視線方向検出の手法としては、検出した顔の向きから視線方向を検出してもよいし、基準点を目頭、動点を虹彩の中心にして基準点に対する動点の位置に基づいて視線方向を検出する方法(目頭- 虹彩法)を用いてもよいし、基準点を角膜反射点(プルキンエ像)、動点を瞳孔の中心にして基準点に対する動点の位置に基づいて視線方向を検出する方法(瞳孔-角膜反射法)を用いてもよい。
ここで、図3(A)、図4(A)は、運転者の頭上斜方向から前方を見た時の図であり、図3(A)は運転者が第1の表示部20を見た場合、図4(A)は、運転者が第2の表示部200を見た場合を示している。図中、Dは運転者、Mはマーカー、一点鎖線は、マーカーMを直視したときのマーカーMに対する運転者Dの顔の向き(実際の顔の向き)を示し、実線は、マーカーMを見た場合に画像から検出された運転者Dの顔の向きを示し、点線は、マーカーMを見た場合に画像から検出された運転者Dの視線方向を示している。
なお、本実施形態の場合では、運転者が第1の表示部20を斜め方向から視認しているため、Mに対して、F、RE、RLは、斜め直線状となるが、図3では、理解を容易にするために、Mに対して、F、RE、RLを鉛直方向に配列した状態で示している。
この位置情報から、キャリブレーションデータ生成部31は、運転者が第1の表示部20を見た場合における顔の向きの誤差(Δ11)と右目の誤差(Δ12)および左目の誤差(Δ13)を算出する。
同様に、キャリブレーションデータ生成部31は、運転者が第2の表示部200を見た場合における顔の向きの誤差(Δ21)と右目の誤差(Δ22)および左目の誤差(Δ23)を算出する。
キャリブレーションデータ生成部31は、上記誤差データから運転者Dが第1の表示部20を視認した時の顔向きゲインおよび視線方向ゲイン、運転者Dが第2の表示部200を視認した時の顔向きゲインおよび視線方向ゲインをキャリブレーションデータとして生成する。
なお、キャリブレーションデータ生成部31において生成されたキャリブレーションデータは、後述するデータ格納部33に格納される。
キャリブレーション部32は、後述するデータ格納部33に所定量のキャリブレーションデータが格納されたタイミングでキャリブレーションを実行する。
また、データ格納部33は、後述する表示画像制御部34に用いられる表示データが格納される。
表示画像制御部34は、例えば、第1の表示部20に個人登録画面を表示させる。
なお、当該動画像は、運転者Dの動作を一意に定めるようなものが好ましい。例えば、動画像としては、順次、運転者Dに視認させるマーカーが遷移するよう表示されるシーケンシャルな動画像を例示することができる。
例えば、図5(A)は、横一列にマーカーMが直線状に順次、遷移して左端から右端に表示された後に、向きを変えて、右端から左端に交互に表示されるものであり、図5(B)は、縦一列にマーカーMが直線状に順次、遷移して上端から下端に表示された後に、向きを変えて、下端から上端に交互に表示されるものである。
図10から図13を用いて、本実施形態に係る視線キャリブレーションシステム1の処理について説明する。
図10に示すように、視線キャリブレーションシステム1のメイン処理は、第1の表示部20からのキャリブレーションデータ収集処理(ステップS100)と、第2の表示部200からのキャリブレーションデータ収集処理(ステップS200)と、キャリブレーション処理(ステップS300)とからなっている。
以下、それぞれの処理ステップについて詳述する。
図11を用いて、第1の表示部20からのキャリブレーションデータ収集処理について説明する。
撮像部10は、撮像を完了すると、運転者Dの顔画像データをキャリブレーションデータ生成部31に出力する。
そして、キャリブレーションデータ生成部31は、抽出した運転者Dの顔の向き、視線方向と運転者DがマーカーMを視認したときの顔の向きとから、運転者Dが第1の表示部20を見た場合の顔の向きの誤差(Δ11)と右目の誤差(Δ12)および左目の誤差(Δ13)を算出する。
そして、キャリブレーションデータ生成部31において生成されたキャリブレーションデータは、データ格納部33に格納される(ステップS140)。
図12を用いて、第2の表示部200からのキャリブレーションデータ収集処理について説明する。
なお、第2の表示部200に表示される動画像としては、図5から図9に示すような順次、運転者Dに視認させるマーカーが遷移するよう表示されるシーケンシャルな動画像を例示することができる。
撮像部10は、撮像を完了すると、運転者Dの顔画像データをキャリブレーションデータ生成部31に出力する。
そして、キャリブレーションデータ生成部31は、抽出した運転者Dの顔の向き、視線方向と運転者DがマーカーMを視認したときの顔の向きとから、運転者Dが第2の表示部200を見た場合における顔の向きの誤差(Δ21)と右目の誤差(Δ22)および左目の誤差(Δ23)を算出する。
そして、キャリブレーションデータ生成部31において生成されたキャリブレーションデータは、データ格納部33に格納される(ステップS240)。
図13を用いて、キャリブレーション処理について説明する。
以上、説明したように、本実施形態に係る視線キャリブレーションシステム1は、運転席の前方で車幅方向の中央部に設けられた第1の表示部20と、運転席の正面に設けられた第2の表示部200と、第1の表示部の外縁上部に設けられた撮像部10と、第1の表示部20と第2の表示部200に表示させる表示画像を制御する表示画像制御部34と、撮像部10により撮像された画像から運転者Dが第1の表示部20を視認した時の顔の向きおよび視線方向と、運転者Dが第2の表示部200を視認した時の顔の向きおよび視線方向とを検出し、キャリブレーションデータを生成するキャリブレーションデータ生成部31と、キャリブレーションデータ生成部31において生成されたキャリブレーションデータに基づいて、第1の表示部20を視認する場合に基準となる顔の向きに対応する視線方向および第2の表示部200を視認する場合に基準となる顔の向きに対応する視線方向に対するキャリブレーションを行うキャリブレーション部32と、を含んで構成されている。
つまり、本実施形態に係る視線キャリブレーションシステム1は、運転席の前方で車幅方向の中央部に設けられた第1の表示部20と、運転席の正面に設けられた第2の表示部200とにおいて、視線のキャリブレーションを実施する。
一般に、撮像部10の光軸に近傍で撮像された画像を用いて行うキャリブレーション(第1の表示部20によるキャリブレーション)は精度が高く、撮像部10の光軸から外れて撮像された画像を用いて行うキャリブレーション(第2の表示部200におけるキャリブレーション)は精度が低いことが知られている。
しかしながら、本実施形態に係る視線キャリブレーションシステム1では、第1の表示部20を運転者Dが視認した場合のキャリブレーションデータに基づいて、第1の表示部20を運転者Dが視認した場合のキャリブレーションを行い、第2の表示部200を運転者Dが視認した場合のキャリブレーションデータに基づいて、第2の表示部200を運転者Dが視認した場合のキャリブレーションを行うことから、第2の表示部200におけるキャリブレーションについても精度を向上させることができる。
すなわち、運転者Dの顔の向きと撮像部10の光軸との差が小さい場合におけるキャリブレーションデータを取得するとともに、運転者Dの顔の向きと撮像部10の光軸との差が大きい場合におけるキャリブレーションデータを取得することから、撮像部10の光軸から外れた領域を含む広域において、視線のキャリブレーションの精度を向上させることができる。
具体的には、図2を例とすると、運転者Dがエアコン62やナビゲーションシステム61を視認している場合は、第1の表示部20に対して取得されたキャリブレーションデータを用い、運転者Dがメータパネル63やドアミラー64を視認している場合は、第2の表示部200に対して取得されたキャリブレーションデータを用いることにより、撮像部10の光軸から外れた領域を含む広域において、視線のキャリブレーションの精度を向上させることができる。
つまり、運転状態監視装置100における個人登録をトリガに第1の表示部20を用いたキャリブレーションデータを取得し、運転者Dが個人登録を行うための運転者Dの顔画像を取得した後に、表示画像制御部34が第2の表示部200に画像を表示し、キャリブレーションデータを取得する。
そのため、運転者Dの負担を軽減するとともに、キャリブレーションデータの取得時間を短縮することができる。
つまり、第2の表示部200に動画像を表示させることにより、運転者Dの動作を一意に定めることができるため、視線キャリブレーションに有用な視線データを取得するまでの時間を短縮することができる。
また、第2の表示部200に動画像を表示させることにより、運転者Dの動作を一意に定めることができるため、キャリブレーションデータの精度を高めることができる。
具体的には、表示画像制御部34は、図5から図9に示すようなシーケンシャルな動画像を第2の表示部200の全域に表示させる。
これにより、運転者Dの視線を容易に誘導することができ、運転者Dの動作のばらつきを抑えることにより、視線キャリブレーションに有用な視線データを取得するまでの時間を短縮することができる。
つまり、キャリブレーション部32は、キャリブレーション処理に十分なキャリブレーションデータがデータ格納部33に格納されたタイミングでキャリブレーションを実行することから、視線キャリブレーション処理の精度を高めることができる。
つまり、車両に搭載されている運転状態監視装置100とヘッドアップディスプレイとを用いて、視線キャリブレーションを実行できるため、余計な装置を必要とせず、簡便に視線キャリブレーションを実行できる。
また、表示領域が大きいヘッドアップディスプレイを第2の表示部200とするため、一般に、精度が低いとされる撮像部10の光軸から外れた第2の表示部200においても、十分なキャリブレーションデータが得ることによって、キャリブレーションの精度を高めることができる。
例えば、上記実施形態においては、CPU30に、キャリブレーションデータ生成部31と、キャリブレーション部32と、データ格納部33と、を設けた構成を示したが、撮像部10において撮像された画像情報等を車両にネットワークを介して接続されたサーバーに転送し、当該サーバーにおいて、キャリブレーションデータ生成部31の処理、キャリブレーション部32の処理を実行させる構成としてもよい。
このようにすることにより、多くの情報を迅速に処理することができる。
上記実施形態においては、特に言及しなかったが、第1の表示部20においても動画像を表示してもよい。
具体的には、個人登録のトップ画面に、例えば、図5に示すような動画像を表示してもよいし、個人登録のトップ画面と次画面との間に、メッセージとともに図6から図9に示すような動画像を表示する画面を設けてもよい。
また、個人登録のトップ画面と次画面との間に、「空いている場所を(A)から(D)の順番に視認して下さい。」というメッセージとともに図14に示す画像を表示してもよい。
このように、第1の表示部20においても動画像や静止画像を表示することによって、運転者Dの視線を一意に定めることにより、第1の表示部20を運転者Dが視認する際に得られるキャリブレーションデータの精度を高めることができる。
10;撮像部
20;第1の表示部
30;CPU
31;キャリブレーションデータ生成部
32;キャリブレーション部
33;データ格納部
34;表示画像制御部
100;運転状態監視装置
200;第2の表示部
Claims (7)
- 運転席の前方で車幅方向の中央部に設けられた第1の表示部と、
前記運転席の正面に設けられた第2の表示部と、
前記第1の表示部の外縁上部に設けられた撮像部と、
前記第1の表示部と前記第2の表示部に表示させる表示画像を制御する表示画像制御部と、
該撮像部により撮像された画像から運転者が前記第1の表示部を視認した時の顔の向きおよび視線方向と、前記運転者が前記第2の表示部を視認した時の顔の向きおよび視線方向とを検出し、キャリブレーションデータを生成するキャリブレーションデータ生成部と、
前記キャリブレーションデータ生成部において生成されたキャリブレーションデータに基づいて、前記第1の表示部を視認する場合に基準となる顔の向きに対応する視線方向および前記第2の表示部を視認する場合に基準となる顔の向きに対応する視線方向に対するキャリブレーションを行うキャリブレーション部と、
を備えたことを特徴とする視線キャリブレーションシステム。 - 前記第1の表示部と、前記撮像部と、前記キャリブレーションデータ生成部と、前記キャリブレーション部と、が前記運転者のモニタリングを行う運転状態監視装置に備えられていることを特徴とする請求項1に記載の視線キャリブレーションシステム。
- 前記運転状態監視装置を用いて、前記運転者が個人登録を行うための前記運転者の顔画像を取得した後に、前記表示画像制御部が前記第2の表示部に画像を表示することを特徴とする請求項2に記載の視線キャリブレーションシステム。
- 前記表示画像制御部は、前記第2の表示部に動画像を表示させることを特徴とする請求項3に記載の視線キャリブレーションシステム。
- 前記表示画像制御部は、順次、前記運転者に視認させるマーカーが遷移するよう表示されるシーケンシャルな動画像を前記第2の表示部の全域に表示させることを特徴とする請求項3に記載の視線キャリブレーションシステム。
- 前記キャリブレーションデータ生成部において生成されたキャリブレーションデータを格納するデータ格納部を備え、
前記キャリブレーション部は、前記データ格納部に所定量のキャリブレーションデータが格納されたタイミングでキャリブレーションを実行することを特徴とする請求項1から5のいずれか1項に記載の視線キャリブレーションシステム。 - 前記第2の表示部がヘッドアップディスプレイで構成されていることを特徴とする請求項1から6のいずれか1項に記載の視線キャリブレーションシステム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020218516A JP7572237B2 (ja) | 2020-12-28 | 2020-12-28 | 視線キャリブレーションシステム |
CN202111312633.2A CN114693747A (zh) | 2020-12-28 | 2021-11-08 | 视线校准系统 |
US17/538,165 US20220207773A1 (en) | 2020-12-28 | 2021-11-30 | Gaze calibration system |
DE102021133056.4A DE102021133056A1 (de) | 2020-12-28 | 2021-12-14 | Blickrichtungskalibrierungssystem |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020218516A JP7572237B2 (ja) | 2020-12-28 | 2020-12-28 | 視線キャリブレーションシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022103717A JP2022103717A (ja) | 2022-07-08 |
JP7572237B2 true JP7572237B2 (ja) | 2024-10-23 |
Family
ID=81972362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020218516A Active JP7572237B2 (ja) | 2020-12-28 | 2020-12-28 | 視線キャリブレーションシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220207773A1 (ja) |
JP (1) | JP7572237B2 (ja) |
CN (1) | CN114693747A (ja) |
DE (1) | DE102021133056A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012201232A (ja) | 2011-03-25 | 2012-10-22 | Denso Corp | 視線方向検出装置 |
JP2017516219A (ja) | 2014-05-01 | 2017-06-15 | ジャガー ランド ローバー リミテッドJaguar Land Rover Limited | 制御装置および関連方法 |
US20170187963A1 (en) | 2015-12-24 | 2017-06-29 | Lg Electronics Inc. | Display device for vehicle and control method thereof |
JP2017132455A (ja) | 2016-12-26 | 2017-08-03 | 株式会社デンソー | 視線検出装置、および視線検出方法 |
JP2020199848A (ja) | 2019-06-07 | 2020-12-17 | 本田技研工業株式会社 | 運転者状態検出装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5092776B2 (ja) | 2008-02-06 | 2012-12-05 | 株式会社デンソー | 視線方向検出装置及び視線方向検出方法 |
JP5278461B2 (ja) * | 2011-02-03 | 2013-09-04 | 株式会社デンソー | 視線検出装置および視線検出方法 |
US20120215403A1 (en) * | 2011-02-20 | 2012-08-23 | General Motors Llc | Method of monitoring a vehicle driver |
GB2514603B (en) * | 2013-05-30 | 2020-09-23 | Tobii Ab | Gaze-controlled user interface with multimodal input |
JP6214752B2 (ja) * | 2014-02-19 | 2017-10-18 | 三菱電機株式会社 | 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法 |
US9751406B2 (en) * | 2014-04-03 | 2017-09-05 | Audi Ag | Motor vehicle and method for controlling a climate control system in a motor vehicle |
US9782069B2 (en) * | 2014-11-06 | 2017-10-10 | International Business Machines Corporation | Correcting systematic calibration errors in eye tracking data |
EP3234737B1 (en) * | 2014-12-16 | 2019-04-10 | Koninklijke Philips N.V. | Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing |
EP3040809B1 (en) * | 2015-01-02 | 2018-12-12 | Harman Becker Automotive Systems GmbH | Method and system for controlling a human-machine interface having at least two displays |
DE102015204283A1 (de) * | 2015-03-10 | 2016-09-15 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erfassung der Blickrichtung einer Person |
WO2016146488A1 (en) * | 2015-03-13 | 2016-09-22 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Method for automatically identifying at least one user of an eye tracking device and eye tracking device |
WO2017120248A1 (en) * | 2016-01-04 | 2017-07-13 | Harman International Industries, Incorporated | Off-axis gaze tracking in in-vehicle computing systems |
WO2017181429A1 (en) * | 2016-04-22 | 2017-10-26 | SZ DJI Technology Co., Ltd. | Systems and methods for processing image data based on region-of-interest (roi) of a user |
EP3249497A1 (en) * | 2016-05-24 | 2017-11-29 | Harman Becker Automotive Systems GmbH | Eye tracking |
CN109690553A (zh) * | 2016-06-29 | 2019-04-26 | 醒眸行有限公司 | 执行眼睛注视跟踪的系统和方法 |
JP2019046240A (ja) | 2017-09-04 | 2019-03-22 | 株式会社デンソーテン | 視線方向検出装置及びキャリブレーション方法 |
US11042994B2 (en) * | 2017-11-15 | 2021-06-22 | Toyota Research Institute, Inc. | Systems and methods for gaze tracking from arbitrary viewpoints |
TWI726252B (zh) * | 2018-10-31 | 2021-05-01 | 宏碁股份有限公司 | 多螢幕操作方法與使用此方法的電子系統 |
KR20210011556A (ko) * | 2019-07-22 | 2021-02-02 | 현대자동차주식회사 | 차량 영상 제어 장치, 그를 포함한 시스템 및 그 방법 |
US11790669B2 (en) * | 2020-04-27 | 2023-10-17 | Nvidia Corporation | Systems and methods for performing operations in a vehicle using gaze detection |
JP7553351B2 (ja) * | 2020-12-28 | 2024-09-18 | 株式会社Subaru | 個人認識システム |
-
2020
- 2020-12-28 JP JP2020218516A patent/JP7572237B2/ja active Active
-
2021
- 2021-11-08 CN CN202111312633.2A patent/CN114693747A/zh active Pending
- 2021-11-30 US US17/538,165 patent/US20220207773A1/en active Pending
- 2021-12-14 DE DE102021133056.4A patent/DE102021133056A1/de active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012201232A (ja) | 2011-03-25 | 2012-10-22 | Denso Corp | 視線方向検出装置 |
JP2017516219A (ja) | 2014-05-01 | 2017-06-15 | ジャガー ランド ローバー リミテッドJaguar Land Rover Limited | 制御装置および関連方法 |
US20170187963A1 (en) | 2015-12-24 | 2017-06-29 | Lg Electronics Inc. | Display device for vehicle and control method thereof |
JP2017132455A (ja) | 2016-12-26 | 2017-08-03 | 株式会社デンソー | 視線検出装置、および視線検出方法 |
JP2020199848A (ja) | 2019-06-07 | 2020-12-17 | 本田技研工業株式会社 | 運転者状態検出装置 |
Also Published As
Publication number | Publication date |
---|---|
DE102021133056A1 (de) | 2022-06-30 |
CN114693747A (zh) | 2022-07-01 |
US20220207773A1 (en) | 2022-06-30 |
JP2022103717A (ja) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7784943B2 (en) | Eyelid detecting apparatus, eyelid detecting method and program thereof | |
JP4560368B2 (ja) | 眼検出装置および画像表示装置 | |
US20060188130A1 (en) | Apparatus and method for normalizing face image used for detecting drowsy driving | |
JP6857695B2 (ja) | 後方表示装置、後方表示方法、およびプログラム | |
JP5694257B2 (ja) | 表示装置、表示方法及びプログラム | |
JP2018039394A (ja) | 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム | |
US20180218714A1 (en) | Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium | |
JP5868128B2 (ja) | 情報処理装置およびその制御方法 | |
WO2011136213A1 (ja) | 表示装置 | |
CN111091494A (zh) | 影像拼接处理方法以及其系统 | |
JP5644414B2 (ja) | 覚醒度判定装置、覚醒度判定方法及びプログラム | |
WO2005010739A1 (en) | System and method for controlling the display of an image | |
CN109415020B (zh) | 辉度控制装置、辉度控制系统以及辉度控制方法 | |
JP6938224B2 (ja) | 透明表示装置及びその駆動方法 | |
JP4552636B2 (ja) | ドライバモニタシステムおよびその処理方法 | |
JP2018022958A (ja) | 車両用表示制御装置及び車両用モニタシステム | |
JPH09167049A (ja) | コンソール用視線入力装置 | |
JP7572237B2 (ja) | 視線キャリブレーションシステム | |
CN110908500B (zh) | 目标物信息的预载显示方法及装置 | |
JP7553351B2 (ja) | 個人認識システム | |
JP4528976B2 (ja) | 瞳孔検出装置及び方法 | |
JP6169446B2 (ja) | 視線検出装置 | |
JP2022012829A (ja) | ドライバモニタ装置及びドライバモニタ方法 | |
CN114740966A (zh) | 多模态图像显示控制方法、系统及计算机设备 | |
JP2006005451A (ja) | 車載監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7572237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |