JP2021140624A - データ収集装置 - Google Patents
データ収集装置 Download PDFInfo
- Publication number
- JP2021140624A JP2021140624A JP2020039519A JP2020039519A JP2021140624A JP 2021140624 A JP2021140624 A JP 2021140624A JP 2020039519 A JP2020039519 A JP 2020039519A JP 2020039519 A JP2020039519 A JP 2020039519A JP 2021140624 A JP2021140624 A JP 2021140624A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- person
- data
- information
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013480 data collection Methods 0.000 title claims abstract description 27
- 230000008451 emotion Effects 0.000 claims abstract description 111
- 238000012545 processing Methods 0.000 claims abstract description 60
- 238000013500 data storage Methods 0.000 claims abstract description 23
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 230000002996 emotional effect Effects 0.000 claims description 18
- 238000013461 design Methods 0.000 abstract description 24
- 238000011156 evaluation Methods 0.000 abstract description 18
- 238000004891 communication Methods 0.000 description 32
- 238000000034 method Methods 0.000 description 16
- 238000007726 management method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000036461 convulsion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010195 expression analysis Methods 0.000 description 2
- 238000001943 fluorescence-activated cell sorting Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012356 Product development Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】不特定の評価者による車両の外観の動的なデザイン評価のデータを収集可能なデータ収集装置を提供する。【解決手段】データ収集装置は、自車両の周囲を撮影した撮像情報に基づいて、自車両を見ている人物の感情を推定する感情推定部と、自車両を見ている人物からみた自車両の状態を特定する特定部と、自車両を見ている人物の感情のデータを、特定した自車両の状態のデータに関連付けて記憶させる感情データ記憶処理部と、を備える。【選択図】図1
Description
本発明は、車両用のデータ収集装置に関する。
自動車の商品開発におけるデザイン評価では、操作ボタンやスイッチ等の機能的な評価は基準が明確である場合が多い一方で、外観等の感性的な要因については評価者の主観的な感性に依存する場合が多い。このため、評価者のサンプル数やサンプルサイズをできる限り大きくし、母集団に近い評価を得ることが理想的である。しかしながら、現実的には、評価者を集めるうえで費用や時間、サンプリング集団の偏りに起因して、限定的な評価に留まることが多い。
これに対して、特許文献1では、生体情報を測定することで、評価の主観的判断が加わることが無い手法が提案されている。具体的に、特許文献1には、デザインの良否に関する評価をすべき任意のデザインを映像出力装置によって出力可能に映像化し、その映像を映像出力装置によって任意の被験者に見せながらその被験者の脳波を測定するとともに、その脳波反応に基づいて評価対象のデザインを評価し、良好な評価結果が得られるまでデザインの検討から評価までの工程を繰り返す商品デザイン評価方法が開示されている。
ここで、自動車のデザインにおいては、走行中の外観がデザイン評価ひいては購買意欲に強く影響すると考えられる。しかしながら、現状の開発中の自動車の外観のデザイン評価においては、所定の場所に集められた特定の評価者に評価させることが一般的であり、不特定多数の人からデザイン評価を受けるようにはなっていない。上記の特許文献1に開示された手法は、不特定多数の評価者からデザイン評価を受けることについては考慮されていない。また、現状の開発中の自動車のデザイン評価においては、ターンテーブル上で自動車を回転させて光の変化を見せる等の工夫に留まっており、走行中の自動車を動的に評価できているとはいいがたい。したがって、現実世界において不特定多数の人からデザイン評価を受けることができる手法の確立が望まれる。
本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、不特定の評価者による車両の外観の動的なデザイン評価のデータを収集可能なデータ収集装置を提供することにある。
上記課題を解決するために、本発明のある観点によれば、自車両の周囲を撮影した撮像情報に基づいて、自車両を見ている人物の感情を推定する感情推定部と、自車両を見ている人物からみた自車両の状態を特定する特定部と、自車両を見ている人物の感情のデータを、特定した自車両の状態のデータに関連付けて記憶させる感情データ記憶処理部と、を備える、データ収集装置が提供される。
また、特定部は、自車両を見ている人物から自車両を見た場合の周囲情報を特定し、感情データ記憶処理部は、自車両を見ている人物の感情のデータを、周囲情報のデータに関連付けて記憶させてもよい。
また、特定部は、自車両を見ている人物から自車両を見た場合の周囲情報として、建造物、自然物、道路、他車両及び天候のうちの少なくとも一つに関する情報を特定してもよい。
また、特定部は、撮像情報に基づいて、人物が見ている自車両の部分をさらに特定し、感情データ記憶処理部は、自車両を見ている人物の感情のデータを、さらに人物が見ている自車両の部分のデータに関連付けて記憶させてもよい。
また、特定部は、撮像情報に基づいて、自車両を見ている人物の属性をさらに特定し、感情データ記憶処理部は、自車両を見ている人物の感情のデータを、さらに人物の属性のデータに関連付けて記憶させてもよい。
また、自車両を見ている人物が他車両に乗車している人物である場合、人物の属性のデータは、自車両に対する人物の相対速度の情報を含んでもよい。
また、感情データ記憶処理部は、自車両を見ている人物の感情のデータを、さらに季節、カレンダー、時刻又は地図データ上の位置のうちの少なくとも一つのデータに関連付けて記憶させてもよい。
また、感情データ記憶処理部は、人物の感情のデータを、時系列のデータとして記憶させてもよい。
また、感情推定部は、撮像情報に基づいて、自車両を見ている人物の自車両に対する興味度合の値を算出し、興味度合の値が所定の閾値以上の人物の感情を推定してもよい。
また、自車両に対する興味度合の値は、所定の時間に対する自車両に視線を向けていた時間の割合であってもよい。
以上説明したように本発明によれば、不特定の評価者による車両の外観の動的なデザイン評価のデータを収集することができる。
以下、添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.データ収集装置の構成例>
まず、本発明の実施の形態に係るデータ収集装置の構成例を説明する。図1は、本実施形態に係るデータ収集装置10の構成例を示すブロック図である。
まず、本発明の実施の形態に係るデータ収集装置の構成例を説明する。図1は、本実施形態に係るデータ収集装置10の構成例を示すブロック図である。
データ収集装置10は、車両に搭載され、車両を見ている人物の感情を推定するとともに、推定した感情のデータを、車両の状態のデータに関連付けて記憶させる装置として構築されている。データ収集装置10は、第1通信部71、第2通信部73、周囲撮影カメラ41、車両状態検出器43、GPSアンテナ45及び電子制御装置50を備えている。第1通信部71、第2通信部73、周囲撮影カメラ41、車両状態検出器43及びGPSアンテナ45は、それぞれ直接的に、又は、CAN(Controller Area Network)やLIN(Local Inter Net)等の通信手段を介して電子制御装置50に接続されている。
(1−1.周囲撮影カメラ)
周囲撮影カメラ41は、車両の周囲の画像を取得する。周囲撮影カメラ41は、車両の基本機能として搭載されていてもよく、車両のデザイン評価のために後付けされるものであってもよい。周囲撮影カメラ41は、車両の前方、側方及び後方の少なくともいずれかの方向を撮影可能に車両に設けられた一つ又は複数のカメラからなる。自車両をあらゆる方向から見た外観のデザイン評価を行うには、車両の周囲すべての方向を撮影可能に設けられることが好ましい。周囲撮影カメラ41は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備え、取得した撮像情報を電子制御装置50へ送信する。電子制御装置50は、周囲撮影カメラ41で取得された撮像情報を取得可能に構成される。
周囲撮影カメラ41は、車両の周囲の画像を取得する。周囲撮影カメラ41は、車両の基本機能として搭載されていてもよく、車両のデザイン評価のために後付けされるものであってもよい。周囲撮影カメラ41は、車両の前方、側方及び後方の少なくともいずれかの方向を撮影可能に車両に設けられた一つ又は複数のカメラからなる。自車両をあらゆる方向から見た外観のデザイン評価を行うには、車両の周囲すべての方向を撮影可能に設けられることが好ましい。周囲撮影カメラ41は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備え、取得した撮像情報を電子制御装置50へ送信する。電子制御装置50は、周囲撮影カメラ41で取得された撮像情報を取得可能に構成される。
(1−2.車両状態検出器)
車両状態検出器43は、車両の状態の情報を検出する。車両の状態とは、車両の操作状態及び挙動を含む。車両状態検出器43は、車速、加速度、ヨーレート等の車両の挙動の情報を検出する。車両状態検出器43は、例えば、エンジン回転数センサ、車速センサ、加速度センサ、角速度センサのうちの少なくとも一つを含んでいてもよい。また、車両状態検出器43は、アクセル操作量、ブレーキ操作量、ステアリング舵角等の車両の操作状態の情報を検出する。車両状態検出器43は、例えば、アクセルポジションセンサ、ブレーキストロークセンサ、舵角センサのうちの少なくとも一つを含んでいてもよい。車両状態検出器43は、検出した情報を電子制御装置50へ送信する。電子制御装置50は、車両状態検出器43で検出された情報を取得可能に構成される。
車両状態検出器43は、車両の状態の情報を検出する。車両の状態とは、車両の操作状態及び挙動を含む。車両状態検出器43は、車速、加速度、ヨーレート等の車両の挙動の情報を検出する。車両状態検出器43は、例えば、エンジン回転数センサ、車速センサ、加速度センサ、角速度センサのうちの少なくとも一つを含んでいてもよい。また、車両状態検出器43は、アクセル操作量、ブレーキ操作量、ステアリング舵角等の車両の操作状態の情報を検出する。車両状態検出器43は、例えば、アクセルポジションセンサ、ブレーキストロークセンサ、舵角センサのうちの少なくとも一つを含んでいてもよい。車両状態検出器43は、検出した情報を電子制御装置50へ送信する。電子制御装置50は、車両状態検出器43で検出された情報を取得可能に構成される。
(1−3.GPSアンテナ)
GPSアンテナ45は、GPS(Global Positioning System)衛星からの衛星信号を受信する。GPSアンテナ45は、受信した衛星信号に含まれる車両の地図データ上の位置情報を電子制御装置50へ送信する。電子制御装置50は、GPSアンテナ45から送信される位置情報を取得可能に構成される。なお、GPSアンテナ45の代わりに、車両の位置を特定する他の衛星システムからの衛星信号を受信アンテナが備えられていてもよい。
GPSアンテナ45は、GPS(Global Positioning System)衛星からの衛星信号を受信する。GPSアンテナ45は、受信した衛星信号に含まれる車両の地図データ上の位置情報を電子制御装置50へ送信する。電子制御装置50は、GPSアンテナ45から送信される位置情報を取得可能に構成される。なお、GPSアンテナ45の代わりに、車両の位置を特定する他の衛星システムからの衛星信号を受信アンテナが備えられていてもよい。
(1−4.第1通信部及び第2通信部)
第1通信部71は、車車間通信又は路車間通信、移動体通信網等の通信手段により車両の外部の装置と通信を行うためのインタフェースである。第1通信部71は、それぞれの通信規格に対応する一つ又は複数のインタフェースを含む。なお、第1通信部71を介した通信手段は、上記の例に限られない。
第1通信部71は、車車間通信又は路車間通信、移動体通信網等の通信手段により車両の外部の装置と通信を行うためのインタフェースである。第1通信部71は、それぞれの通信規格に対応する一つ又は複数のインタフェースを含む。なお、第1通信部71を介した通信手段は、上記の例に限られない。
第2通信部73は、移動体通信網等の通信手段により管理サーバ80と通信を行うためのインタフェースである。第2通信部73は、移動体通信網等の通信規格に対応するインタフェースにより構成される。なお、第2通信部73を介した通信手段は、移動体通信網に限られない。また、第1通信部71が第2通信部73を兼ねていてもよい。
(1−5.電子制御装置)
電子制御装置50は、例えば、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)等の演算処理装置、GPU(Graphic Processing Unit)等の画像処理装置、及び、RAM(Random Access Memory)やROM(Read Only Memory)等の記憶素子を備えて構成される。演算処理装置は、記憶素子に記憶されたプログラムを実行することにより種々の演算処理を実行する。なお、電子制御装置50の一部又は全部は、ファームウェア等の更新可能なもので構成されてもよく、また、CPU等からの指令によって実行されるプログラムモジュール等であってもよい。
電子制御装置50は、例えば、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)等の演算処理装置、GPU(Graphic Processing Unit)等の画像処理装置、及び、RAM(Random Access Memory)やROM(Read Only Memory)等の記憶素子を備えて構成される。演算処理装置は、記憶素子に記憶されたプログラムを実行することにより種々の演算処理を実行する。なお、電子制御装置50の一部又は全部は、ファームウェア等の更新可能なもので構成されてもよく、また、CPU等からの指令によって実行されるプログラムモジュール等であってもよい。
本実施形態において、電子制御装置50は、周囲情報取得部51、車両情報取得部52、感情推定部53、位置情報取得部55、特定部57、感情データ記憶処理部59及び記憶部61を備える。このうち、周囲情報取得部51、車両情報取得部52、感情推定部53、位置情報取得部55、特定部57及び感情データ記憶処理部59は、演算処理装置又は画像処理装置によるプログラムの実行により実現される機能であってもよい。
(1−5−1.記憶部)
記憶部61は、RAMやROM等の記憶素子を含む。記憶部61は、これらの記憶素子と併せて、あるいは、記憶素子に代えて、HDD(Hard Disk Drive)やCD(Compact Disc)、DVD(Digital Versatile Disc)、SSD(Solid State Drive)、USB(Universal Serial Bus)フラッシュ、ストレージ装置等の記憶媒体を備えていてもよい。記憶部61は、演算処理装置又は画像処理装置により実行されるソフトウェアプログラムや、演算処理に用いられる種々のパラメタ、取得した情報、演算結果等を記憶する。また、記憶部61は、車両の配色や装備された外装に関する登録情報を記憶するとともに、収集した感情のデータを蓄積する。
記憶部61は、RAMやROM等の記憶素子を含む。記憶部61は、これらの記憶素子と併せて、あるいは、記憶素子に代えて、HDD(Hard Disk Drive)やCD(Compact Disc)、DVD(Digital Versatile Disc)、SSD(Solid State Drive)、USB(Universal Serial Bus)フラッシュ、ストレージ装置等の記憶媒体を備えていてもよい。記憶部61は、演算処理装置又は画像処理装置により実行されるソフトウェアプログラムや、演算処理に用いられる種々のパラメタ、取得した情報、演算結果等を記憶する。また、記憶部61は、車両の配色や装備された外装に関する登録情報を記憶するとともに、収集した感情のデータを蓄積する。
(1−5−2.位置情報取得部)
位置情報取得部55は、GPSアンテナ45から送信される情報に基づいて車両の地図データ上の位置情報を取得する。
位置情報取得部55は、GPSアンテナ45から送信される情報に基づいて車両の地図データ上の位置情報を取得する。
(1−5−3.周囲情報取得部)
周囲情報取得部51は、周囲撮影カメラ41から送信される撮像情報に基づいて、車両の周囲の情報を取得する。周囲情報取得部51は、周囲撮影カメラ41から送信される撮像情報を画像処理することにより、物体検知の技術を用いて、車両の周囲に存在する他車両や自転車、建造物、自然物、道路、天候等の情報を検出する。具体的に、周囲情報取得部51は、撮像情報に基づいて、建造物の大きさや形状、配色、古さ、表面の質感、コントラスト等の情報を取得する。また、周囲情報取得部51は、撮像情報に基づいて、樹木、川及び山等の自然物の大きさや形状、配色等の情報を取得する。また、周囲情報取得部51は、撮像情報に基づいて、道路の形状、一般道又は高速道等の種別、幅、色、路面状態等の情報を取得する。また、周囲情報取得部51は、撮像情報に基づいて、他車両の大きさや車種、自車両との位置関係、自車両との相対速度等の情報を取得する。また、周囲情報取得部51は、撮像情報に基づいて、日照量や雨量、視界距離等の情報を取得する。
周囲情報取得部51は、周囲撮影カメラ41から送信される撮像情報に基づいて、車両の周囲の情報を取得する。周囲情報取得部51は、周囲撮影カメラ41から送信される撮像情報を画像処理することにより、物体検知の技術を用いて、車両の周囲に存在する他車両や自転車、建造物、自然物、道路、天候等の情報を検出する。具体的に、周囲情報取得部51は、撮像情報に基づいて、建造物の大きさや形状、配色、古さ、表面の質感、コントラスト等の情報を取得する。また、周囲情報取得部51は、撮像情報に基づいて、樹木、川及び山等の自然物の大きさや形状、配色等の情報を取得する。また、周囲情報取得部51は、撮像情報に基づいて、道路の形状、一般道又は高速道等の種別、幅、色、路面状態等の情報を取得する。また、周囲情報取得部51は、撮像情報に基づいて、他車両の大きさや車種、自車両との位置関係、自車両との相対速度等の情報を取得する。また、周囲情報取得部51は、撮像情報に基づいて、日照量や雨量、視界距離等の情報を取得する。
周囲情報取得部51は、車車間通信又は路車間通信、移動体通信網等の通信手段を介して車両の外部の装置から送信される情報を取得し、上記の車両の周囲の情報の一部を特定してもよい。また、周囲情報取得部51は、位置情報取得部55により取得される車両の位置情報を用いて自車両の位置を特定し、上記の車両の周囲の情報の一部を特定してもよい。
図2は、周囲情報取得部51が取得する情報と、それぞれの情報を取得するための手段、及び、それぞれの情報を取得する理由を示す説明図である。周囲情報取得部51は、それぞれ図2に示された手段を用いて、一部又は全部の周囲情報を取得することができる。例えば、周囲情報取得部51は、周囲撮影カメラ41の撮像画像を画像処理したデータ及び車両の地図データ上の走行位置の情報のうちの少なくとも一つに基づいて、走行中の道路の車線数、走行車線、道路幅、道路形状、道路勾配及び道路状態、道路設置物、並びに、交通信号機及び道路標識のうちの少なくとも一つの情報を取得する。また、周囲情報取得部51は、第1通信部71を介して外部のテレマティクスシステムから取得される情報に基づいて、カレンダー情報あるいは季節情報を取得する。これらの取得情報は、自車両の背景色に対する自車両のコントラストや色彩差、並びに自車両への光の当たり方を推定するために用いられる。
また、周囲情報取得部51は、周囲撮影カメラ41の撮像画像を画像処理したデータあるいは撮像画像に基づいて物体認識の学習処理を行ったデータに基づいて、車両の周囲の人工物の情報を取得する。また、周囲情報取得部51は、周囲撮影カメラ41の撮像画像を画像処理したデータ、車両の地図データ上の走行位置の情報及び対象物の視角の情報のうちの少なくとも一つに基づいて、車両の周囲の人工物の大きさの情報を取得する。また、周囲情報取得部51は、周囲撮影カメラ41の撮像画像を画像処理したデータ及び車両の地図データ上の走行位置の情報のうちの少なくとも一つに基づいて、車両の周囲の人工物の形状、配色、古さ又は面質の少なくとも一つの情報を取得する。また、周囲情報取得部51は、周囲撮影カメラ41の撮像画像を画像処理したデータあるいは撮像画像に基づいて物体認識の学習処理を行ったデータに基づいて、車両の周囲の自然物の情報、並びに、当該自然物の大きさ、形状又は配色の少なくとも一つの情報を取得する。これらの取得情報は、自車両の背景色に対する自車両のコントラストや色彩差を推定するために用いられる。
また、周囲情報取得部51は、周囲撮影カメラ41の撮像画像を画像処理したデータ及び第1通信部71を介して外部のテレマティクスシステムから取得される情報のうちの少なくとも一つに基づいて、車両の走行エリアの天候の情報を取得する。また、周囲情報取得部51は、周囲撮影カメラ41の撮像画像を画像処理したデータに基づいて、自車両に光を照射する光源の情報を取得する。また、周囲情報取得部51は、車両に搭載された照度計の出力信号に基づいて、光源の強度の情報を取得する。また、周囲情報取得部51は、周囲撮影カメラ41の撮像画像を画像処理したデータ及び車両の地図データ上の走行位置の情報のうちの少なくとも一つに基づいて、光源の位置の情報を取得する。光源は、例えば、太陽及び照明装置を含む。これらの取得情報は、自車両が受ける光の影響を推定するために用いられる。
周囲情報取得部51は、これらの周囲情報を収集することにより、人物が自車両を見たときの背景色と自車両とのコントラストや色彩差、自車両への光の当たり方を把握することができ、自車両の見せ方による人物の感情を分析することができる。なお、図2に示した取得情報はあくまでも一例であって、取得情報が他の情報を含んでいてもよい。
(1−5−4.車両情報取得部)
車両情報取得部52は、車両状態検出器43から送信される情報及び記憶部61に記憶された情報に基づいて、車両に関する情報を取得する。取得される情報は、車両の操作状態及び挙動の情報、並びに、車両の配色及び装備された外装の情報を含む。外装は、例えば、スポイラやリヤウィング、サイドステップ等のエアロパーツを含む。車両の操作状態や挙動の情報は、CANやLIN等の通信手段を介して送信される車両状態検出器43の出力信号に基づいて取得される。また、車両の配色及び装備された外装の情報は、あらかじめ記憶部61に記憶されている。
車両情報取得部52は、車両状態検出器43から送信される情報及び記憶部61に記憶された情報に基づいて、車両に関する情報を取得する。取得される情報は、車両の操作状態及び挙動の情報、並びに、車両の配色及び装備された外装の情報を含む。外装は、例えば、スポイラやリヤウィング、サイドステップ等のエアロパーツを含む。車両の操作状態や挙動の情報は、CANやLIN等の通信手段を介して送信される車両状態検出器43の出力信号に基づいて取得される。また、車両の配色及び装備された外装の情報は、あらかじめ記憶部61に記憶されている。
図3は、車両情報取得部52が取得する情報と、それぞれの情報を取得するための手段、及び、それぞれの情報を取得する理由を示す説明図である。車両状態検出器43は、それぞれ図3に示された手段を用いて、一部又は全部の車両の状態の情報を取得することができる。例えば、車両状態検出器43は、CANメッセージに含まれるセンサ情報及び位置情報取得部55により取得される車両の位置情報に基づいて、自車両の速度、加速度、ジャーク(加加速度)、角速度、操舵角、並びに、アクセル開度及びブレーキ圧の情報を取得する。これらの取得情報は、自車両が走行中であるか、停車中であるかあるいは旋回中であるか等、自車両の運動状態を推定するために用いられる。
また、車両情報取得部52は、位置情報取得部55により取得される車両の位置情報に基づいて、自車両の走行位置の情報を取得する。これらの取得情報は、自車両が走行しているエリアの風景や日照方向の推定に用いられる。また、車両情報取得部52は、記憶部61に記憶された車両の登録情報に基づいて、自車両の配色及び装備された外装の情報を取得する。自車両の配色の情報は、自車両の背景色に対する自車両のコントラスト及び色彩差を推定するために用いられる。また、装備された外装の情報は、自車両のデザインの印象に影響を与え得る要素を推定するために用いられる。
車両情報取得部52は、これらの車両の状態の情報を収集することにより、人物が自車両を見たときの車両の運動状態や背景、日照条件、デザインの印象に影響を与える要素等を把握することができ、自車両の見せ方や装備による人物の感情を分析することができる。なお、図3に示した取得情報はあくまでも一例であって、取得情報が他の情報を含んでいてもよい。
(1−5−5.感情推定部)
感情推定部53は、周囲撮影カメラ41から送信される撮像情報に基づいて、自車両を見ている人物の感情を推定する。具体的に、感情推定部53は、撮像情報に基づいて、物体検知の技術を用いて人体の顔を抽出するとともに当該人物の視線を検出して、自車両を見ている人物を特定する。検出する人物は、歩行者や静止している人物に限らず、自転車に乗っている人物や、他車両の乗員を含む。感情推定部53は、自車両を見ている人物を特定した場合、例えば、FACS理論に基づく表情解析の手法により当該人物の表情のデータを解析して人物の感情を推定する。感情は、例えば、喜怒哀楽等の感情の種類ごとに規定されたレベルにより推定されてもよい。感情の推定方法は、他の手法であってもよい。
感情推定部53は、周囲撮影カメラ41から送信される撮像情報に基づいて、自車両を見ている人物の感情を推定する。具体的に、感情推定部53は、撮像情報に基づいて、物体検知の技術を用いて人体の顔を抽出するとともに当該人物の視線を検出して、自車両を見ている人物を特定する。検出する人物は、歩行者や静止している人物に限らず、自転車に乗っている人物や、他車両の乗員を含む。感情推定部53は、自車両を見ている人物を特定した場合、例えば、FACS理論に基づく表情解析の手法により当該人物の表情のデータを解析して人物の感情を推定する。感情は、例えば、喜怒哀楽等の感情の種類ごとに規定されたレベルにより推定されてもよい。感情の推定方法は、他の手法であってもよい。
このとき、感情推定部53は、自車両を見ている人物の自車両に対する興味度合の値を算出し、興味度合の値があらかじめ設定した閾値以上の人物の感情を推定してもよい。これにより、偶然自車両の方へ視線を向けている一方で自車両に興味を示していない人物の感情のデータを収集することを避けることができる。自車両に対する興味度合は、例えば、所定の時間に対する自車両に視線を向けていた時間の割合として求めてもよい。この他、感情推定部53は、自車両に視線を向けているときの時間当たりの感情の変化状態に基づいて自車両に対する興味度合を求めることができる。あるいは、感情推定部53は、自車両に視線を向けてからの動作の変化状態等に基づいて自車両に対する興味度合を求めてもよい。例えば、感情推定部53は、走っていた人物が、自車両に視線を向けた後に立ち止まって自車両を注視したような場合に、自車両に対する興味度合が高いものと推定してもよい。
図4は、感情推定部53が取得する人物の情報と、それぞれの情報を取得するための手段、及び、それぞれの情報を取得する理由を示す説明図である。感情推定部53は、それぞれ図4に示された手段を用いて、一部又は全部の人物の情報を取得することができる。例えば、感情推定部53は、周囲撮影カメラ41の撮像画像を画像処理したデータあるいは撮像画像に基づいて物体認識の学習処理を行ったデータに基づいて、自車両の周囲に存在する人物を検出する。また、感情推定部53は、周囲撮影カメラ41の撮像画像を画像処理したデータに基づいて、検出した人物の視線の方向、及び、自車両に視線を向けている滞留時間又は頻度の少なくとも一つの情報を取得する。これらの取得情報は、自車両を注視する人物を把握するために用いられる。
また、感情推定部53は、周囲撮影カメラ41の撮像画像を画像処理したデータ及び解析したデータに基づいて、自車両を注視する人物の感情の種類又はレベルの少なくとも一つの情報を取得する。これらの取得情報は、自車両を注視する人物の感情の把握に用いられる。また、感情推定部53は、周囲撮影カメラ41の撮像画像を画像処理したデータあるいは撮像画像に基づいて物体認識の学習処理を行ったデータに基づいて、自車両の周囲の人物の位置、及び、人物と自車両との距離又は相対速度の少なくとも一つの情報を取得する。これらの取得情報は、自車両を注視する人物の状態を把握するために用いられる。つまり、人物が自車両の近くにいるか否か、あるいは、人物が移動中であるか否かが把握される。
また、感情推定部53は、周囲撮影カメラ41の撮像画像を画像処理したデータ及び解析したデータに基づいて、自車両を注視する人物の属性の情報を取得する。人物の属性の情報は、例えば、性別、年齢、人種、居住地域、所得、職業、学歴又は家族構成のうちの少なくとも一つの情報を含む。例えば、感情推定部53は、周囲撮影カメラ41の撮像画像を画像処理したデータ及び解析したデータに基づいて特徴量分析等の手法により人物を特定し、外部の管理サーバ80等に蓄積された属性データを参照することにより人物の属性の情報を取得する。これらの取得情報は、自車両を注視する人物の属性のカテゴライズに用いられ、どのような属性の人物が自車両に対してどのような感情を抱く傾向にあるかの分析に用いられる。
感情推定部53は、これらの人物の情報を収集することにより、自車両を注視する人物の感情、当該人物の状態及び属性等を把握することができ、車両のデザインに対する評価や車両のマーケティング情報を分析することができる。なお、図4に示した取得情報はあくまでも一例であって、取得情報が他の情報を含んでいてもよい。
(1−5−6.特定部)
特定部57は、周囲情報取得部51、車両情報取得部52、感情推定部53及び位置情報取得部55により得られた情報に基づいて、自車両を見ている人物からみた自車両の状態を特定する。例えば、特定部57は、自車両を見ている人物から自車両を見た場合の周囲情報を特定する。周囲情報とは、建造物、自然物、道路、他車両及び天候のうちの少なくとも一つに関する情報である。また、特定部57は、自車両を見ている人物が自車両のどの部分を見ているかを特定してもよい。また、特定部57は、自車両を見ている人物の属性を特定してもよい。人物の属性とは、当該人物の性別又は年齢の少なくとも一つの情報を含んでいてもよい。また、自車両を見ている人物が他車両に乗車している人物である場合、人物の属性とは、自車両に対する人物(他車両)の相対速度の情報を含んでいてもよい。
特定部57は、周囲情報取得部51、車両情報取得部52、感情推定部53及び位置情報取得部55により得られた情報に基づいて、自車両を見ている人物からみた自車両の状態を特定する。例えば、特定部57は、自車両を見ている人物から自車両を見た場合の周囲情報を特定する。周囲情報とは、建造物、自然物、道路、他車両及び天候のうちの少なくとも一つに関する情報である。また、特定部57は、自車両を見ている人物が自車両のどの部分を見ているかを特定してもよい。また、特定部57は、自車両を見ている人物の属性を特定してもよい。人物の属性とは、当該人物の性別又は年齢の少なくとも一つの情報を含んでいてもよい。また、自車両を見ている人物が他車両に乗車している人物である場合、人物の属性とは、自車両に対する人物(他車両)の相対速度の情報を含んでいてもよい。
(1−5−7.感情データ記憶処理部)
感情データ記憶処理部59は、自車両を見ている人物の感情のデータを、特定部57により特定された自車両の状態のデータに関連付けて記憶部61に記憶させる処理を実行する。これにより、どのような属性の人物が、どの角度から、どのような背景の下で、自車両のどの部分を見て、どのような感情を持ったのかのデータを蓄積することができる。したがって、どのような属性の人物が車両に対して関心を示したかあるいは示さないか、あるいは、どの角度又はどのような背景の下で人物が自車両に関心を示したかを分析することができる。
感情データ記憶処理部59は、自車両を見ている人物の感情のデータを、特定部57により特定された自車両の状態のデータに関連付けて記憶部61に記憶させる処理を実行する。これにより、どのような属性の人物が、どの角度から、どのような背景の下で、自車両のどの部分を見て、どのような感情を持ったのかのデータを蓄積することができる。したがって、どのような属性の人物が車両に対して関心を示したかあるいは示さないか、あるいは、どの角度又はどのような背景の下で人物が自車両に関心を示したかを分析することができる。
感情データ記憶処理部58は、感情のデータを記憶させる際に、季節、カレンダー情報及び時刻のうちの少なくとも一つの情報に関連付けて記憶させてもよい。これにより、季節や月日、時刻に応じて変化する周囲情報に応じた車両のデザインへの人物の感情を分析することができる。
感情データ記憶処理部59は、演算処理装置の処理能力に応じた処理サイクルごとに、自車両を見ている人物の感情のデータと、当該人物から見た車両の状態のデータとを時間的に関連付けて記憶部61に蓄積してもよい。これにより、自車両を見ている人物の感情のデータを時系列のデータとして蓄積することができ、当該人物に対する車両の状態の動的な変化による感情の変化のデータや、車両の状態の動的な変化に対する感情のデータを収集することができる。また、感情データ記憶処理部59は、第2通信部73を介して、記憶部61に蓄積するデータを管理サーバへ送信してもよい。このときデータが送信される管理サーバは、人物の属性のデータを記憶する管理サーバ80と共通のサーバであってもよく、異なるサーバであってもよい。
<2.データ収集装置の動作例>
ここまで、本実施形態に係るデータ収集装置10の構成例を説明した。次に、図5〜図7に示すフローチャートに基づいて、本実施形態に係るデータ収集装置10の動作例を説明する。以下の説明においては、上述の構成例ですでに説明した内容と重複する説明を省略する場合がある。
ここまで、本実施形態に係るデータ収集装置10の構成例を説明した。次に、図5〜図7に示すフローチャートに基づいて、本実施形態に係るデータ収集装置10の動作例を説明する。以下の説明においては、上述の構成例ですでに説明した内容と重複する説明を省略する場合がある。
まず、電子制御装置50がデータ収集装置10の起動を検知すると(ステップS11)、次いで、車両情報取得部52は、位置情報取得部55により特定された自車両の地図データ上の位置の情報、車両状態検出器43の出力信号及び記憶部61に記憶された車両の登録情報に基づいて、図3に例示した車両の状態の情報を検出する(ステップS13)。次いで、周囲情報取得部51は、位置情報取得部55により特定された自車両の地図データ上の位置の情報、周囲撮影カメラ41から送信される撮像情報等に基づいて、図2に例示した車両の周囲の情報を取得する(ステップS15)。次いで、感情推定部53は、周囲撮影カメラ41から送信される撮像情報等に基づいて、図4に示した人物の情報を取得するとともに、自車両を見ている人物の感情を推定する(ステップS17)。
図6は、自車両を見ている人物の感情を推定する処理のフローチャートを示す。まず、感情推定部53は、周囲撮影カメラ41から送信される撮像情報に基づいて、物体検知の技術を用いて、自車両を見ている人物を抽出する(ステップS41)。例えば、感情推定部53は、自車両の周囲の人物を検出するとともに、検出される人物の視線の向きに基づいて自車両に視線を向けている人物を抽出する。次いで、感情推定部53は、当該人物の自車両に対する興味度合を算出する(ステップS43)。例えば、感情推定部53は、所定時間に対する自車両に視線を向けている時間の割合を興味度合とする。この他、感情推定部53は、自車両に視線を向けているときの時間当たりの感情の変化状態に基づいて自車両に対する興味度合を求めてもよい。あるいは、感情推定部53は、自車両に視線を向けてからの動作の変化状態等に基づいて自車両に対する興味度合を求めてもよい。
次いで、感情推定部53は、算出した興味度合が、あらかじめ設定された閾値以上であるか否かを判別する(ステップS45)。算出した興味度合が閾値未満である場合(S45/No)、感情推定部53は、ステップS41に戻って、自車両を見ている人物を再度抽出する。一方、算出した興味度合が閾値以上である場合(S45/Yes)、感情推定部53は、周囲撮影カメラ41の撮像情報から特徴量を抽出する技術を用いる等により、性別、年齢、人種等の当該人物の属性を推定する(ステップS47)。感情推定部53は、人物を特定した後、外部の管理サーバ80に登録された当該人物の属性の情報を取得してもよい。次いで、感情推定部53は、当該人物の感情を推定する(ステップS49)。例えば、感情推定部53は、周囲撮影カメラ41の撮像情報から抽出した人物の顔領域に対して、FACS理論に基づく表情解析の手法により当該人物の表情のデータを解析して人物の感情を推定する。感情は、例えば、喜怒哀楽等の感情の種類ごとに規定されたレベルにより推定されてもよい。
図5に戻り、感情推定部53による自車両を見ている人物の感情の推定を行った後、特定部57は、自車両を見ている人物から見た自車両の状態を特定する(ステップS19)。具体的に、図7に示すように、特定部57は、周囲情報取得部51、感情推定部53及び位置情報取得部55により得られた情報を組み合わせ、自車両を見ている人物からみた自車両の周囲環境(背景等)を特定し(ステップS51)、さらに、当該人物が見ている車両の部分を特定する(ステップS53)。
特定部57が、自車両を見ている人物から見た自車両の状態を特定した後、感情データ記憶処理部59は、人物の感情のデータを、特定した車両の状態のデータに関連付けて記憶部61に記憶させる(ステップS21)。本実施形態において、特定部57は、人物の感情のデータを、さらに人物の属性のデータ及び季節、カレンダー情報に関連付けて記憶部61に記憶させる。感情データ記憶処理部59は、記憶部61に記憶させるデータを、外部の管理サーバ80へ送信し、管理サーバ80へ記憶させてもよい。
次いで、データ収集装置10が停止したか否かが判別され(ステップS23)、データ収集装置10が停止していない場合(S23/No)、電子制御装置50は、これらのステップS13〜ステップS21の一連の処理を、演算処理装置の処理能力に応じた処理サイクルごとに実行し、時系列のデータとして人物の感情のデータを蓄積する。一方、データ収集装置10が停止していない場合(S23/No)、電子制御装置50は、一連の処理動作を終了する。
このようにして、本実施形態に係るデータ収集装置10によれば、自車両の周囲を撮影した撮像情報に基づいて自車両を見ている人物を特定し、当該人物の感情を推定するとともに、当該人物の感情のデータを、当該人物から見た自車両の状態のデータに関連付けて蓄積する。したがって、人物が、自車両をどのように見た場合に、どのような感情を抱くかのデータを、不特定の人物を対象として収集することができる。
また、データ収集装置10により収集される感情のデータは、人物から見た周囲の環境に対する自車両のコントラストや色彩差、車両への日照条件、車両を見る際の角度、相対速度、人物が見ている車両の部分等のデータに関連付けて蓄積される。また、データ収集装置10により収集される感情のデータは、車両の操作状態や挙動のデータに関連付けて蓄積される。このため、車両をどのように見せるとよいかの分析や、車両のデザインの評価の分析を部分ごとに行うことができる。また、データ収集装置10により収集される感情のデータは、人物の属性の情報とともに蓄積させてもよい。この場合、どのような属性の人物に、車両のデザインが好評であるかあるいは不評であるかを分析することができ、蓄積したデータを、車両の販売のためのマーケティングに用いることができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10…データ収集装置、41…周囲撮影カメラ、43…車両状態検出部、45…GPSアンテナ、51…周囲情報取得部、52…車両情報取得部、53…感情推定部、55…位置情報取得部、57…特定部、59…感情データ記憶処理部、61…記憶部、71…第1通信部、73…第2通信部
Claims (10)
- 自車両の周囲を撮影した撮像情報に基づいて、自車両を見ている人物の感情を推定する感情推定部と、
前記自車両を見ている人物からみた自車両の状態を特定する特定部と、
前記自車両を見ている人物の感情のデータを、前記特定した自車両の状態のデータに関連付けて記憶させる感情データ記憶処理部と、
を備える、データ収集装置。 - 前記特定部は、前記自車両を見ている人物から自車両を見た場合の周囲情報を特定し、
前記感情データ記憶処理部は、前記自車両を見ている人物の感情のデータを、前記周囲情報のデータに関連付けて記憶させる、請求項1に記載のデータ収集装置。 - 前記特定部は、前記自車両を見ている人物から自車両を見た場合の周囲情報として、建造物、自然物、道路、他車両及び天候のうちの少なくとも一つに関する情報を特定する、請求項2に記載のデータ収集装置。
- 前記特定部は、前記撮像情報に基づいて、前記人物が見ている自車両の部分をさらに特定し、
前記感情データ記憶処理部は、前記自車両を見ている人物の感情のデータを、さらに前記人物が見ている自車両の部分のデータに関連付けて記憶させる、請求項1〜3のいずれか1項に記載のデータ収集装置。 - 前記特定部は、前記撮像情報に基づいて、前記自車両を見ている人物の属性をさらに特定し、
前記感情データ記憶処理部は、前記自車両を見ている人物の感情のデータを、さらに前記人物の属性のデータに関連付けて記憶させる、請求項1〜4のいずれか1項に記載のデータ収集装置。 - 前記自車両を見ている人物が他車両に乗車している人物である場合、前記人物の属性のデータは、前記自車両に対する前記人物の相対速度の情報を含む、請求項5に記載のデータ収集装置。
- 前記感情データ記憶処理部は、前記自車両を見ている人物の感情のデータを、さらに季節、カレンダー、時刻又は地図データ上の位置のうちの少なくとも一つのデータに関連付けて記憶させる、請求項1〜6のいずれか1項に記載のデータ収集装置。
- 前記感情データ記憶処理部は、前記人物の感情のデータを、時系列のデータとして記憶させる、請求項1〜7のいずれか1項に記載のデータ収集装置。
- 前記感情推定部は、前記撮像情報に基づいて、前記自車両を見ている人物の前記自車両に対する興味度合の値を算出し、前記興味度合の値が所定の閾値以上の人物の感情を推定する、請求項1〜8のいずれか1項に記載のデータ収集装置。
- 前記自車両に対する興味度合の値は、所定の時間に対する前記自車両に視線を向けていた時間の割合である、請求項9に記載のデータ収集装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020039519A JP2021140624A (ja) | 2020-03-09 | 2020-03-09 | データ収集装置 |
US17/150,431 US11935306B2 (en) | 2020-03-09 | 2021-01-15 | Data collection apparatus for estimating emotion of a person watching vehicle |
CN202110067584.4A CN113378613A (zh) | 2020-03-09 | 2021-01-19 | 数据收集装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020039519A JP2021140624A (ja) | 2020-03-09 | 2020-03-09 | データ収集装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021140624A true JP2021140624A (ja) | 2021-09-16 |
Family
ID=77555773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020039519A Pending JP2021140624A (ja) | 2020-03-09 | 2020-03-09 | データ収集装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11935306B2 (ja) |
JP (1) | JP2021140624A (ja) |
CN (1) | CN113378613A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021206489A1 (ko) * | 2020-04-08 | 2021-10-14 | 주식회사 별따러가자 | 운행 기록을 분석하는 방법 및 시스템, 및 운행 기록 장치 |
DE102023113974A1 (de) * | 2023-05-26 | 2024-11-28 | Bayerische Motoren Werke Aktiengesellschaft | Bereitstellung von Umgebungsdaten eines Kraftfahrzeugs |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004342119A (ja) | 2004-06-11 | 2004-12-02 | Kenji Mimura | 商品デザイン評価方法 |
US10074024B2 (en) * | 2010-06-07 | 2018-09-11 | Affectiva, Inc. | Mental state analysis using blink rate for vehicles |
CN113532464B (zh) * | 2015-10-08 | 2024-10-25 | 松下电器(美国)知识产权公司 | 控制方法、个人认证装置和记录介质 |
KR102579371B1 (ko) * | 2019-02-21 | 2023-09-18 | 한국전자통신연구원 | 운전자 감성 인식 방법 및 장치 |
-
2020
- 2020-03-09 JP JP2020039519A patent/JP2021140624A/ja active Pending
-
2021
- 2021-01-15 US US17/150,431 patent/US11935306B2/en active Active
- 2021-01-19 CN CN202110067584.4A patent/CN113378613A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US11935306B2 (en) | 2024-03-19 |
CN113378613A (zh) | 2021-09-10 |
US20210279480A1 (en) | 2021-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12236692B2 (en) | Driver attention detection method | |
US11392131B2 (en) | Method for determining driving policy | |
Devi et al. | A comprehensive survey on autonomous driving cars: A perspective view | |
US11919545B2 (en) | Scenario identification for validation and training of machine learning based models for autonomous vehicles | |
Jabbar et al. | Urban traffic monitoring and modeling system: An iot solution for enhancing road safety | |
US9542609B2 (en) | Automatic training of a parked vehicle detector for large deployment | |
EP2876620B1 (en) | Driving assistance system and driving assistance method | |
WO2022174750A1 (zh) | 一种寻车指引方法、装置、终端设备、电子设备及计算机可读存储介质、程序产品 | |
WO2020029444A1 (zh) | 一种驾驶员驾驶时注意力检测方法和系统 | |
JP7420734B2 (ja) | データ配信システム、センサデバイス及びサーバ | |
JP7331728B2 (ja) | 運転者状態推定装置 | |
WO2018171875A1 (en) | Control device, system and method for determining the perceptual load of a visual and dynamic driving scene | |
JP7521920B2 (ja) | 運転支援装置及びデータ収集システム | |
Lamaazi et al. | Smart edge-based driver drowsiness detection in mobile crowdsourcing | |
Jan et al. | Methods and tools for monitoring driver's behavior | |
JP2021140624A (ja) | データ収集装置 | |
JP7331729B2 (ja) | 運転者状態推定装置 | |
CN116434173B (zh) | 道路图像检测方法、装置、电子设备及存储介质 | |
CN112686103A (zh) | 一种车路协同的疲劳驾驶监测系统 | |
Kutila et al. | Towards autonomous vehicles with advanced sensor solutions | |
CN111984801A (zh) | 媒体信息的显示方法、存储介质和电子显示设备 | |
CN110458610A (zh) | 一种信息处理方法、装置、交通工具及存储介质 | |
Yaw et al. | Analysis on access fairness and a technique to extend distance for 802.6 | |
KR102340902B1 (ko) | 스쿨존을 모니터링하는 장치 및 방법 | |
CN115965938A (zh) | 基于智能头盔的骑行安全检测方法、装置及存储介质 |