[go: up one dir, main page]

JP7143736B2 - 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム - Google Patents

運転支援装置、ウェアラブル装置、運転支援方法およびプログラム Download PDF

Info

Publication number
JP7143736B2
JP7143736B2 JP2018217670A JP2018217670A JP7143736B2 JP 7143736 B2 JP7143736 B2 JP 7143736B2 JP 2018217670 A JP2018217670 A JP 2018217670A JP 2018217670 A JP2018217670 A JP 2018217670A JP 7143736 B2 JP7143736 B2 JP 7143736B2
Authority
JP
Japan
Prior art keywords
user
vehicle
wearable device
determined
recording function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018217670A
Other languages
English (en)
Other versions
JP2020086726A (ja
Inventor
和浩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018217670A priority Critical patent/JP7143736B2/ja
Priority to US16/672,570 priority patent/US11418909B2/en
Priority to CN201911119023.3A priority patent/CN111196230B/zh
Publication of JP2020086726A publication Critical patent/JP2020086726A/ja
Application granted granted Critical
Publication of JP7143736B2 publication Critical patent/JP7143736B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/20Monitoring; Testing of receivers
    • H04B17/27Monitoring; Testing of receivers for locating or positioning the transmitter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • H04B17/318Received signal strength
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • H04B2001/3866Transceivers carried on the body, e.g. in helmets carried on the head

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、運転支援装置、ウェアラブル装置、運転支援方法およびプログラムに関する。
画像をメガネのレンズ上で結像することによってユーザに認識させるウェアラブル装置が知られている(例えば特許文献1参照)。このウェアラブル装置は、装着したユーザの周辺や他者等の被写体を撮像するカメラを備え、ユーザの装着時にカメラが連続的に撮像した映像を投影したり、ユーザの周辺の物体の検出に用いたりしている。
特許第6308940号公報
ところで、ウェアラブル装置は、一般生活でも広く活用される可能性が極めて高く、ユーザが装着した状態で車両に乗車して運転することが考えられる。この場合、ウェアラブル装置は、取得した画像等を含む各種情報を、ネットワークを介して車両やサーバへ送信することで、車両やサーバから提供された新たなコンテンツやサービスを使用することができる。
しかしながら、高速大容量通信の発展に伴って、ウェアラブル装置によって取得された各種情報は、ユーザが乗車する車両へ送信されたり、ネットワークを介してサーバへ送信したされたりすることで、装着したユーザや撮影された他者が意図しない形で使用されてしまう虞があった。このため、従来のウェアラブル装置では、装着したユーザや他者へのプライバシーに対して配慮した動作を行っていないという問題点があった。
本発明は、上記に鑑みてなされたものであって、装着したユーザや他者へのプライバシーに対して配慮した動作を行うことができる運転支援装置、ウェアラブル装置、運転支援方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、メモリと、ハードウェアを有するプロセッサと、を備え、前記プロセッサは、車両とユーザとの相対的な位置関係を示す乗車状況に基づいて、ユーザが装着するウェアラブル装置が有する機能であって、プライバシーに関わる情報を取得する機能の動作を切り替える制御を行う。
また、前記プロセッサは、当該運転支援装置と前記ウェアラブル装置との距離が所定値以上であるか否かを判定し、前記距離が前記所定値以上であると判定した場合、前記ユーザが前記車両から降車した状態であると判定し、前記機能を停止する一方、前記距離が前記所定値以上でないと判定した場合、前記ユーザが前記車両に乗車した状態であると判定し、前記機能を開始してもよい。
これによれば、ユーザがウェアラブル装置を装着したまま車両を降車した場合であっても、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を停止することで、ウェアラブル装置によって取得可能な情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両に乗車した場合、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を開始することで、ウェアラブル装置によって取得された情報を用いた運転支援を行うことができる。
また、前記プロセッサは、前記車両のエンジンを始動するイグニッションスイッチがオフ状態または前記車両の電源を起動する起動スイッチがオフ状態であるか否かを判定し、前記イグニッションスイッチがオフ状態または前記起動スイッチがオフ状態である場合、前記ユーザが前記車両から降車した状態であると判定し、前記機能を停止する一方、前記イグニッションスイッチがオン状態および前記起動スイッチがオン状態である場合、前記ユーザが前記車両に乗車した状態であると判定し、前記機能を開始してもよい。
これによれば、ユーザが車両の運転を終えてウェアラブル装置を装着したまま車両を降車した場合であっても、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を停止することで、ウェアラブル装置によって取得可能な情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両に乗車して車両の運転を開始した場合、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を開始することで、ウェアラブル装置によって取得された情報を用いた運転支援を行うことができる。
また、前記プロセッサは、前記ウェアラブル装置から受信する信号の信号強度が所定値未満であるか否かを判定し、前記信号強度が前記所定値未満である場合、前記ユーザが前記車両から降車した状態であると判定し、前記機能を停止する一方、前記信号強度が前記所定値未満でない場合、前記ユーザが前記車両に乗車した状態であると判定し、前記機能を開始してもよい。
これによれば、ユーザがウェアラブル装置を装着したまま車両を降車した場合であっても、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を停止することで、ウェアラブル装置によって取得可能な情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両に乗車した場合、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を開始することで、ウェアラブル装置によって取得された情報を用いた運転支援を行うことができる。
また、前記車両のドアの開閉状態を検出する開閉スイッチと、前記車両の運転席に対する着座の状態を検出するシートセンサと、をさらに備え、前記プロセッサは、前記開閉スイッチが検出した検出結果および前記シートセンサの検出結果に基づいて、前記乗車状況を判定し、前記ユーザが前記車両から降車した状態であると判定した場合、前記機能を停止する一方、前記ユーザが前記車両に乗車した状態であると判定した場合、前記機能を開始してもよい。
これによれば、ユーザが車両の運転を終えてウェアラブル装置を装着したまま車両を降車した場合であっても、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を停止することで、ウェアラブル装置によって取得可能な情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両に乗車して車両の運転を開始した場合、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を開始することで、ウェアラブル装置によって取得された情報を用いた運転支援を行うことができる。
また、前記プロセッサは、前記車両および前記ウェアラブル装置を撮像した画像データに基づいて、前記乗車状況を判定し、前記ユーザが前記車両から降車した状態であると判定した場合、前記機能を停止する一方、前記ユーザが前記車両に乗車した状態であると判定した場合、前記機能を開始してもよい。
これによれば、ユーザがウェアラブル装置を装着したまま車両を降車した場合であっても、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を停止することで、ウェアラブル装置によって取得可能な情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両に乗車した場合、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を開始することで、ウェアラブル装置によって取得された情報を用いた運転支援を行うことができる。
また、前記プロセッサは、前記ウェアラブル装置から送信された画像データに基づいて、前記乗車状況を判定し、前記ユーザが前記車両から降車した状態であると判定した場合、前記機能を停止する一方、前記ユーザが前記車両に乗車した状態であると判定した場合、前記機能を開始してもよい。
これによれば、ユーザがウェアラブル装置を装着したまま車両を降車した場合であっても、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を停止することで、ウェアラブル装置によって取得可能な情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両に乗車した場合、プロセッサがウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能を開始することで、ウェアラブル装置によって取得された情報を用いた運転支援を行うことができる。
また、前記ウェアラブル装置から送信された装着信号であって、前記ユーザが前記ウェアラブル装置の装着状態を示す装着信号に基づいて、前記ユーザが前記ウェアラブル装置を装着しているか否かを判定し、前記ユーザが前記車両に乗車した状態であると判定された場合において、前記ユーザが前記ウェアラブル装置を装着していない状態であると判定したとき、前記機能を停止する一方、前記ユーザが前記車両に乗車した状態であると判定された場合において、前記ユーザが前記ウェアラブル装置を装着している状態であると判定したとき、前記機能を開始してもよい。
これによれば、ユーザが車両に乗車した場合であっても、ユーザがウェアラブル装置を装着するまで、ウェアラブル装置による情報の取得を防止することができるので、ユーザや他者へのプライバシーに対して配慮した動作を行うことができる。
また、前記プロセッサは、前記機能が停止されている場合において、前記機能の動作を開始する開始信号が入力されたとき、前記機能を開始してもよい。
これによれば、ユーザが車両から降車している場合であっても、緊急時にウェアラブル装置によって各種情報を取得することができるので、証拠として用いることができる、または火事や天災等の突発的な状況を記録することができる。
また、前記ウェアラブル装置は、動画撮影可能な撮像部と、位置情報を取得するGPSセンサと、前記ユーザのバイタル情報を取得するバイタルセンサと、所定の位置に画像を投影する投影部と、を備え、前記機能は、前記撮像部による動画撮影機能、前記撮像部によって撮影された動画データを記録する記録機能、前記撮像部によって撮影された動画データ、前記GPSセンサが取得した前記位置情報および前記バイタルセンサが取得した前記バイタル情報のいずれか一つ以上を送信する送信機能、前記GPSセンサが前記位置情報を取得する取得機能および前記投影部が前記画像を投影する投影機能のいずれか一つ以上であってもよい。
これによれば、ユーザの乗車状況に応じて、動画撮影機能、記録機能、送信機能および投影機能のいずれか一つ以上を制限するので、ユーザや他者へのプライバシーに対して配慮した動作を行うことができる。
また、前記ウェアラブル装置は、所定の位置に画像を投影する投影部を備え、前記プロセッサは、前記乗車状況を判定し、前記ユーザが前記車両から降車した状態であると判定した場合、前記投影部が投影する前記画像を前記ユーザが歩行に適した表示内容に切り替える一方、前記ユーザが前記車両に乗車した状態であると判定した場合、前記投影部が投影する前記画像を、前記ユーザの運転を支援する表示内容に切り替えてもよい。
これによれば、ユーザの乗車状況に応じて、ウェアラブル装置が投影する画像の表示内容を切り替えるので、ユーザの乗車状況に応じた表示を行うことができる。
また、本発明に係るウェアラブル装置は、車両と双方向に通信可能であり、ユーザが装着するウェアラブル装置であって、前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を受信する通信部と、ハードウェアを有するプロセッサと、を備え、前記プロセッサは、前記乗車状況に基づいて、当該ウェアラブル装置が有する機能であって、プライバシーに関わる情報を取得する機能の動作を切り替える制御を行う。
また、本発明に係る運転支援方法は、車両のユーザによる運転を支援する運転支援装置が実行する運転支援方法であって、前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を取得し、メモリから読み出した前記乗車状況に基づいて、前記ユーザが装着するウェアラブル装置が有する機能であって、プライバシーに関わる情報を取得する機能の動作を切り替える制御を行う。
また、本発明に係る運転支援方法は、車両と双方向に通信可能であり、ユーザが装着するウェアラブル装置が実行する運転支援方法であって、前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を受信し、メモリから読み出した前記乗車状況に基づいて、当該ウェアラブル装置が有する機能であって、プライバシーに関わる情報を取得する機能の動作を切り替える制御を行う。
また、本発明に係るプログラムは、車両のユーザによる運転を支援する運転支援装置に実行させるプログラムであって、前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を取得し、メモリから読み出した前記乗車状況に基づいて、前記ユーザが装着するウェアラブル装置が有する機能であって、プライバシーに関わる情報を取得する機能の動作を切り替える制御を行う。
また、本発明に係るプログラムは、車両と双方向に通信可能であり、ユーザが装着するウェアラブル装置が実行するプログラムであって、前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を受信し、メモリから読み出した前記乗車状況に基づいて、当該ウェアラブル装置が有する機能であって、プライバシーに関わる情報を取得する機能の動作を切り替える制御を行う。
本発明によれば、車両に対するユーザの乗車状況に基づいて、ウェアラブル装置におけるプライバシーに関わる所定の機能を切り替える制御を行うことによって、ウェアラブル装置によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができるので、ユーザや他者へのプライバシーに対して配慮した動作を行うことができるという効果を奏する。
図1は、実施の形態1に係る運転支援システムの概略構成を示す図である。 図2は、実施の形態1に係る運転支援システムの機能構成を示すブロック図である。 図3は、実施の形態1に係るウェアラブル装置の概略構成を示す図である。 図4は、実施の形態1に係る運転支援装置が実行する処理の概要を示すフローチャートである。 図5は、実施の形態2に係るウェアラブル装置が実行する処理の概要を示すフローチャートである。 図6は、実施の形態3に係る運転支援システムの概略構成を示す模式図である。 図7は、実施の形態1~3の変形例に係るウェアラブル装置の概略構成を示す図である。 図8は、実施の形態1~3の変形例に係る別のウェアラブル装置の概略構成を示す図である。 図9は、実施の形態1~3の変形例に係る別のウェアラブル装置の概略構成を示す図である。 図10は、実施の形態1~3の変形例に係る別のウェアラブル装置の概略構成を示す図である。
以下、本発明を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本発明が限定されるものでない。また、以下において、同一の部分には同一の符号を付して説明する。
(実施の形態1)
図1は、実施の形態1に係る運転支援システムの概略構成を示す図である。図2は、実施の形態1に係る運転支援システムの機能構成を示すブロック図である。図1および図2に示す運転支援システム1000は、車両100に設けられた運転支援装置1と、ユーザU1が装着可能であり、運転支援装置1と所定の通信規格に従って双方向に通信を行うウェアラブル装置2と、を備える。
〔運転支援装置の構成〕
まず、運転支援装置1の構成について説明する。図1および図2に示す運転支援装置1は、車両100に搭載され、この車両100に搭載された他のECU(Electronic Control Unit)と連携しながら車両100内の運転者に対して運転を支援する。図1および図2に示す運転支援装置1は、イグニッションスイッチ10(以下、「IGスイッチ10」という)と、シートセンサ(自動車用乗員検知センサ)11と、開閉センサ12(ドア開閉センサ)と、カーナビゲーションシステム13と、通信部14と、ECU15等と、を備える。
IGスイッチ10は、エンジンやモータ等の電気系統の始動および停止を受け付ける。IGスイッチ10は、オン状態となった場合、IG電源を始動させ、オフ状態となった場合、IG電源を停止させる。
シートセンサ11は、運転席に対する着座の状態を検出し、この検出結果をECU15へ出力する。シートセンサ11は、座面の下に配置された荷重検出装置や圧力センサ等を用いて構成される。
開閉センサ12は、ユーザの出入りするドアの開閉を検出し、この検出結果をECU15へ出力する。開閉センサ12は、例えばプッシュスイッチ等を用いて構成される。
カーナビゲーションシステム13は、GPS(Global Positioning System)センサ131と、地図データベース132と、報知装置133と、を有する。
GPSセンサ131は、複数のGPS衛星や送信アンテナからの信号を受信し、受信した信号に基づいて車両100の位置を算出する。GPSセンサ131は、GPS受信センサ等を用いて構成される。なお、GPSセンサ131を複数個搭載し車両100の向き精度向上を図ってもよい。
地図データベース132は、各種の地図データを記憶する。地図データベース132は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記録媒体を用いて構成されてもよい。
報知装置133は、画像、映像および文字情報を表示する表示部133aと、音声や警報音等の音を発生する音声出力部133bや骨伝導等を有してもよい。表示部133aは、液晶や有機EL等の表示ディスプレイを用いて構成される。音声出力部133bは、スピーカ等を用いて構成される。
このように構成されたカーナビゲーションシステム13は、GPSセンサ131によって取得した現在の車両100の位置を、地図データベース132が記憶する地図データに重ねることによって、車両100が現在走行している道路および目的地までの経路等を含む情報を、表示部133aと音声出力部133bとによって運転者に対して報知する。
通信部14は、ECU15の制御のもと、基地局およびネットワークを介して所定の通信規格に従って各種情報を図示しないサーバへ送信するとともに、サーバから各種情報を受信する。また、通信部14は、ウェアラブル装置2、他の車両またはユーザ端末装置等に対して所定の通信規格に従って各種情報を送信するとともに、各種情報をウェアラブル装置2、他の車両またはユーザ端末装置等から受信する。通信部14は、無線通信可能な複数の通信モジュールを用いて構成される。
ECU15は、運転支援装置1を構成する各部の動作を制御する。ECU15は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。ECU15は、車両100とユーザとの相対的な位置関係を示す乗車状況に基づいて、ユーザが装着するウェアラブル装置2が有する機能であって、プライバシーに関わる情報を取得する機能の動作を切り替える制御を行う。具体的には、ECU15は、運転支援装置1とウェアラブル装置2との距離が所定値以上であるか否かを判定し、距離が所定値以上であると判定した場合、ユーザが車両100から降車した状態であると判定し、ウェアラブル装置2が有する機能であって、プライバシーに関わる情報を取得する機能を停止する。また、ECU15は、距離が所定値以上でないと判定した場合、ユーザが車両100に乗車したと判定し、ウェアラブル装置2が有する機能であって、プライバシーに関わる情報を取得する機能を開始する。
ここで、所定値とは、例えば車両100のドアを開閉するリモコンキーによる電波が届く距離である。また、所定値は、適宜設定することができ、例えば種々の国で定められた規定値を示す距離であってもよい。また、乗車とは、ユーザが車両100に着座した状態およびユーザが車両100に所定値未満の距離に位置する状態のいずれかである。さらに、降車とは、ユーザが車両100から所定値以上離れた距離に位置する状態である。
また、プライバシーに関わる情報を取得する機能とは、少なくともウェアラブル装置2による動画撮影機能、ウェアラブル装置2による撮影によって生成された動画データを記録する記録機能(保存機能)、ウェアラブル装置によって撮影された動画データ、ウェアラブル装置2が取得した位置情報およびウェアラブル装置2を装着したユーザのバイタル情報のいずれか一つ以上を運転支援装置1またはサーバへ送信する送信機能、ウェアラブル装置2が位置情報を取得する取得機能およびウェアラブル装置2が画像を投影する投影機能のいずれか一つ以上である。なお、以下においては、プライバシーに関わる情報を取得する機能として、ウェアラブル装置2による動画撮影機能を一例として説明する。また、実施の形態1では、ECU15がプロセッサとして機能する。
〔ウェアラブル装置の構成〕
次に、ウェアラブル装置2の構成について説明する。図3は、ウェアラブル装置2の概略構成を示す図である。図1~図3に示すウェアラブル装置2は、運転者であるユーザU1が装着自在であり、拡張現実(AR)を実現可能な眼鏡型の装置である。さらに、ウェアラブル装置2は、ユーザの視野領域からの光を透過しつつ、ユーザの視野領域内において仮想的な画像を視認できるようにユーザの網膜の画像を結像させる装置である。さらに、ウェアラブル装置2は、運転支援装置1へ動画データ等を含む情報を送信するとともに、運転支援装置1から運転支援情報を受信する。ウェアラブル装置2は、通信部20と、撮像装置21と、9軸センサ22と、投影部24と、GPSセンサ25と、装着センサ26と、制御部27等と、を備える。
通信部20は、制御部27の制御のもと、ネットワークを介して所定の通信規格に従って各種情報を運転支援装置1またはサーバへ送信するとともに、運転支援装置1またはサーバから各種情報を受信する。通信部20は、無線通信可能な通信モジュールを用いて構成される。
撮像装置21は、図3に示すように、複数設けられてもよい。撮像装置21は、制御部27の制御のもと、例えばユーザの視線の先を撮像することによって画像データを生成し、この画像データを制御部27へ出力する。撮像装置21は、1または複数のレンズで構成された光学系と、この光学系が集光した被写体像を受光することによって画像データを生成するCCDやCMOS等を用いて構成される。
9軸センサ22は、3軸ジャイロセンサ、3軸加速度センサおよび3軸地磁気センサを用いて構成される。9軸センサ22は、ウェアラブル装置2に生じる角速度および加速度を検出し、この検出結果を制御部27へ出力する。また、9軸センサ22は、地磁気を検出することによって絶対方向を検出し、この検出結果を制御部27へ出力する。
視線センサ23は、ウェアラブル装置2の装着者であるユーザの視線の向きを検出し、この検出結果を制御部27へ出力する。視線センサ23は、光学系と、CCDまたはCMOSと、メモリと、CPUやGPU等のハードウェアを有するプロセッサを用いて構成される。視線センサ23は、例えば周知のテンプレートマッチングを用いて運転者の目の動かない部分を基準点(例えば目頭)として検出し、かつ、目の動く部分(例えば虹彩)を動点として検出し、この基準点と動点との位置関係に基づいて運転者の視線の向きを検出する。
投影部24は、制御部27の制御のもと、画像、映像および文字情報をウェアラブル装置表示部(例えばレンズ部)や運転者の網膜またはレンズに向けて投影する。投影部24は、RGBの各々のレーザ光を照射するRGBレーザビーム、レーザ光を反射するMEMSミラー、MEMSミラーから反射されたレーザ光を運転者の網膜へ投影する反射ミラー等を用いて構成される。
GPSセンサ25は、複数のGPS衛星からの信号を受信し、受信した信号に基づいてウェアラブル装置2の位置を算出する。GPSセンサ25は、算出したウェアラブル装置2の位置を制御部27へ出力する。GPSセンサ25は、GPS受信センサ等を用いて構成される。
装着センサ26は、ユーザの装着状態を検出し、この検出結果を制御部27へ出力する。装着センサ26は、例えばユーザがウェアラブル装置2を装着した際の圧力を検出する圧力センサ、ユーザの体温、脈拍、脳波、血圧および発汗状態等のバイタル情報を検出するバイタルセンサ等を用いて構成される。
制御部27は、ウェアラブル装置2を構成する各部の動作を制御する。制御部27は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。
〔運転支援装置の処理〕
次に、運転支援装置1が実行する処理について説明する。図4は、運転支援装置1が実行する処理の概要を示すフローチャートである。
図4に示すように、ECU15は、乗車状況を取得する(ステップS101)。具体的には、ECU15は、通信部14を介して取得したウェアラブル装置2のGPSセンサ25からウェアラブル装置2の位置情報、IGスイッチ10からIG電源に関する状態情報、シートセンサ11の検出結果および開閉センサ12の検出結果の各々を車両100とユーザとの相対的な位置関係を示す乗車状況として取得する。
続いて、ECU15は、ユーザが車両100に乗車したか否かを判定する(ステップS102)。例えば、ECU15は、通信部14を介して取得したウェアラブル装置2のGPSセンサ25が検出した位置情報とカーナビゲーションシステム13のGPSセンサ131が検出した位置情報とに基づいて、車両100とウェアラブル装置2との距離を算出し、この算出した距離が所定値以上であるか否かを判定し、距離が所定値以上である場合、ユーザが車両100から降車したと判定する一方、距離が所定値以上でない場合、ユーザが車両100に乗車したと判定する。ECU15によってユーザが車両100に乗車したと判定された場合(ステップS102:Yes)、運転支援装置1は、後述するステップS103へ移行する。これに対して、ECU15によってユーザが車両100に乗車していないと判定された場合(ステップS102:No)、運転支援装置1は、後述するステップS106へ移行する。
ステップS103において、ECU15は、ユーザがウェアラブル装置2を装着しているか否かを判定する。具体的には、ECU15は、通信部14を介してウェアラブル装置2の装着センサ26から検出結果を示す装着信号を受信し、受信した装着信号に基づいて、ユーザがウェアラブル装置2を装着しているか否かを判定する。ECU15によってユーザがウェアラブル装置2を装着していると判定された場合(ステップS103:Yes)、運転支援装置1は、後述するステップS104へ移行する。これに対して、ECU15によってユーザがウェアラブル装置2を装着していないと判定された場合(ステップS103:No)、運転支援装置1は、後述するステップS106へ移行する。
ステップS104において、ECU15は、通信部14を介してウェアラブル装置2の撮像装置21が動画を録画中であるか否かを判定する。ECU15によってウェアラブル装置2の撮像装置21が動画を記録中であると判定された場合(ステップS104:Yes)、運転支援装置1は、後述するステップS106へ移行する。これに対して、ECU15によってウェアラブル装置2の撮像装置21が動画を記録中でないと判定された場合(ステップS104:No)、運転支援装置1は、後述するステップS105へ移行する。
ステップS105において、ECU15は、通信部14を介してウェアラブル装置2の撮像装置21に対して動画の録画を開始させる。具体的には、ECU15は、通信部14を介してウェアラブル装置2の撮像装置21に対して動画撮影を指示するREC信号を送信する。これにより、ユーザが車両100に乗車した際に、ウェアラブル装置2による録画が自動的に開始される。ステップS105の後、運転支援装置1は、後述するステップS106へ移行する。
続いて、ECU15は、ユーザが車両100から降車したか否かを判定する(ステップS106)。例えば、ECU15は、通信部14を介して取得したウェアラブル装置2のGPSセンサ25が検出した位置情報とカーナビゲーションシステム13のGPSセンサ131が検出した位置情報とに基づいて、車両100とウェアラブル装置2との距離を算出し、この算出した距離が所定値以上であるか否かを判定し、距離が所定値以上である場合、ユーザが車両100から降車したと判定する一方、距離が所定値以上でない場合、ユーザが車両100に乗車したと判定する。なお、ECU15は、開閉センサ12から入力される検出結果およびシートセンサ11の検出結果に基づいて、ユーザが車両100を降車したか否かを判定してもよい。ECU15によってユーザが車両100から降車したと判定された場合(ステップS106:Yes)、運転支援装置1は、後述するステップS107へ移行する。これに対して、ECU15によってユーザが車両100から降車していないと判定された場合(ステップS106:No)、運転支援装置1は、後述するステップS111へ移行する。
ステップS107において、ECU15は、ウェアラブル装置2の撮像装置21による動画の記録を停止する。具体的には、ECU15は、通信部14を介してウェアラブル装置2の撮像装置21による動画の記録を停止させる停止信号を送信する。
続いて、ECU15は、通信部14を介してウェアラブル装置2または図示しないサーバから録画指示があるか否かを判定する(ステップS108)。具体的には、ECU15は、車両100の周辺環境において緊急事態の場合、例えば車両100が交通事故、火災および天災等の発生に遭遇した場合において、通信部14を介して図示しないサーバから送信される録画を開始する開始信号が入力されたとき、サーバから録画指示があったと判定する。また、ECU15は、通信部14を介してウェアラブル装置2の9軸センサ22から所定値以上の加速度を検出した検出結果が入力された場合、この検出結果を開始信号として入力を受け付ける。ECU15によってウェアラブル装置2または図示しないサーバから録画指示があったと判定された場合(ステップS108:Yes)、運転支援装置1は、後述するステップS109へ移行する。これに対して、ECU15によってウェアラブル装置2または図示しないサーバから録画指示がなかったと判定された場合(ステップS108:No)、運転支援装置1は、後述するステップS110へ移行する。
ステップS109において、ECU15は、通信部14を介してウェアラブル装置2の撮像装置21にREC信号を送信することによって動画を一定時間録画させる。これにより、ウェアラブル装置2は、ECU15によって動画撮影機能に制限が掛けられて録画が禁止されている場合であっても、車両100の周辺環境において事故や事件等に遭遇したとき、録画を開始することができるので、証拠動画として用いることができたり、火事や天災等の突発的な状況を記録することができたりする。
続いて、ECU15は、IGスイッチ10がオフ状態となったか否かを判定する(ステップS110)。ECU15によってIGスイッチ10がオフ状態であると判定された場合(ステップS110:Yes)、運転支援装置1は、本処理を終了する。これに対して、ECU15によってIGスイッチ10がオフ状態でないと判定された場合(ステップS110:No)、運転支援装置1は、上述したステップS101へ戻る。
ステップS111において、ECU15は、ユーザがウェアラブル装置2を脱衣したか否かを判定する。具体的には、ECU15は、通信部14を介してウェアラブル装置2の装着センサ26から検出結果を取得し、取得した検出結果に基づいて、ユーザがウェアラブル装置2を脱衣したか否かを判定する。ECU15によってユーザがウェアラブル装置2を脱衣していると判定された場合(ステップS111:Yes)、運転支援装置1は、ステップS107へ移行する。これに対して、ECU15によってユーザがウェアラブル装置2を脱衣していないと判定された場合(ステップS111:No)、運転支援装置1は、後述するステップS110へ移行する。
以上説明した実施の形態1によれば、ECU15が車両100に対するユーザの乗車状況に基づいて、ウェアラブル装置2が有する機能であって、プライバシーに関わる情報を取得する機能を切り替える制御を行うことによって、ウェアラブル装置2によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができるので、ユーザや他者へのプライバシーに対して配慮した動作を行うことができる。
また、実施の形態1によれば、ECU15が運転支援装置1とウェアラブル装置2との距離が所定値以上であるか否かを判定し、運転支援装置1とウェアラブル装置2との距離が所定値以上であると判定した場合、ユーザが車両100から降車したと判定し、ウェアラブル装置2の撮像装置21による録画を停止する一方、運転支援装置1とウェアラブル装置2との距離が所定値以上でないと判定した場合、ユーザが車両100に乗車したと判定し、ウェアラブル装置2の撮像装置21による録画を開始するので、ユーザがウェアラブル装置2を装着したまま車両100を降車した場合であっても、ウェアラブル装置2によって取得可能な情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両100に乗車した場合、ウェアラブル装置2によって取得された情報を用いた運転支援を行うことができる。
また、実施の形態1によれば、ECU15が車両100にユーザが乗車したと判定した場合において、ユーザがウェアラブル装置2を装着していないと判定したとき、ウェアラブル装置の撮像装置21による録画を停止して禁止する一方、車両100にユーザが乗車したと判定した場合において、ユーザがウェアラブル装置2を装着していると判定したとき、ウェアラブル装置の撮像装置21による録画を開始することによって、車両100の乗車時のみウェアラブル装置2を装着するユーザに対して、ウェアラブル装置2を装着するまで、ウェアラブル装置2による情報の取得を防止することができるので、ユーザや他者へのプライバシーに対して配慮した動作を行うことができるうえ、ウェアラブル装置2の消費電力の低減を図ることができる。
また、実施の形態1によれば、ECU15がウェアラブル装置2の撮像装置21による動画撮影を停止している場合において、サーバから開始信号が入力されたとき、ウェアラブル装置2の撮像装置21による動画撮影を開始するので、ユーザが車両100から降車している場合や車両100の運転を終了している場合であっても、緊急時にウェアラブル装置2の撮像装置21によって録画を開始することができるので、証拠動画として用いることができたり、または火事や天災等の突発的な状況を記録することができたりする。
また、実施の形態1によれば、ECU15がウェアラブル装置2の動画撮影機能、動画データを記録する記録機能、動画データ、位置情報およびバイタル情報のいずれか一つ以上を送信する送信機能、GPSセンサ25が位置情報を取得する取得機能および投影部24が画像を投影する投影機能のいずれか一つ以上を切り替える制御を行うことによって、ウェアラブル装置2によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができるので、ユーザや他者へのプライバシーに対して配慮した動作を行うことができる。
なお、実施の形態1では、ECU15がIGスイッチ10の状態または車両100の電源を起動する起動スイッチ(READYスイッチ)の状態に基づいて、車両100に対するユーザの乗車状況を判定してもよい。この場合において、ECU15は、IGスイッチ10の状態または起動スイッチの状態がオフ状態であるか否かを判定し、IGスイッチ10の状態または起動スイッチの状態がオフ状態であるとき、ユーザが車両100から降車したと判定し、ウェアラブル装置2の撮像装置21による動画撮影の録画を停止する一方、IGスイッチ10の状態または起動スイッチの状態がオン状態であるとき、ユーザが車両100に乗車したと判定し、ウェアラブル装置の撮像装置21による動画撮影の録画を開始する。これにより、ユーザが車両100の運転を終えてウェアラブル装置2を装着したまま車両100を降車した場合であっても、ウェアラブル装置2によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両100に乗車して車両100の運転を開始した場合、ウェアラブル装置2によって各種情報を取得することができるので、ウェアラブル装置2によって取得された情報を用いた運転支援を行うことができる。
また、実施の形態1では、ECU15がウェアラブル装置2から受信した信号の信号強度に基づいて、車両100に対するユーザの乗車状況を判定してもよい。この場合において、ECU15は、ウェアラブル装置2から受信した信号の信号強度が所定値未満であるか否かを判定し、信号強度が所定値未満であるとき、ユーザが車両100から降車したと判定し、ウェアラブル装置2の撮像装置21による録画を停止する一方、信号強度が所定値未満でないとき、ユーザが車両100に乗車すると判定し、ウェアラブル装置の撮像装置21による録画を開始する。これにより、ユーザがウェアラブル装置2を装着したまま車両100を降車した場合であっても、ウェアラブル装置2によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両100に乗車した場合、ウェアラブル装置2によって各種情報を取得することができるので、ウェアラブル装置2によって取得された情報を用いた運転支援を行うことができる。
また、実施の形態1では、開閉センサ12から入力される検出結果およびシートセンサ11の検出結果に基づいて、ユーザが車両100に乗車したか否かを判定してもよい。この場合、ECU15は、開閉センサ12から取得した検出結果に基づいて、車両100のドアが開いたか否かを判定する。そして、ECU15は、車両100のドアが開いたと判定したとき、シートセンサ11の検出結果に基づいて、ユーザが運転席に対して着座したか否かを判定し、ユーザが運転席に対して着座していると判定したとき、ユーザが車両100に乗車したと判定し、ユーザが車両100に乗車したと判定し、ウェアラブル装置の撮像装置21による動画撮影の録画を開始する。これに対して、ECU15は、ユーザが運転席に対して着座していないと判定したとき、ユーザが車両100から降車したと判定し、ウェアラブル装置2の撮像装置21による動画撮影の録画を停止する。これにより、ユーザが車両100の運転を終えてウェアラブル装置2を装着したまま車両100を降車した場合であっても、ウェアラブル装置2によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両100に乗車して車両100の運転を開始した場合、ウェアラブル装置2によって取得された情報を用いた運転支援を行うことができる。
また、実施の形態1では、ECU15がウェアラブル装置2の撮像装置21によって撮像された画像データに基づいて、車両100に対するユーザの乗車状況を判定してもよい。この場合において、ECU15は、ウェアラブル装置2の撮像装置21によって撮像された画像データに基づいて、ユーザが車両100から降車したと判定した場合、ウェアラブル装置による動画データの記録機能、ウェアラブル装置2の送信機能、投影部24が画像を投影する投影機能のいずれかを一つ以上を停止する一方、ユーザが車両100に乗車したと判定した場合、ウェアラブル装置2の送信機能、記録機能、投影部24が画像を投影する投影機能のいずれかを一つ以上を開始する。これにより、ユーザがウェアラブル装置を装着したまま車両を降車した場合であっても、ウェアラブル装置によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両に乗車した場合、ウェアラブル装置によって各種情報を取得することができるので、ウェアラブル装置2によって取得された情報を用いた運転支援を行うことができる。
また、実施の形態1では、ECU15がユーザの乗車状況に基づいて、ウェアラブル装置の投影部24が投影する画像の表示内容を切り替えてもよい。具体的には、ECU15は、運転支援装置1とウェアラブル装置2との距離が所定値以上であるか否かを判定し、運転支援装置1とウェアラブル装置2との距離が所定値以上であると判定した場合、ユーザが車両100から降車した状態であると判定し、投影部24が投影する画像をユーザが歩行に適した表示内容に切り替える。ここで、ユーザが歩行に適した表示内容とは、GPSセンサ25に基づく周辺情報、例えばグルメ情報、イベント情報および観光地情報等である。これに対して、ECU15は、運転支援装置1とウェアラブル装置2との距離が所定値以上でないと判定した場合、ユーザが車両100に乗車した状態であると判定し、投影部24が投影する画像をユーザの運転を支援する表示内容に切り替える。ここで、運転を支援する表示内容とは、車両100の速度情報、運転支援装置1のカーナビゲーションシステム13から送信された地図情報および道路情報等である。これにより、ユーザの乗車状況に応じて、ウェアラブル装置2が投影する画像の表示内容を切り替えるので、ユーザの乗車状況に応じた表示を行うことができる。
また、実施の形態1では、ECU15が通信部14を介してウェアラブル装置2のGPSセンサ25が検出した位置情報とカーナビゲーションシステム13のGPSセンサ131が検出した位置情報とに基づいて、車両100とウェアラブル装置2との距離を算出していたが、例えば通信部14を介して他車と車車間通信や路車間通信を行うことによって取得した画像データに基づいて、車両100とウェアラブル装置2と距離を算出してもよい。
また、実施の形態1では、ECU15が通信部14およびネットワークを介して、ウェアラブル装置2が図示しないサーバ上にアップロードしたウェアラブル装置2の位置情報をサーバから取得し、取得したウェアラブル装置の位置情報とカーナビゲーションシステム13のGPSセンサ131が検出した位置情報とに基づいて、車両100とウェアラブル装置2と距離を算出してもよい。もちろん、ECU15は、通信部14およびネットワークを介して、ウェアラブル装置2の位置情報以外に、ウェアラブル装置2の撮像装置21によって撮像された画像データをサーバから取得することによって、車両100とユーザとの相対的な位置関係を示す乗車状況を判定してもよい。
(実施の形態2)
次に、実施の形態2について説明する。実施の形態2に係る運転システムは、上述した実施の形態1に係る運転支援システム1000と同一の構成を有し、ウェアラブル装置が実行する処理が異なる。具体的には、上述した実施の形態1では、車両100に設けられた運転支援装置1がウェアラブル装置2の録画機能をユーザの乗車状況に基づいて、切り替える制御を行っていたが、実施の形態2では、ウェアラブル装置がユーザの乗車状況に基づいて、録画機能を切り替える制御を行う。以下においては、実施の形態2に係るウェアラブル装置が実行する処理について説明する。なお、上述した実施の形態1に係る運転支援システム1000と同一の構成には同一の符号を付して詳細な説明は省略する。
〔ウェアラブル装置の処理〕
実施の形態2に係るウェアラブル装置2が実行する処理について説明する。図5は、ウェアラブル装置2が実行する処理の概要を示すフローチャートである。
図5に示すように、まず、制御部27は、装着センサ26から入力された検出結果を示す装着信号に基づいて、ユーザがウェアラブル装置2を装着しているか否かを判定する(ステップS201)。制御部27によってユーザがウェアラブル装置2を装着していると判定された場合(ステップS201:Yes)、ウェアラブル装置2は、後述するステップS202へ移行する。これに対して、制御部27によってユーザがウェアラブル装置2を装着していないと判定された場合(ステップS201:No)、ウェアラブル装置2は、本処理を終了する。
続いて、制御部27は、通信部20を介して運転支援装置1から車両100とユーザとの相対的な位置関係を示す乗車状況を取得し(ステップS202)、ユーザが車両100に乗車したか否かを判定する(ステップS203)。具体的には、制御部27は、通信部20を介して運転支援装置1のGPSセンサ131から車両100の位置情報およびGPSセンサ25が算出した位置情報に基づいて、車両100とウェアラブル装置2との距離を算出し、この距離が所定値以上であるか判定し、距離が所定値以上であると判定した場合、ユーザが車両100から降車した状態であると判定し、距離が所定値以上であると判定した場合、ユーザが車両100から降車した状態であると判定し、距離が所定値以上でないと判定した場合、ユーザが車両100に乗車した状態であると判定する。制御部27によってユーザが車両100に乗車したと判定された場合(ステップS203:Yes)、ウェアラブル装置2は、後述するステップS204へ移行する。これに対して、制御部27によってユーザが車両100に乗車していないと判定された場合(ステップS203:No)、ウェアラブル装置2は、後述するステップS206へ移行する。
ステップS204~ステップS211は、上述した図3のステップS104~ステップS111それぞれに対応する。
以上説明した実施の形態2によれば、制御部27が車両100に対するユーザの乗車状況に基づいて、ウェアラブル装置2が有するプライバシーに関わる情報を取得可能な所定の機能を切り替える制御を行うことによって、ウェアラブル装置2によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができるので、ウェアラブル装置2によって取得された情報を用いた運転支援を行うことができる。
なお、実施の形態2では、制御部27が運転支援装置1とウェアラブル装置2との距離に基づいて、車両100とユーザとの相対的な位置関係を示す乗車状況を判定していたが、上述した実施の形態1と同様に、距離以外に、IGスイッチ10の状態または車両100の電源を起動する起動スイッチ(READYスイッチ)の状態、シートセンサ11または開閉センサ12の検出結果、ウェアラブル装置2から受信する信号の信号強度およびウェアラブル装置2の撮像装置21によって撮像された画像データのいずれか1つ以上に基づいて、車両100とユーザとの相対的な位置関係を示す乗車状況を判定してもよい。
また、実施の形態2では、制御部27が運転支援装置1から乗車状況を取得していたが、例えば通信部20を介して他車と車車間通信や路車間通信を行い、他車が車両100とウェアラブル装置2を装着したユーザとを撮像した画像データを取得することによって、車両100に対するユーザの乗車状況を判定し、この判定結果に基づいて、ウェアラブル装置2が有するプライバシーに関わる情報を取得可能な所定の機能を切り替える制御を行ってもよい。
また、実施の形態2では、制御部27が通信部20およびネットワークを介して、運転支援装置1が図示しないサーバ上にアップロードした車両100とユーザとの相対的な位置関係を示す乗車状況をサーバから取得し、この取得した乗車状況に基づいて、ウェアラブル装置2が有するプライバシーに関わる情報を取得可能な所定の機能を切り替える制御を行ってもよい。
(実施の形態3)
次に、実施の形態3について説明する。上述した実施の形態1では、運転支援装置1のECU15がユーザの乗車状況に基づいて、ウェアラブル装置2の録画記録を切り替えていたが、実施の形態3では、サーバが運転支援装置およびウェアラブル装置の各々から乗車状況を取得することによってウェアラブル装置の録画機能を切り替える制御を行う。なお、上述した実施の形態1に係る運転支援システム1000と同一の構成には同一の符号を付して詳細な説明は省略する。
図6は、実施の形態3に係る運転支援システムの概略構成を示す模式図である。図6に示す運転支援システム1001は、複数の車両100の各々に搭載された運転支援装置1と、ユーザU1が装着したウェアラブル装置2と、サーバ300と、を備える。複数の運転支援装置1、ウェアラブル装置2およびサーバ300は、基地局400およびネットワーク500を介して相互に情報通信可能に構成されている。また、サーバ300は、基地局400およびネットワーク500を介してGPS衛星600から車両100の上空を撮像もしくは、車車間通信によって取得した他車画像から作像して画像データを取得する。
〔サーバの構成〕
次に、サーバ300の構成について説明する。サーバ300は、通信部301と、制御部302と、を備える。
通信部301は、制御部302の制御のもと、ネットワーク500および基地局400を介して所定の通信規格に従って各種情報を送信するとともに、各種情報を受信する。また、通信部301は、制御部302の制御のもと、各車両100の運転支援装置1およびウェアラブル装置2に対して所定の通信規格に従って各種情報を送信するとともに、GPS衛星600、各車両100の運転支援装置1およびウェアラブル装置2から各種情報を受信する。通信部301は、無線通信可能な通信モジュールを用いて構成される。なお、実施の形態3では、運転支援装置1の機能をウェアラブル装置2に内蔵させてもよい。
制御部302は、メモリと、CPUまたは複数のニューラルネットワークで構成されたディープラーニング等の機械学習で用いられるAIチィップ等のハードウェアを有するプロセッサを用いて構成される。制御部302は、通信部301を介して、運転支援装置1が搭載された車両100の位置情報とウェアラブル装置2の位置情報とに基づいて、ユーザU1が車両100に乗車したか否かを判定し、車両100に乗車している場合、ウェアラブル装置2による動画の録画を開始させるREC信号をウェアラブル装置2へ送信する一方、ユーザU1が車両100から降車した場合、ウェアラブル装置2による動画の録画を停止させる停止信号をウェアラブル装置2へ送信する。なお、制御部302は、GPS衛星600から画像データを取得し、取得した画像データに対応する画像から車両100とウェアラブル装置2との距離を算出し、この距離が所定未満である場合、ユーザU1が車両100に搭乗していると判定し、ウェアラブル装置2にREC信号を送信するようにしてもよい。
以上説明した実施の形態3によれば、制御部302が通信部301を介して運転支援装置1が搭載された車両100の位置情報とウェアラブル装置2の位置情報とに基づいて、ユーザU1が車両100に乗車したか否かを判定し、車両100に乗車している場合、ウェアラブル装置2による動画の録画を開始させるREC信号をウェアラブル装置2へ送信する一方、ユーザU1が車両100から降車した場合、ウェアラブル装置2による動画の録画を停止させる停止信号をウェアラブル装置2へ送信するので、ユーザがウェアラブル装置2を装着したまま車両100を降車した場合であっても、ウェアラブル装置2によって取得可能な各種情報がユーザや他者の意図しない形で使用されることを防止することができ、かつ、ユーザが車両100に乗車した場合、ウェアラブル装置2によって各種情報を取得することができるので、ウェアラブル装置2によって取得された情報を用いた運転支援を行うことができる。
なお、実施の形態3では、制御部302が運転支援装置1とウェアラブル装置2との距離に基づいて、車両100とユーザとの相対的な位置関係を示す乗車状況を判定していたが、上述した実施の形態1と同様に、距離以外に、IGスイッチ10の状態または車両100の電源を起動する起動スイッチ(READYスイッチ)の状態、シートセンサ11または開閉センサ12の検出結果、ウェアラブル装置2から受信する信号の信号強度およびウェアラブル装置2の撮像装置21によって撮像された画像データのいずれか1つ以上に基づいて、車両100とユーザとの相対的な位置関係を示す乗車状況を判定してもよい。
また、実施の形態3では、制御部302が運転支援装置1とウェアラブル装置2との距離に基づいて、車両100とユーザとの相対的な位置関係を示す乗車状況を判定していたが、例えば他の車両100が撮像した画像データ、車車間通信や路車間通信等で取得された情報に基づいて、車両100とユーザとの相対的な位置関係を示す乗車状況を判定してもよい。
(実施の形態1~3に係る変形例)
なお、実施の形態1~3では、運転者が装着可能な眼鏡型のウェアラブル装置2を用いた例を説明していたが、これに限定されることなく、種々のウェアラブル装置に適用することができる。例えば図7に示すように撮像機能を有するコンタクトレンズ型のウェアラブル装置2Aであっても適用することができる。さらに、図8のウェアラブル装置2Bまたは図9の脳内チップ型のウェアラブル装置2CのようにユーザU1の脳へ直接的に伝達する装置であっても適用することができる。さらにまた、図10のウェアラブル装置2Dのようにバイザーを備えたヘルメット形状に構成されてもよい。この場合は、ウェアラブル装置2Dは、バイザーに画像を投影して表示するものであってもよい。
また、実施の形態1~3では、ウェアラブル装置2が運転者の網膜に投影することによって画像を視認させていたが、例えば眼鏡等のレンズに画像を投影して表示するものであってもよい。
また、実施の形態2では、ウェアラブル装置2が運転者の網膜に投影することによって画像を視認させていたが、例えば眼鏡等のレンズに画像を投影して表示するものであってもよい。
(その他の実施の形態)
また、実施の形態1~3では、上述してきた「部」を、「回路」などに読み替えることができる。例えば、制御部は、制御回路に読み替えることができる。
また、実施の形態1~3に係る運転支援装置では、ECUまたは制御部がウェアラブル装置の機能であって、プライバシーに関わる情報を取得する機能の動作を切り替える制御を行っていたが、これに限定されることなく、ECUやGPU(Graphics Processing Unit)に代えて、ECUやGPUより適したデバイス、例えばFPGA(Field Programmable Gate Array)、DSP(Digital Signal Processing)およびメモリ等で構成されるデバイスやニューラルネットワークを用いた機械学習等のデータ処理および画像処理に用いられるAIチップが行ってもよい。
また、実施の形態1~3に係る運転支援装置およびウェアラブル装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、実施の形態1~3に係る運転支援装置およびウェアラブル装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本実施の形態を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施の形態に限定されるものではない。従って、添付のクレームおよびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 運転支援装置
2,2A,2B,2C ウェアラブル装置
10 IGスイッチ
11 シートセンサ
12 開閉センサ
13 カーナビゲーションシステム
14,20,301 通信部
15 ECU
21 撮像装置
22 9軸センサ
23 視線センサ
24 投影部
25,131 GPSセンサ
26 装着センサ
27,302 制御部
100 車両
300 サーバ
1000,1001 運転支援システム

Claims (16)

  1. メモリと、
    ハードウェアを有するプロセッサと、
    を備え、
    前記プロセッサは、
    車両とユーザとの相対的な位置関係を示す乗車状況に基づいて、ユーザが装着するウェアラブル装置が有する撮像装置による録画機能の動作を切り替える制御を行う、
    運転支援装置。
  2. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    当該運転支援装置と前記ウェアラブル装置との距離が所定値以上であるか否かを判定し、
    前記距離が前記所定値以上であると判定した場合、前記ユーザが前記車両から降車した状態であると判定し、前記録画機能を停止する一方、
    前記距離が前記所定値以上でないと判定した場合、前記ユーザが前記車両に乗車した状態であると判定し、前記録画機能を開始する、
    運転支援装置。
  3. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記車両のエンジンを始動するイグニッションスイッチがオフ状態または前記車両の電源を起動する起動スイッチがオフ状態であるか否かを判定し、
    前記イグニッションスイッチがオフ状態または前記起動スイッチがオフ状態である場合、前記ユーザが前記車両から降車した状態であると判定し、前記録画機能を停止する一方、
    前記イグニッションスイッチがオン状態または前記起動スイッチがオン状態である場合、前記ユーザが前記車両に乗車した状態であると判定し、前記録画機能を開始する、
    運転支援装置。
  4. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記ウェアラブル装置から受信する信号の信号強度が所定値未満であるか否かを判定し、
    前記信号強度が前記所定値未満である場合、前記ユーザが前記車両から降車した状態であると判定し、前記録画機能を停止する一方、
    前記信号強度が前記所定値未満でない場合、前記ユーザが前記車両に乗車した状態であると判定し、前記録画機能を開始する、
    運転支援装置。
  5. 請求項1に記載の運転支援装置であって、
    前記車両のドアの開閉状態を検出する開閉スイッチと、
    前記車両の運転席に対する着座の状態を検出するシートセンサと、
    をさらに備え、
    前記プロセッサは、
    前記開閉スイッチが検出した検出結果および前記シートセンサの検出結果に基づいて、前記乗車状況を判定し、
    前記ユーザが前記車両から降車した状態であると判定した場合、前記録画機能を停止する一方、
    前記ユーザが前記車両に乗車した状態であると判定した場合、前記録画機能を開始する、
    運転支援装置。
  6. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    他の車両または前記ウェアラブル装置が撮像した画像データに基づいて、前記乗車状況を判定し、
    前記ユーザが前記車両から降車した状態であると判定した場合、前記録画機能を停止する一方、
    前記ユーザが前記車両に乗車した状態であると判定した場合、前記録画機能を開始する、
    運転支援装置。
  7. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記ウェアラブル装置から送信された画像データに基づいて、前記乗車状況を判定し、
    前記ユーザが前記車両から降車した状態であると判定した場合、前記録画機能を停止する一方、
    前記ユーザが前記車両に乗車した状態であると判定した場合、前記録画機能を開始する、
    運転支援装置。
  8. 請求項1~7のいずれか一つに記載の運転支援装置であって、
    前記ウェアラブル装置から送信された装着信号であって、前記ユーザが前記ウェアラブル装置の装着状態を示す装着信号に基づいて、前記ユーザが前記ウェアラブル装置を装着しているか否かを判定し、
    前記ユーザが前記車両に乗車した状態であると判定された場合において、前記ユーザが前記ウェアラブル装置を装着していない状態であると判定したとき、前記録画機能を停止する一方、
    前記ユーザが前記車両に乗車した状態であると判定した場合、前記録画機能を開始する、
    運転支援装置。
  9. 請求項1~8のいずれか一つに記載の運転支援装置であって、
    前記プロセッサは、
    前記録画機能が停止されている場合において、前記録画機能の動作を開始する開始信号が入力されたとき、前記録画機能を開始する、
    運転支援装置。
  10. 請求項1~9のいずれか一つに記載の運転支援装置であって、
    前記ウェアラブル装置は、
    動画撮影可能な撮像部と、
    位置情報を取得するGPSセンサと、
    前記ユーザのバイタル情報を取得するバイタルセンサと、
    所定の位置に画像を投影する投影部と、
    を備え
    運転支援装置。
  11. 請求項1に記載の運転支援装置であって、
    前記ウェアラブル装置は、
    所定の位置に画像を投影する投影部を備え、
    前記プロセッサは、
    前記乗車状況を判定し、
    前記ユーザが前記車両から降車した状態であると判定した場合、前記投影部が投影する前記画像を前記ユーザが歩行に適した表示内容に切り替える一方、
    前記ユーザが前記車両に乗車した状態であると判定した場合、前記投影部が投影する前記画像を、前記ユーザの運転を支援する表示内容に切り替える、
    運転支援装置。
  12. 車両と双方向に通信可能であり、ユーザが装着するウェアラブル装置であって、
    前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を受信する通信部と、
    ハードウェアを有するプロセッサと、
    を備え、
    前記プロセッサは、
    前記乗車状況に基づいて、当該ウェアラブル装置が有する撮像装置による録画機能の動作を切り替える制御を行う、
    ウェアラブル装置。
  13. 車両のユーザによる運転を支援する運転支援装置が実行する運転支援方法であって、
    前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を取得し、
    メモリから読み出した前記乗車状況に基づいて、前記ユーザが装着するウェアラブル装置が有する撮像装置による録画機能の動作を切り替える制御を行う、
    運転支援方法。
  14. 車両と双方向に通信可能であり、ユーザが装着するウェアラブル装置が実行する運転支援方法であって、
    前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を受信し、
    メモリから読み出した前記乗車状況に基づいて、当該ウェアラブル装置が有する撮像装置による録画機能の動作を切り替える制御を行う、
    運転支援方法。
  15. 車両のユーザによる運転を支援する運転支援装置に実行させるプログラムであって、
    前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を取得し、
    メモリから読み出した前記乗車状況に基づいて、前記ユーザが装着するウェアラブル装置が有する撮像装置による録画機能の動作を切り替える制御を行う、
    プログラム。
  16. 車両と双方向に通信可能であり、ユーザが装着するウェアラブル装置が実行するプログラムであって、
    前記車両と前記ユーザとの相対的な位置関係を示す乗車状況を受信し、
    メモリから読み出した前記乗車状況に基づいて、当該ウェアラブル装置が有する撮像装置による録画機能の動作を切り替える制御を行う、
    プログラム。
JP2018217670A 2018-11-20 2018-11-20 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム Active JP7143736B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018217670A JP7143736B2 (ja) 2018-11-20 2018-11-20 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム
US16/672,570 US11418909B2 (en) 2018-11-20 2019-11-04 Driver-assistance device, wearable device, driver-assistance method, and computer-readable recording medium
CN201911119023.3A CN111196230B (zh) 2018-11-20 2019-11-15 驾驶辅助装置、可穿戴装置、驾驶辅助方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018217670A JP7143736B2 (ja) 2018-11-20 2018-11-20 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020086726A JP2020086726A (ja) 2020-06-04
JP7143736B2 true JP7143736B2 (ja) 2022-09-29

Family

ID=70726670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018217670A Active JP7143736B2 (ja) 2018-11-20 2018-11-20 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム

Country Status (3)

Country Link
US (1) US11418909B2 (ja)
JP (1) JP7143736B2 (ja)
CN (1) CN111196230B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11200655B2 (en) * 2019-01-11 2021-12-14 Universal City Studios Llc Wearable visualization system and method
JP2021192202A (ja) * 2020-06-05 2021-12-16 トヨタ自動車株式会社 体験システム、体験提供方法およびプログラム
JP7537269B2 (ja) * 2020-12-21 2024-08-21 トヨタ自動車株式会社 充電シートおよびプログラム
CN117348242A (zh) * 2022-06-28 2024-01-05 深圳市中兴微电子技术有限公司 一种信息投影方法、装置及车辆控制系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005034520A (ja) 2003-07-18 2005-02-10 Tokai Rika Co Ltd 体調監視システム
JP2009214591A (ja) 2008-03-07 2009-09-24 Denso Corp 体調連動制御システム
JP2015089808A (ja) 2013-11-06 2015-05-11 ハーマン インターナショナル インダストリーズ インコーポレイテッド ウェアラブルデバイスに基づく車両システムの適合
US20160039424A1 (en) 2014-08-11 2016-02-11 Lg Electronics Inc. Wearable device and method of operating the same
JP2018513804A (ja) 2015-04-10 2018-05-31 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh プライバシが保護されたリモートビューシステム
JP2018092415A (ja) 2016-12-05 2018-06-14 株式会社デンソーテン ウェアラブル端末及び装着者の状況を推定する方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179917A (ja) 2001-12-08 2003-06-27 Shigeaki Kawai 自動車運転時の運行記録システム
JP2010062778A (ja) 2008-09-03 2010-03-18 Nec Saitama Ltd 画像撮影装置及び画像撮影制御方法
JP5316995B2 (ja) 2009-10-26 2013-10-16 株式会社ユピテル 車両用録画装置
US20130145297A1 (en) * 2011-11-16 2013-06-06 Flextronics Ap, Llc Configurable heads-up dash display
US11203355B2 (en) * 2011-04-22 2021-12-21 Emerging Automotive, Llc Vehicle mode for restricted operation and cloud data monitoring
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US9883340B2 (en) * 2012-08-10 2018-01-30 Here Global B.V. Method and apparatus for providing group route recommendations
CN104102007A (zh) * 2013-04-12 2014-10-15 聚晶半导体股份有限公司 头戴式显示器及其控制方法
KR20150026336A (ko) * 2013-09-02 2015-03-11 엘지전자 주식회사 웨어러블 디바이스 및 그 컨텐트 출력 방법
US9098956B2 (en) * 2013-09-26 2015-08-04 Lytx, Inc. Dynamic uploading protocol
US9619718B2 (en) * 2013-12-18 2017-04-11 Johnson Controls Technology Company In-vehicle camera and alert systems
EP2891589B1 (en) * 2014-01-06 2024-09-25 Harman International Industries, Incorporated Automatic driver identification
KR101942793B1 (ko) * 2015-07-03 2019-01-28 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
KR101730321B1 (ko) * 2015-08-03 2017-04-27 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
JP2017068595A (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US9900315B2 (en) * 2015-10-30 2018-02-20 GM Global Technology Operations LLC Enabling and inhibiting synchronization of privacy settings
IL243772B (en) * 2016-01-25 2018-03-29 Everysight Ltd Dynamic ad-hoc networks for content sharing, based on line of sight
JP6593803B2 (ja) * 2017-03-10 2019-10-23 株式会社Subaru 画像表示装置
US11270595B2 (en) * 2018-10-03 2022-03-08 T-Mobile Usa, Inc. Mobile aerial drone early warning privacy breach detect, intercept, and defend systems and methods
US10820141B2 (en) * 2018-11-16 2020-10-27 Here Global B.V. Method and apparatus for presenting privacy-respectful and personalized location-based comments based on passenger context and vehicle proximity to the location
US20200177841A1 (en) * 2018-11-29 2020-06-04 International Business Machines Corporation Obtaining video from vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005034520A (ja) 2003-07-18 2005-02-10 Tokai Rika Co Ltd 体調監視システム
JP2009214591A (ja) 2008-03-07 2009-09-24 Denso Corp 体調連動制御システム
JP2015089808A (ja) 2013-11-06 2015-05-11 ハーマン インターナショナル インダストリーズ インコーポレイテッド ウェアラブルデバイスに基づく車両システムの適合
US20160039424A1 (en) 2014-08-11 2016-02-11 Lg Electronics Inc. Wearable device and method of operating the same
JP2018513804A (ja) 2015-04-10 2018-05-31 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh プライバシが保護されたリモートビューシステム
JP2018092415A (ja) 2016-12-05 2018-06-14 株式会社デンソーテン ウェアラブル端末及び装着者の状況を推定する方法

Also Published As

Publication number Publication date
US20200162844A1 (en) 2020-05-21
CN111196230B (zh) 2023-06-23
US11418909B2 (en) 2022-08-16
CN111196230A (zh) 2020-05-26
JP2020086726A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
KR102667182B1 (ko) 차량 제어 디바이스 및 차량 제어 방법
JP7143736B2 (ja) 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム
KR102552285B1 (ko) 휴대 전자 장치 및 그 동작 방법
CN106094809B (zh) 车辆驾驶辅助装置
KR20240067906A (ko) 차량 탑승자 보조를 위한 차량 및 모바일 디바이스 인터페이스
KR20240074777A (ko) 차량 탑승자 보조를 위한 차량 및 모바일 디바이스 인터페이스
CN112915549B (zh) 图像处理装置、显示系统、记录介质以及图像处理方法
WO2019017216A1 (ja) 車両制御装置及び車両制御方法
JP6491601B2 (ja) 車両内移動デバイス管理
KR20200096215A (ko) 화상 처리 장치 및 화상 처리 방법
US11110933B2 (en) Driving support device, wearable device, driving support system, driving support method, and computer-readable recording medium
JP2024111090A (ja) 情報処理装置、および情報処理方法、プログラム、並びに車両
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
JP6683185B2 (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
JP2019046276A (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN110741631A (zh) 车辆的图像提供系统、服务器系统及车辆的图像提供方法
EP3806045A1 (en) Record/play device, record/play method, and program
JP2023021123A (ja) 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP7147527B2 (ja) 支援装置、支援方法およびプログラム
JP6717330B2 (ja) 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、及びコンピュータプログラム
KR101781689B1 (ko) 가상 영상 생성장치, 헤드 마운티드 디스플레이 및 차량
CN116547729A (zh) 关注对象共享装置、关注对象共享方法
WO2020241292A1 (ja) 信号処理装置、信号処理方法、プログラム、及び、撮像装置
WO2023063066A1 (ja) 支援情報提供方法及び記録媒体
CN113085884A (zh) 移动体控制装置、移动体控制方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R151 Written notification of patent or utility model registration

Ref document number: 7143736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151