[go: up one dir, main page]

JP2025012614A - Processing device and processing method - Google Patents

Processing device and processing method Download PDF

Info

Publication number
JP2025012614A
JP2025012614A JP2023115584A JP2023115584A JP2025012614A JP 2025012614 A JP2025012614 A JP 2025012614A JP 2023115584 A JP2023115584 A JP 2023115584A JP 2023115584 A JP2023115584 A JP 2023115584A JP 2025012614 A JP2025012614 A JP 2025012614A
Authority
JP
Japan
Prior art keywords
driver
position information
steering wheel
hand
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023115584A
Other languages
Japanese (ja)
Inventor
滋 本井
Shigeru Motoi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to JP2023115584A priority Critical patent/JP2025012614A/en
Publication of JP2025012614A publication Critical patent/JP2025012614A/en
Pending legal-status Critical Current

Links

Landscapes

  • Steering Controls (AREA)
  • Image Analysis (AREA)

Abstract

To properly detect a contact state of hands of a driver on an operation unit.SOLUTION: A processing apparatus 16 that performs processing for detecting a state of a driver 2 of a vehicle 1 includes: an acquisition unit which acquires hand position information on positions of hands 3 of the driver 2 and operation unit position information on a position of an operation unit in a passenger room 1a of the vehicle 1; and a processing unit which performs detection processing for detecting a state of the driver 2. The processing unit detects, in the detection processing, a contact state of the hands 3 of the driver 2 on the operation unit on the basis of the hand position information and the operation unit position information.SELECTED DRAWING: Figure 1

Description

本発明は、処理装置および処理方法に関する。 The present invention relates to a processing device and a processing method.

車両の車室内の状態を検出する技術が提案されている。このような技術として、例えば、特許文献1に開示されているように、ステアリングホイール等の操作部に対する運転者の手の接触状態を検出する技術が提案されている。 Technology has been proposed for detecting the state of the interior of a vehicle. For example, as disclosed in Patent Document 1, a technology has been proposed for detecting the contact state of the driver's hands with an operating part such as a steering wheel.

特開2018-069902号公報JP 2018-069902 A

例えば、特許文献1に開示されている技術等では、ステアリングホイールに静電容量型の近接センサを設け、近接センサの静電容量の変化に基づいて、運転者の手のステアリングホイールに対する接触状態が検出される。しかしながら、このような技術では、運転者が手袋を着用している場合等において、運転者の手の操作部に対する接触状態を検出することが困難となり得る。 For example, in the technology disclosed in Patent Document 1, a capacitance-type proximity sensor is provided on the steering wheel, and the state of contact of the driver's hands with the steering wheel is detected based on changes in the capacitance of the proximity sensor. However, with this technology, it can be difficult to detect the state of contact of the driver's hands with the operating part when the driver is wearing gloves, etc.

そこで、本発明は、このような課題に鑑み、運転者の手の操作部に対する接触状態を適切に検出することが可能な処理装置および処理方法を提供することを目的としている。 In view of these problems, the present invention aims to provide a processing device and processing method that can properly detect the contact state of the driver's hand with the operating unit.

上記課題を解決するために、処理装置は、車両の運転者の状態の検出に関する処理を行う処理装置であって、運転者の手の位置に関する手位置情報、および、車両の車室内の操作部の位置に関する操作部位置情報を取得する取得部と、運転者の状態を検出する検出処理を行う処理部と、を備え、処理部は、検出処理において、手位置情報および操作部位置情報に基づいて、運転者の手の操作部に対する接触状態を検出する。 To solve the above problem, the processing device is a processing device that performs processing related to detection of the state of the driver of the vehicle, and includes an acquisition unit that acquires hand position information related to the position of the driver's hands and operation unit position information related to the position of the operation unit inside the vehicle's cabin, and a processing unit that performs detection processing to detect the driver's state, and in the detection processing, the processing unit detects the contact state of the driver's hands with the operation unit based on the hand position information and the operation unit position information.

上記課題を解決するために、処理方法は、車両の運転者の状態の検出に関する処理を行う処理方法であって、処理装置の取得部が、運転者の手の位置に関する手位置情報、および、車両の車室内の操作部の位置に関する操作部位置情報を取得し、処理装置の処理部が、運転者の状態を検出する検出処理を行い、処理部は、検出処理において、手位置情報および操作部位置情報に基づいて、運転者の手の操作部に対する接触状態を検出する。 To solve the above problem, the processing method performs processing related to detection of the state of the driver of the vehicle, in which an acquisition unit of the processing device acquires hand position information related to the position of the driver's hands and operation unit position information related to the position of the operation unit within the vehicle's cabin, and a processing unit of the processing device performs detection processing to detect the state of the driver, and in the detection processing, the processing unit detects the contact state of the driver's hands with the operation unit based on the hand position information and the operation unit position information.

本発明によれば、運転者の手の操作部に対する接触状態を適切に検出することが可能となる。 The present invention makes it possible to properly detect the state of contact of the driver's hand with the operating unit.

本発明の実施形態に係る車両の概略構成を示す模式図である。1 is a schematic diagram showing a schematic configuration of a vehicle according to an embodiment of the present invention; 本発明の実施形態に係る処理装置の機能構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of a processing device according to an embodiment of the present invention. 本発明の実施形態に係る処理装置が行う全体的な処理の流れの一例を示すフローチャートである。4 is a flowchart showing an example of the overall processing flow performed by the processing device according to the embodiment of the present invention. 本発明の実施形態に係る処理装置が行う操作部位置情報の取得に関する処理の流れの一例を示すフローチャートである。10 is a flowchart showing an example of a flow of a process related to acquisition of operation unit position information performed by the processing device according to the embodiment of the present invention. 本発明の実施形態に係る処理装置が行う接触状態の検出に関する処理の流れの一例を示すフローチャートである。10 is a flowchart showing an example of a process flow relating to detection of a contact state performed by the processing device according to the embodiment of the present invention.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易にするための例示に過ぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 The preferred embodiment of the present invention will be described in detail below with reference to the attached drawings. The dimensions, materials, and other specific values shown in the embodiment are merely examples to facilitate understanding of the invention, and do not limit the present invention unless otherwise specified. In this specification and drawings, elements having substantially the same functions and configurations are given the same reference numerals to avoid duplicated explanations, and elements not directly related to the present invention are not illustrated.

<車両の構成>
図1および図2を参照して、本発明の実施形態に係る車両1の構成について説明する。
<Vehicle configuration>
The configuration of a vehicle 1 according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG.

図1は、車両1の概略構成を示す模式図である。図1には、車両1の車室1a内を車両1の前方から見た様子が示されている。車室1a内には、複数の座席11が設けられている。図1に示されるように、最前列の座席11は、運転席11aと、助手席11bとを含む。図1の例では、運転席11aに運転者2が座っている。ただし、車両1には、運転席11aおよび助手席11b以外の座席11として、後部座席が設けられていてもよい。 Figure 1 is a schematic diagram showing the general configuration of a vehicle 1. Figure 1 shows the interior of the passenger compartment 1a of the vehicle 1 as viewed from the front of the vehicle 1. A plurality of seats 11 are provided in the passenger compartment 1a. As shown in Figure 1, the front row of seats 11 includes a driver's seat 11a and a passenger seat 11b. In the example of Figure 1, a driver 2 sits in the driver's seat 11a. However, the vehicle 1 may also be provided with a rear seat as a seat 11 other than the driver's seat 11a and the passenger seat 11b.

図1に示されるように、車両1は、ステアリングホイール12と、ステアリングコラム13と、第1車室センサ14と、第2車室センサ15と、処理装置16とを備える。 As shown in FIG. 1, the vehicle 1 includes a steering wheel 12, a steering column 13, a first passenger compartment sensor 14, a second passenger compartment sensor 15, and a processing device 16.

ステアリングホイール12は、運転者2による操舵操作において用いられる操作部である。ステアリングホイール12は、運転席11aの前方に設けられる。ステアリングホイール12は、ステアリングコラム13を介して車両1に取り付けられている。例えば、ステアリングコラム13の基部が車両1と接続されており、ステアリングコラム13の先端にステアリングホイール12が取り付けられている。 The steering wheel 12 is an operating part used for steering operation by the driver 2. The steering wheel 12 is provided in front of the driver's seat 11a. The steering wheel 12 is attached to the vehicle 1 via a steering column 13. For example, the base of the steering column 13 is connected to the vehicle 1, and the steering wheel 12 is attached to the tip of the steering column 13.

ここで、ステアリングコラム13の姿勢は調整可能となっている。例えば、ステアリングコラム13は、ステアリングコラム13の基部を中心に左右方向に延在する回動軸まわりに回動可能となっている。運転者2は、ステアリングコラム13の姿勢を調整することによって、ステアリングホイール12の位置を調整する位置調整を行うことができる。 The attitude of the steering column 13 is adjustable. For example, the steering column 13 is rotatable about a rotation axis that extends in the left-right direction with the base of the steering column 13 as the center. By adjusting the attitude of the steering column 13, the driver 2 can adjust the position of the steering wheel 12.

運転者2は、運転者2の手3によりステアリングホイール12を把持した状態で、ステアリングホイール12を操作する。図1の例では、運転者2の右手3aおよび左手3bの両方によって、ステアリングホイール12が把持されている。 The driver 2 operates the steering wheel 12 while gripping the steering wheel 12 with the hands 3 of the driver 2. In the example of FIG. 1, the steering wheel 12 is gripped by both the right hand 3a and the left hand 3b of the driver 2.

車両1では、処理装置16によって、運転者2の手3の操作部に対する接触状態の検出が行われる。以下では、処理装置16によって、運転者2の手3のステアリングホイール12に対する接触状態の検出が行われる例を説明する。ただし、接触状態の検出対象となる操作部は、車室1a内の操作部であればよく、後述されるように、ステアリングホイール12以外であってもよい。 In the vehicle 1, the processing device 16 detects the contact state of the driver's 2 hands 3 with the operating unit. Below, an example is described in which the processing device 16 detects the contact state of the driver's 2 hands 3 with the steering wheel 12. However, the operating unit to be detected for the contact state may be any operating unit within the vehicle interior 1a, and may be other than the steering wheel 12, as described later.

第1車室センサ14は、車室1a内の状態を検出する。第1車室センサ14は、ステアリングコラム13に取り付けられている。ゆえに、第1車室センサ14は、ステアリングホイール12の位置を調整する位置調整が行われた場合にステアリングホイール12と一体に移動する。なお、第1車室センサ14は、ステアリングホイール12に取り付けられていてもよい。第1車室センサ14としては、例えば、カメラ等が挙げられる。以下では、第1車室センサ14がカメラである例を説明する。ただし、後述されるように、第1車室センサ14は、カメラ以外のセンサであってもよい。第1車室センサ14は、後方を向いて設けられ、運転者2の顔、および、運転者2の後方における車室1a内の様子を撮像する。 The first compartment sensor 14 detects the state inside the compartment 1a. The first compartment sensor 14 is attached to the steering column 13. Therefore, when the position of the steering wheel 12 is adjusted, the first compartment sensor 14 moves together with the steering wheel 12. The first compartment sensor 14 may be attached to the steering wheel 12. An example of the first compartment sensor 14 is a camera. In the following, an example in which the first compartment sensor 14 is a camera will be described. However, as described later, the first compartment sensor 14 may be a sensor other than a camera. The first compartment sensor 14 is provided facing rearward and captures an image of the face of the driver 2 and the state inside the compartment 1a behind the driver 2.

第2車室センサ15は、車室1a内の状態を検出する。第2車室センサ15は、車室1a内において、特定の位置に固定して設けられる。例えば、第2車室センサ15は、車室1a内のルームミラーの近傍に設けられる。ゆえに、第2車室センサ15は、ステアリングホイール12の位置を調整する位置調整が行われた場合にステアリングホイール12とは一体に移動しない。第2車室センサ15としては、例えば、レーダー等が挙げられる。以下では、第2車室センサ15がレーダーである例を説明する。ただし、後述されるように、第2車室センサ15は、レーダー以外のセンサであってもよい。第2車室センサ15は、後下方向を向いて設けられる。 The second compartment sensor 15 detects the condition inside the compartment 1a. The second compartment sensor 15 is fixed at a specific position inside the compartment 1a. For example, the second compartment sensor 15 is provided near the rearview mirror inside the compartment 1a. Therefore, the second compartment sensor 15 does not move together with the steering wheel 12 when the position of the steering wheel 12 is adjusted. The second compartment sensor 15 may be, for example, a radar. Below, an example in which the second compartment sensor 15 is a radar will be described. However, as described later, the second compartment sensor 15 may be a sensor other than a radar. The second compartment sensor 15 is provided facing downward and rearward.

車室1a内の各座席11およびステアリングホイール12は、第2車室センサ15の検出範囲内に位置している。そして、運転席11aに座る運転者2の手3も、第2車室センサ15の検出範囲内に位置している。ステアリングホイール12の周囲も第2車室センサ15の検出範囲内に位置しているので、少なくとも運転者2の手3がステアリングホイール12の近くにある場合、運転者2の手3は第2車室センサ15の検出範囲内に位置している。 Each seat 11 and steering wheel 12 in the passenger compartment 1a are located within the detection range of the second passenger compartment sensor 15. The hands 3 of the driver 2 sitting in the driver's seat 11a are also located within the detection range of the second passenger compartment sensor 15. Since the periphery of the steering wheel 12 is also located within the detection range of the second passenger compartment sensor 15, at least when the hands 3 of the driver 2 are near the steering wheel 12, the hands 3 of the driver 2 are located within the detection range of the second passenger compartment sensor 15.

処理装置16は、演算処理装置であるCPU(Central Processing Unit)、CPUが使用するプログラムや演算パラメータ等を記憶する記憶素子であるROM(Read Only Memory)、および、CPUの実行において適宜変化するパラメータ等を一時記憶する記憶素子であるRAM(Random Access Memory)等を含む。処理装置16は、例えば、1つであってもよく、また、複数に分かれていてもよい。処理装置16が複数に分かれる場合、以下で説明する各種機能が複数の装置に分担されてもよい。 The processing device 16 includes a CPU (Central Processing Unit) which is an arithmetic processing device, a ROM (Read Only Memory) which is a storage element that stores programs and calculation parameters used by the CPU, and a RAM (Random Access Memory) which is a storage element that temporarily stores parameters that change as appropriate during execution of the CPU. The processing device 16 may be, for example, a single device, or may be divided into multiple devices. When the processing device 16 is divided into multiple devices, the various functions described below may be shared among the multiple devices.

図2は、処理装置16の機能構成の一例を示すブロック図である。図2に示されるように、処理装置16は、例えば、取得部16aと、処理部16bと、制御部16cとを備える。 FIG. 2 is a block diagram showing an example of the functional configuration of the processing device 16. As shown in FIG. 2, the processing device 16 includes, for example, an acquisition unit 16a, a processing unit 16b, and a control unit 16c.

取得部16aは、車両1内の各装置から情報を取得する。例えば、取得部16aは、第1車室センサ14および第2車室センサ15から情報を取得する。なお、本明細書において、情報の取得には、情報の抽出または生成(例えば、演算)等が含まれ得る。 The acquisition unit 16a acquires information from each device in the vehicle 1. For example, the acquisition unit 16a acquires information from the first compartment sensor 14 and the second compartment sensor 15. Note that in this specification, acquisition of information may include extraction or generation (e.g., calculation) of information, etc.

処理部16bは、運転者2の状態を検出する検出処理を行う。特に、処理部16bは、検出処理において、運転者2の手3のステアリングホイール12に対する接触状態を検出する。 The processing unit 16b performs a detection process to detect the state of the driver 2. In particular, in the detection process, the processing unit 16b detects the contact state of the driver 2's hands 3 with the steering wheel 12.

制御部16cは、車両1内の各装置の動作を制御する。制御部16cは、例えば、車両1の駆動源(例えば、走行用モータまたはエンジン)およびブレーキ装置等の動作を制御することによって、運転者2による操作によらずに車両1を自動で走行させる自動走行制御を実行できる。 The control unit 16c controls the operation of each device in the vehicle 1. For example, the control unit 16c can execute automatic driving control to cause the vehicle 1 to drive automatically without operation by the driver 2, by controlling the operation of the drive source (e.g., a driving motor or engine) and the brake device of the vehicle 1, etc.

<処理装置の動作>
図3~図5を参照して、本発明の実施形態に係る処理装置16の動作について説明する。
<Operation of the Processing Device>
The operation of the processing device 16 according to the embodiment of the present invention will be described with reference to FIGS.

上記のように、処理装置16は、運転者2の手3のステアリングホイール12に対する接触状態を検出する。ここで、上記の接触状態を検出する方法として、例えば、ステアリングホイール12に静電容量型の近接センサを設け、近接センサの静電容量の変化に基づいて、運転者2の手3のステアリングホイール12に対する接触状態を検出する方法等がある。しかしながら、このような技術では、運転者2が手袋を着用している場合等において、運転者2の手3のステアリングホイール12に対する接触状態を検出することが困難となり得る。本実施形態では、処理装置16により行われる上記の接触状態の検出に関する処理に工夫が施されることによって、運転者2の手3のステアリングホイール12に対する接触状態を適切に検出することが可能となる。 As described above, the processing device 16 detects the contact state of the driver's 2 hands 3 with the steering wheel 12. Here, as a method for detecting the above contact state, for example, there is a method of providing a capacitance-type proximity sensor on the steering wheel 12 and detecting the contact state of the driver's 2 hands 3 with the steering wheel 12 based on the change in capacitance of the proximity sensor. However, with such a technique, it may be difficult to detect the contact state of the driver's 2 hands 3 with the steering wheel 12 when the driver 2 is wearing gloves, for example. In this embodiment, by implementing improvements in the processing related to the detection of the above contact state performed by the processing device 16, it becomes possible to appropriately detect the contact state of the driver's 2 hands 3 with the steering wheel 12.

図3は、処理装置16が行う全体的な処理の流れの一例を示すフローチャートである。図3におけるステップS101は、図3に示される処理フローの開始に対応する。図3におけるステップS106は、図3に示される処理フローの終了に対応する。図3に示される処理フローは、例えば、予め設定されている時間間隔で繰り返し実行される。 Figure 3 is a flow chart showing an example of the overall processing flow performed by the processing device 16. Step S101 in Figure 3 corresponds to the start of the processing flow shown in Figure 3. Step S106 in Figure 3 corresponds to the end of the processing flow shown in Figure 3. The processing flow shown in Figure 3 is executed repeatedly, for example, at preset time intervals.

図3に示される処理フローが開始されると、ステップS102において、処理部16bは、運転者2の検出を行う。具体的には、処理部16bは、車両1における運転者2の有無を検出する。 When the processing flow shown in FIG. 3 starts, in step S102, the processing unit 16b detects the driver 2. Specifically, the processing unit 16b detects the presence or absence of the driver 2 in the vehicle 1.

ステップS102では、処理部16bは、例えば、第2車室センサ15としてのレーダーの検出結果に基づいて、運転者2の有無を検出してもよい。例えば、第2車室センサ15は、車室1a内の対象物と第2車室センサ15との間の距離を検出できる。ゆえに、運転席11aに人が座っている場合、第2車室センサ15は、人の呼吸に伴う人の胸の収縮を検出できる。よって、処理部16bは、第2車室センサ15の検出結果に基づいて、運転席11aに運転者2が座っている否かを判断できる。 In step S102, the processing unit 16b may detect the presence or absence of the driver 2, for example, based on the detection result of a radar as the second cabin sensor 15. For example, the second cabin sensor 15 can detect the distance between an object in the cabin 1a and the second cabin sensor 15. Therefore, when a person is sitting in the driver's seat 11a, the second cabin sensor 15 can detect the contraction of the person's chest accompanying the person's breathing. Therefore, the processing unit 16b can determine whether the driver 2 is sitting in the driver's seat 11a based on the detection result of the second cabin sensor 15.

また、ステップS102では、処理部16bは、例えば、第1車室センサ14としてのカメラの検出結果に基づいて、運転者2の有無を検出してもよい。例えば、処理部16bは、第1車室センサ14により撮像された画像に対して画像処理を施すことによって、座席11に座っている人の顔または体を認識できる。ゆえに、処理部16bは、第1車室センサ14により撮像された画像に基づいて、運転席11aに運転者2が座っている否かを判断できる。 In addition, in step S102, the processing unit 16b may detect the presence or absence of the driver 2, for example, based on the detection result of a camera serving as the first compartment sensor 14. For example, the processing unit 16b can recognize the face or body of the person sitting in the seat 11 by performing image processing on the image captured by the first compartment sensor 14. Therefore, the processing unit 16b can determine whether or not the driver 2 is sitting in the driver's seat 11a, based on the image captured by the first compartment sensor 14.

また、ステップS102では、処理部16bは、第2車室センサ15としてのレーダーの検出結果、および、第1車室センサ14としてのカメラにより撮像された画像の両方に基づいて、運転者2の有無を検出してもよい。例えば、処理部16bは、まず、第1車室センサ14および第2車室センサ15の一方を用いて、運転者2の有無を検出するための処理を行う。この処理において運転者2の有無を検出できなかった場合に、処理部16bは、第1車室センサ14および第2車室センサ15の他方を用いて、運転者2の有無を検出するための処理を再度行ってもよい。 In addition, in step S102, the processing unit 16b may detect the presence or absence of the driver 2 based on both the detection result of the radar as the second compartment sensor 15 and the image captured by the camera as the first compartment sensor 14. For example, the processing unit 16b first performs processing to detect the presence or absence of the driver 2 using one of the first compartment sensor 14 and the second compartment sensor 15. If the presence or absence of the driver 2 cannot be detected in this processing, the processing unit 16b may perform processing to detect the presence or absence of the driver 2 again using the other of the first compartment sensor 14 and the second compartment sensor 15.

なお、ステップS102において用いられるセンサは、上記の例に限定されない。例えば、処理部16bは、運転席11aに設けられる着座センサの検出結果に基づいて、運転者2の有無を検出してもよい。 The sensor used in step S102 is not limited to the above example. For example, the processing unit 16b may detect the presence or absence of the driver 2 based on the detection result of a seating sensor provided in the driver's seat 11a.

ステップS102の次に、ステップS103において、取得部16aは、操作部位置情報を取得する。 After step S102, in step S103, the acquisition unit 16a acquires operation unit position information.

操作部位置情報は、車室1a内の操作部の位置に関する情報である。操作部位置情報は、例えば、操作部の位置を直接的に示す情報であってもよく、操作部の位置に実質的に変換可能な情報であってもよい。図3~図5の例では、操作部位置情報は、ステアリングホイール12の位置に関する情報である。 The operation unit position information is information about the position of the operation unit within the vehicle interior 1a. The operation unit position information may be, for example, information that directly indicates the position of the operation unit, or information that can be substantially converted into the position of the operation unit. In the examples of Figures 3 to 5, the operation unit position information is information about the position of the steering wheel 12.

図4は、処理装置16が行う操作部位置情報の取得に関する処理の流れの一例を示すフローチャートである。図4に示される処理フローは、図3のステップS103において実行される。図4におけるステップS201は、図4に示される処理フローの開始に対応する。図4におけるステップS206は、図4に示される処理フローの終了に対応する。 Figure 4 is a flow chart showing an example of the process flow for acquiring operation unit position information performed by the processing device 16. The process flow shown in Figure 4 is executed in step S103 in Figure 3. Step S201 in Figure 4 corresponds to the start of the process flow shown in Figure 4. Step S206 in Figure 4 corresponds to the end of the process flow shown in Figure 4.

例えば、取得部16aは、第1車室センサ14としてのカメラの検出結果に基づいて、操作部位置情報を取得する。以下、取得部16aが第1車室センサ14としてのカメラを用いて操作部位置情報を取得する例を主に説明する。ただし、後述されるように、取得部16aは、第2車室センサ15としてのレーダーを用いて操作部位置情報を取得してもよい。 For example, the acquisition unit 16a acquires the operation unit position information based on the detection result of a camera serving as the first vehicle interior sensor 14. Below, an example in which the acquisition unit 16a acquires the operation unit position information using a camera serving as the first vehicle interior sensor 14 will be mainly described. However, as described later, the acquisition unit 16a may also acquire the operation unit position information using a radar serving as the second vehicle interior sensor 15.

図4に示される処理フローが開始されると、ステップS202において、取得部16aは、第1車室センサ14の検出結果が妥当であるか否かを判定する。 When the processing flow shown in FIG. 4 is started, in step S202, the acquisition unit 16a determines whether the detection result of the first vehicle interior sensor 14 is valid.

後述されるステップS203では、例えば、第1車室センサ14としてのカメラにより撮像された画像に映る車室1a内のピラー等の特定部位を認識することによって、ステアリングホイール12の位置調整に関する位置調整情報が取得される。ゆえに、後述される位置調整情報の取得の処理を適切に行うために、第1車室センサ14の検出結果が妥当であることが必要となる。 In step S203, which will be described later, position adjustment information regarding the position adjustment of the steering wheel 12 is acquired by, for example, recognizing a specific part, such as a pillar, in the vehicle interior 1a that is captured in an image captured by a camera serving as the first vehicle interior sensor 14. Therefore, in order to appropriately perform the process of acquiring the position adjustment information, which will be described later, it is necessary that the detection result of the first vehicle interior sensor 14 is valid.

ステップS202では、取得部16aは、例えば、第1車室センサ14により撮像された画像に運転者2の腕等の意図しない対象が映り込んでおり、上記の特定部位の全部または大部分が画像に映っていない場合、第1車室センサ14の検出結果が妥当ではないと判定する。一方、取得部16aは、第1車室センサ14により撮像された画像に上記の特定部位の全部または大部分が映っている場合、第1車室センサ14の検出結果が妥当であると判定する。なお、取得部16aは、第1車室センサ14自体の異常が検出された場合に、第1車室センサ14の検出結果が妥当ではないと判定してもよい。 In step S202, for example, if an unintended object such as the driver 2's arm is captured in the image captured by the first compartment sensor 14 and all or most of the above-mentioned specific body part is not captured in the image, the acquisition unit 16a determines that the detection result of the first compartment sensor 14 is invalid. On the other hand, if all or most of the above-mentioned specific body part is captured in the image captured by the first compartment sensor 14, the acquisition unit 16a determines that the detection result of the first compartment sensor 14 is valid. Note that the acquisition unit 16a may determine that the detection result of the first compartment sensor 14 is invalid if an abnormality is detected in the first compartment sensor 14 itself.

第1車室センサ14の検出結果が妥当であると判定された場合(ステップS202/YES)、ステップS203に進む。一方、第1車室センサ14の検出結果が妥当ではないと判定された場合(ステップS202/NO)、ステップS205に進む。 If it is determined that the detection result of the first vehicle interior sensor 14 is valid (step S202/YES), the process proceeds to step S203. On the other hand, if it is determined that the detection result of the first vehicle interior sensor 14 is not valid (step S202/NO), the process proceeds to step S205.

ステップS202でYESと判定された場合、ステップS203において、取得部16aは、位置調整情報を取得する。 If the answer is YES in step S202, in step S203, the acquisition unit 16a acquires position adjustment information.

位置調整情報は、ステアリングホイール12の位置を調整する位置調整に関する情報である。位置調整情報は、例えば、ステアリングホイール12の基準位置から現在位置までの調整量および調整方向を直接的に示す情報であってもよく、当該調整量および当該調整方向に実質的に変換可能な情報であってもよい。なお、ステアリングホイール12の基準位置は、適宜設定され、例えば、ステアリングホイール12の位置の調整範囲内における中央位置であってもよい。ステアリングホイール12の基準位置を示す情報は、例えば、処理装置16に予め記憶されている。なお、ステアリングホイール12の基準位置は、予め設定されている固定的な位置であってもよく、固定的ではなく過去の任意のタイミングにおける位置(例えば、前回の位置調整後における位置等)であってもよい。 The position adjustment information is information related to position adjustment for adjusting the position of the steering wheel 12. The position adjustment information may be, for example, information directly indicating the amount and direction of adjustment from the reference position of the steering wheel 12 to the current position, or may be information that can be substantially converted into the amount and direction of adjustment. The reference position of the steering wheel 12 is set appropriately, and may be, for example, the center position within the adjustment range of the position of the steering wheel 12. Information indicating the reference position of the steering wheel 12 is, for example, stored in advance in the processing device 16. The reference position of the steering wheel 12 may be a fixed position that is set in advance, or may be a position at any time in the past that is not fixed (for example, the position after the previous position adjustment, etc.).

ステップS203では、取得部16aは、例えば、第1車室センサ14の検出結果に基づいて、位置調整情報を取得する。例えば、取得部16aは、第1車室センサ14としてのカメラにより撮像された画像に対して画像処理を施すことによって、当該画像に映る車室1a内のピラー等の特定部位を認識する。上述したように、第1車室センサ14は、ステアリングホイール12の位置調整が行われた場合にステアリングホイール12と一体に移動する。ゆえに、第1車室センサ14により撮像された画像における上記の特定部位の表示位置は、ステアリングホイール12の位置調整に伴い変化する。よって、取得部16aは、第1車室センサ14により撮像された画像における上記の特定部位の表示位置に基づいて、ステアリングホイール12の位置調整における調整量および調整方向を示す情報を位置調整情報として取得できる。 In step S203, the acquisition unit 16a acquires position adjustment information based on, for example, the detection result of the first compartment sensor 14. For example, the acquisition unit 16a recognizes specific parts, such as pillars, in the compartment 1a that are reflected in the image by performing image processing on the image captured by the camera serving as the first compartment sensor 14. As described above, the first compartment sensor 14 moves together with the steering wheel 12 when the position of the steering wheel 12 is adjusted. Therefore, the display position of the specific parts in the image captured by the first compartment sensor 14 changes with the adjustment of the position of the steering wheel 12. Therefore, the acquisition unit 16a can acquire information indicating the adjustment amount and adjustment direction in the position adjustment of the steering wheel 12 as position adjustment information based on the display position of the specific parts in the image captured by the first compartment sensor 14.

ステップS203の次に、ステップS204において、取得部16aは、位置調整情報に基づいて、操作部位置情報を取得し、図4に示される処理フローは終了する。 After step S203, in step S204, the acquisition unit 16a acquires operation unit position information based on the position adjustment information, and the processing flow shown in FIG. 4 ends.

ステップS204では、取得部16aは、例えば、ステアリングホイール12の基準位置に対して位置調整情報により示される調整方向に位置調整情報により示される調整量を足し合わせた位置を、操作部位置情報として取得する。 In step S204, the acquisition unit 16a acquires, for example, a position obtained by adding the adjustment amount indicated by the position adjustment information to the adjustment direction indicated by the position adjustment information relative to the reference position of the steering wheel 12 as the operation unit position information.

ステップS202でNOと判定された場合、ステップS205において、取得部16aは、位置調整情報に基づかずに、操作部位置情報を取得し、図4に示される処理フローは終了する。 If the determination in step S202 is NO, in step S205, the acquisition unit 16a acquires operation unit position information without using the position adjustment information, and the processing flow shown in FIG. 4 ends.

ステップS202でNOと判定された場合には、位置調整情報が取得されない。ゆえに、ステップS205では、取得部16aは、例えば、ステアリングホイール12の基準位置を、操作部位置情報として取得する。なお、ステップS202でNOと判定された場合、取得部16aは、所定時間に亘ってステップS202の判定を繰り返してもよい。それにより、例えば、第1車室センサ14としてのカメラの前面を運転者2の腕が覆っている状況が解消された場合等において、取得部16aは、ステップS203を適切に実行できる。 If the result of step S202 is NO, the position adjustment information is not acquired. Therefore, in step S205, the acquisition unit 16a acquires, for example, the reference position of the steering wheel 12 as the operation unit position information. Note that, if the result of step S202 is NO, the acquisition unit 16a may repeat the determination of step S202 for a predetermined time. This allows the acquisition unit 16a to appropriately execute step S203, for example, when the situation in which the driver 2's arm is no longer covering the front of the camera serving as the first vehicle interior sensor 14 is resolved.

上記では、取得部16aが第1車室センサ14としてのカメラを用いて操作部位置情報を取得する例を主に説明した。ただし、取得部16aは、第2車室センサ15としてのレーダーを用いて操作部位置情報を取得してもよい。この場合、例えば、上記で説明した図4のフローチャートの各処理において用いられるセンサが第1車室センサ14から第2車室センサ15に置き換えられる。以下、このような例について説明する。 The above mainly describes an example in which the acquisition unit 16a acquires the operation unit position information using a camera as the first vehicle interior sensor 14. However, the acquisition unit 16a may also acquire the operation unit position information using a radar as the second vehicle interior sensor 15. In this case, for example, the sensor used in each process in the flowchart of FIG. 4 described above is replaced from the first vehicle interior sensor 14 to the second vehicle interior sensor 15. Such an example will be described below.

例えば、ステップS202において、取得部16aは、第1車室センサ14の検出結果に替えて、第2車室センサ15としてのレーダーの検出結果が妥当であるか否かを判定する。ステップS202では、取得部16aは、例えば、第2車室センサ15の前面が運転者2の腕等の意図しない対象により覆われ、第2車室センサ15によりステアリングホイール12を検出することができない場合、第2車室センサ15の検出結果が妥当ではないと判定する。なお、取得部16aは、第2車室センサ15自体の異常が検出された場合に、第2車室センサ15の検出結果が妥当ではないと判定してもよい。 For example, in step S202, the acquisition unit 16a determines whether the detection result of the radar as the second compartment sensor 15 is valid, instead of the detection result of the first compartment sensor 14. In step S202, the acquisition unit 16a determines that the detection result of the second compartment sensor 15 is not valid, for example, when the front of the second compartment sensor 15 is covered by an unintended object such as the driver 2's arm and the second compartment sensor 15 cannot detect the steering wheel 12. Note that the acquisition unit 16a may determine that the detection result of the second compartment sensor 15 is not valid when an abnormality is detected in the second compartment sensor 15 itself.

第2車室センサ15の検出結果が妥当であると判定された場合(ステップS202/YES)、ステップS203に進む。一方、第2車室センサ15の検出結果が妥当ではないと判定された場合(ステップS202/NO)、ステップS205に進む。 If it is determined that the detection result of the second vehicle interior sensor 15 is valid (step S202/YES), the process proceeds to step S203. On the other hand, if it is determined that the detection result of the second vehicle interior sensor 15 is not valid (step S202/NO), the process proceeds to step S205.

ステップS202でYESと判定された場合、ステップS203において、取得部16aは、第1車室センサ14の検出結果に替えて、第2車室センサ15としてのレーダーの検出結果に基づいて、位置調整情報を取得する。例えば、第2車室センサ15は、第2車室センサ15に対するステアリングホイール12の相対位置を検出できる。よって、取得部16aは、第2車室センサ15の検出結果に基づいて、ステアリングホイール12の位置調整における調整量および調整方向を示す情報を位置調整情報として取得できる。 If the determination in step S202 is YES, in step S203, the acquisition unit 16a acquires position adjustment information based on the detection result of the radar as the second compartment sensor 15, instead of the detection result of the first compartment sensor 14. For example, the second compartment sensor 15 can detect the relative position of the steering wheel 12 with respect to the second compartment sensor 15. Therefore, the acquisition unit 16a can acquire information indicating the adjustment amount and adjustment direction in adjusting the position of the steering wheel 12 as position adjustment information based on the detection result of the second compartment sensor 15.

ステップS204では、取得部16aは、例えば、第1車室センサ14としてのカメラを用いて操作部位置情報が取得される例と同様に、位置調整情報に基づいて、操作部位置情報を取得する。ただし、取得部16aは、ステップS203を行わずに、第2車室センサ15の検出結果に基づいて、位置調整後のステアリングホイール12の位置を示す情報を操作部位置情報として直接的に取得してもよい。 In step S204, the acquisition unit 16a acquires the operation unit position information based on the position adjustment information, for example, in the same manner as in the example in which the operation unit position information is acquired using a camera as the first vehicle interior sensor 14. However, the acquisition unit 16a may directly acquire information indicating the position of the steering wheel 12 after the position adjustment as the operation unit position information based on the detection result of the second vehicle interior sensor 15 without performing step S203.

ステップS202でNOと判定された場合、ステップS205において、取得部16aは、例えば、第1車室センサ14としてのカメラを用いて操作部位置情報が取得される例と同様に、ステアリングホイール12の基準位置を、操作部位置情報として取得する。なお、ステップS202でNOと判定された場合、取得部16aは、所定時間に亘ってステップS202の判定を繰り返してもよい。それにより、例えば、第2車室センサ15としてのレーダーの前面を運転者2の腕が覆っている状況が解消された場合等において、取得部16aは、ステップS203を適切に実行できる。 If the determination in step S202 is NO, then in step S205, the acquisition unit 16a acquires the reference position of the steering wheel 12 as the operation unit position information, for example, in the same manner as in the example in which the operation unit position information is acquired using a camera as the first vehicle interior sensor 14. Note that if the determination in step S202 is NO, the acquisition unit 16a may repeat the determination in step S202 for a predetermined period of time. This allows the acquisition unit 16a to appropriately execute step S203, for example, when the situation in which the driver 2's arm is no longer covering the front of the radar as the second vehicle interior sensor 15 is resolved.

なお、取得部16aは、第1車室センサ14としてのカメラにより撮像された画像、および、第2車室センサ15としてのレーダーの検出結果の両方に基づいて、操作部位置情報を取得してもよい。例えば、取得部16aは、まず、第1車室センサ14および第2車室センサ15の一方を用いて、操作部位置情報を取得するための処理を行う。例えば、この処理において位置調整情報を取得できなかった場合に、処理部16bは、第1車室センサ14および第2車室センサ15の他方を用いて、操作部位置情報を取得するための処理を再度行ってもよい。 The acquisition unit 16a may acquire the operation unit position information based on both an image captured by a camera serving as the first vehicle interior sensor 14 and the detection result of a radar serving as the second vehicle interior sensor 15. For example, the acquisition unit 16a first performs processing to acquire the operation unit position information using one of the first vehicle interior sensor 14 and the second vehicle interior sensor 15. For example, if the position adjustment information cannot be acquired in this processing, the processing unit 16b may perform processing again to acquire the operation unit position information using the other of the first vehicle interior sensor 14 and the second vehicle interior sensor 15.

以下、図3に戻り、説明を続ける。図3のステップS103の次に、ステップS104において、取得部16aは、手位置情報を取得する。 Returning to FIG. 3, the explanation will be continued below. Following step S103 in FIG. 3, in step S104, the acquisition unit 16a acquires hand position information.

手位置情報は、運転者2の手3の位置に関する情報である。手位置情報は、例えば、運転者2の手3の位置を直接的に示す情報であってもよく、運転者2の手3の位置に実質的に変換可能な情報であってもよい。 The hand position information is information relating to the position of the driver's 2's hands 3. The hand position information may be, for example, information that directly indicates the position of the driver's 2's hands 3, or may be information that can be substantially converted into the position of the driver's 2's hands 3.

例えば、取得部16aは、第2車室センサ15としてのレーダーの検出結果に基づいて、手位置情報を取得する。上述したように、第2車室センサ15は、ステアリングホイール12の位置調整が行われた場合にステアリングホイール12とは一体に移動しない。よって、ステアリングホイール12の位置調整がどのように行われたかによらず、運転席11aに座る運転者2の手3は、第2車室センサ15の検出範囲内に位置している。ゆえに、第2車室センサ15は、第2車室センサ15に対する運転者2の手3の相対位置を検出できる。詳細には、少なくとも運転者2の手3がステアリングホイール12の近くにある場合、第2車室センサ15は、第2車室センサ15に対する運転者2の手3の相対位置を検出できる。よって、取得部16aは、第2車室センサ15に対する運転者2の手3の相対位置に基づいて、手位置情報を取得できる。 For example, the acquisition unit 16a acquires hand position information based on the detection result of the radar as the second cabin sensor 15. As described above, the second cabin sensor 15 does not move together with the steering wheel 12 when the position of the steering wheel 12 is adjusted. Therefore, regardless of how the position of the steering wheel 12 is adjusted, the hand 3 of the driver 2 sitting in the driver's seat 11a is located within the detection range of the second cabin sensor 15. Therefore, the second cabin sensor 15 can detect the relative position of the hand 3 of the driver 2 with respect to the second cabin sensor 15. In detail, at least when the hand 3 of the driver 2 is near the steering wheel 12, the second cabin sensor 15 can detect the relative position of the hand 3 of the driver 2 with respect to the second cabin sensor 15. Therefore, the acquisition unit 16a can acquire hand position information based on the relative position of the hand 3 of the driver 2 with respect to the second cabin sensor 15.

ここで、取得部16aは、例えば、第1車室センサ14としてのカメラにより撮像される画像に基づいて、第2車室センサ15により検出された運転者2の手3が右手3aであるか左手3bであるかを判断できる。例えば、取得部16aは、運転者2の体の一部が映る画像に対して画像処理を施すことによって、運転者2の関節の位置等を認識できる。取得部16aは、このような認識の結果に基づいて、第2車室センサ15により検出された運転者2の手3が右手3aであるか左手3bであるかを判断できる。ゆえに、取得部16aは、運転者2の右手3aの位置に関する右手位置情報、および、運転者2の左手3bの位置に関する左手位置情報を手位置情報として取得できる。 Here, the acquisition unit 16a can determine whether the hand 3 of the driver 2 detected by the second compartment sensor 15 is the right hand 3a or the left hand 3b, for example, based on an image captured by a camera serving as the first compartment sensor 14. For example, the acquisition unit 16a can recognize the position of the joints of the driver 2 by performing image processing on an image showing a part of the body of the driver 2. Based on the result of such recognition, the acquisition unit 16a can determine whether the hand 3 of the driver 2 detected by the second compartment sensor 15 is the right hand 3a or the left hand 3b. Therefore, the acquisition unit 16a can acquire right hand position information regarding the position of the right hand 3a of the driver 2 and left hand position information regarding the position of the left hand 3b of the driver 2 as hand position information.

ステップS104の次に、ステップS105において、処理部16bは、運転者2の手3のステアリングホイール12に対する接触状態を検出する検出処理を行い、図3に示される処理フローは終了する。 After step S104, in step S105, the processing unit 16b performs a detection process to detect the contact state of the driver's 2's hands 3 with the steering wheel 12, and the processing flow shown in FIG. 3 ends.

処理部16bは、検出処理において、ステップS104で取得された手位置情報、および、ステップS103で取得された操作部位置情報に基づいて、運転者2の手3のステアリングホイール12に対する接触状態を検出する。 In the detection process, the processing unit 16b detects the contact state of the driver's 2's hand 3 with the steering wheel 12 based on the hand position information acquired in step S104 and the operation unit position information acquired in step S103.

図5は、処理装置16が行う接触状態の検出に関する処理の流れの一例を示すフローチャートである。図5に示される処理フローは、図3のステップS105において実行される。図5におけるステップS301は、図5に示される処理フローの開始に対応する。図5におけるステップS304は、図5に示される処理フローの終了に対応する。 Figure 5 is a flow chart showing an example of the process flow for detecting a contact state performed by the processing device 16. The process flow shown in Figure 5 is executed in step S105 in Figure 3. Step S301 in Figure 5 corresponds to the start of the process flow shown in Figure 5. Step S304 in Figure 5 corresponds to the end of the process flow shown in Figure 5.

図5に示される処理フローが開始されると、ステップS302において、処理部16bは、運転者2の右手3aのステアリングホイール12に対する接触状態を検出する。 When the processing flow shown in FIG. 5 is started, in step S302, the processing unit 16b detects the contact state of the driver 2's right hand 3a with the steering wheel 12.

ステップS302では、処理部16bは、右手位置情報および操作部位置情報に基づいて、運転者2の右手3aのステアリングホイール12に対する接触状態を検出する。例えば、処理部16bは、右手位置情報により示される右手3aの位置、および、操作部位置情報により示されるステアリングホイール12の位置に基づいて、右手3aとステアリングホイール12との間の距離を特定する。そして、右手3aとステアリングホイール12との間の距離が閾値より短い場合、処理部16bは、右手3aがステアリングホイール12に接触していると判断する。一方、右手3aとステアリングホイール12との間の距離が閾値より長い場合、処理部16bは、右手3aがステアリングホイール12に接触していないと判断する。このように、閾値は、手3がステアリングホイール12に接触していると判断できる程度に短い値に設定される。 In step S302, the processing unit 16b detects the contact state of the right hand 3a of the driver 2 with the steering wheel 12 based on the right hand position information and the operation unit position information. For example, the processing unit 16b determines the distance between the right hand 3a and the steering wheel 12 based on the position of the right hand 3a indicated by the right hand position information and the position of the steering wheel 12 indicated by the operation unit position information. Then, if the distance between the right hand 3a and the steering wheel 12 is shorter than a threshold value, the processing unit 16b determines that the right hand 3a is in contact with the steering wheel 12. On the other hand, if the distance between the right hand 3a and the steering wheel 12 is longer than the threshold value, the processing unit 16b determines that the right hand 3a is not in contact with the steering wheel 12. In this way, the threshold value is set to a value short enough to determine that the hand 3 is in contact with the steering wheel 12.

ステップS302の次に、ステップS303において、処理部16bは、運転者2の左手3bのステアリングホイール12に対する接触状態を検出し、図5に示される処理フローは終了する。 After step S302, in step S303, the processing unit 16b detects the contact state of the left hand 3b of the driver 2 with the steering wheel 12, and the processing flow shown in FIG. 5 ends.

ステップS302では、処理部16bは、左手位置情報および操作部位置情報に基づいて、運転者2の左手3bのステアリングホイール12に対する接触状態を検出する。例えば、処理部16bは、左手位置情報により示される左手3bの位置、および、操作部位置情報により示されるステアリングホイール12の位置に基づいて、左手3bとステアリングホイール12との間の距離を特定する。そして、左手3bとステアリングホイール12との間の距離が閾値より短い場合、処理部16bは、左手3bがステアリングホイール12に接触していると判断する。一方、左手3bとステアリングホイール12との間の距離が閾値より長い場合、処理部16bは、左手3bがステアリングホイール12に接触していないと判断する。 In step S302, the processing unit 16b detects the contact state of the left hand 3b of the driver 2 with the steering wheel 12 based on the left hand position information and the operation unit position information. For example, the processing unit 16b determines the distance between the left hand 3b and the steering wheel 12 based on the position of the left hand 3b indicated by the left hand position information and the position of the steering wheel 12 indicated by the operation unit position information. Then, if the distance between the left hand 3b and the steering wheel 12 is shorter than a threshold value, the processing unit 16b determines that the left hand 3b is in contact with the steering wheel 12. On the other hand, if the distance between the left hand 3b and the steering wheel 12 is longer than the threshold value, the processing unit 16b determines that the left hand 3b is not in contact with the steering wheel 12.

上記のように、処理装置16によれば、運転者2の手3のステアリングホイール12に対する接触状態を検出することができる。接触状態の検出結果は、例えば、制御部16cにより行われる自動走行制御に利用される。例えば、制御部16cは、右手3aおよび左手3bの両方がステアリングホイール12に接触している場合に限り、自動走行制御を許可してもよい。また、例えば、制御部16cは、自動走行制御の実行中において、右手3aおよび左手3bの少なくとも一方がステアリングホイール12に接触していない場合、その旨を運転者2に対して報知してもよい。 As described above, the processing device 16 can detect the contact state of the driver's 2 hands 3 with the steering wheel 12. The contact state detection result is used, for example, in the automatic driving control performed by the control unit 16c. For example, the control unit 16c may permit the automatic driving control only when both the right hand 3a and the left hand 3b are in contact with the steering wheel 12. Also, for example, the control unit 16c may notify the driver 2 that at least one of the right hand 3a and the left hand 3b is not in contact with the steering wheel 12 while the automatic driving control is being executed.

以上説明したように、処理装置16では、取得部16aが、運転者2の手3の位置に関する手位置情報、および、ステアリングホイール12の位置に関する操作部位置情報を取得し、処理部16bが、運転者2の状態を検出する検出処理を行う。そして、処理部16bは、検出処理において、手位置情報および操作部位置情報に基づいて、運転者2の手3のステアリングホイール12に対する接触状態を検出する。それにより、ステアリングホイール12に設けられる静電容量型の近接センサを用いて接触状態を検出する方法等では接触状態を検出することが困難な場合(例えば、運転者2が手袋を着用している場合等)においても、運転者2の手3のステアリングホイール12に対する接触状態を検出することができる。ゆえに、処理装置16によれば、運転者2の手3のステアリングホイール12に対する接触状態を適切に検出することができる。 As described above, in the processing device 16, the acquisition unit 16a acquires hand position information related to the position of the driver's 2's hand 3 and operation unit position information related to the position of the steering wheel 12, and the processing unit 16b performs a detection process to detect the state of the driver 2. In the detection process, the processing unit 16b detects the contact state of the driver's 2's hand 3 with the steering wheel 12 based on the hand position information and the operation unit position information. As a result, even when it is difficult to detect the contact state using a method of detecting the contact state using a capacitance-type proximity sensor provided on the steering wheel 12 (for example, when the driver 2 is wearing gloves), the contact state of the driver's 2's hand 3 with the steering wheel 12 can be detected. Therefore, the processing device 16 can appropriately detect the contact state of the driver's 2's hand 3 with the steering wheel 12.

以上、図3~図5を参照して、処理装置16が行う処理例について説明した。ただし、処理装置16が行う処理は、上記の処理例に限定されず、例えば、上記の処理例に対して適宜変更を施した処理であってもよい。 The above describes examples of processing performed by the processing device 16 with reference to Figures 3 to 5. However, the processing performed by the processing device 16 is not limited to the above examples of processing, and may be, for example, processing that is an appropriate modification of the above examples of processing.

例えば、上記では、第1車室センサ14がカメラである例を説明した。ただし、第1車室センサ14は、カメラ以外のセンサであってもよい。例えば、第1車室センサ14は、レーダーであってもよい。この場合、例えば、図4のステップS203において、取得部16aは、ステアリングホイール12の位置調整が行われた場合にステアリングホイール12と一体に移動する第1車室センサ14としてのレーダーを用いて、位置調整情報を取得してもよい。 For example, in the above, an example has been described in which the first compartment sensor 14 is a camera. However, the first compartment sensor 14 may be a sensor other than a camera. For example, the first compartment sensor 14 may be a radar. In this case, for example, in step S203 of FIG. 4, the acquisition unit 16a may acquire position adjustment information using a radar as the first compartment sensor 14 that moves together with the steering wheel 12 when the position of the steering wheel 12 is adjusted.

また、例えば、上記では、第2車室センサ15がレーダーである例を説明した。ただし、第2車室センサ15は、レーダー以外のセンサであってもよい。例えば、第2車室センサ15は、カメラであってもよい。この場合、例えば、図3のステップS104において、取得部16aは、ステアリングホイール12の位置調整が行われた場合にステアリングホイール12とは一体に移動しない第2車室センサ15としてのカメラを用いて、手位置情報を取得してもよい。 In the above, for example, an example was described in which the second vehicle interior sensor 15 is a radar. However, the second vehicle interior sensor 15 may be a sensor other than a radar. For example, the second vehicle interior sensor 15 may be a camera. In this case, for example, in step S104 of FIG. 3, the acquisition unit 16a may acquire hand position information using a camera as the second vehicle interior sensor 15 that does not move together with the steering wheel 12 when the position of the steering wheel 12 is adjusted.

また、例えば、上記では、取得部16aが、運転者2の右手3aの位置に関する右手位置情報、および、運転者2の左手3bの位置に関する左手位置情報を手位置情報として取得する例を説明した。ただし、取得部16aは、運転者2の手3が右手3aであるか左手3bであるかを区別せずに、単に手3の位置に関する手位置情報を取得してもよい。この場合、例えば、手3とステアリングホイール12との間の距離が閾値より短い場合、処理部16bは、手3がステアリングホイール12に接触していると判断する。一方、手3とステアリングホイール12との間の距離が閾値より長い場合、処理部16bは、手3がステアリングホイール12に接触していないと判断する。 Also, for example, in the above description, an example has been described in which the acquisition unit 16a acquires right hand position information related to the position of the right hand 3a of the driver 2 and left hand position information related to the position of the left hand 3b of the driver 2 as hand position information. However, the acquisition unit 16a may simply acquire hand position information related to the position of the hand 3 without distinguishing whether the hand 3 of the driver 2 is the right hand 3a or the left hand 3b. In this case, for example, if the distance between the hand 3 and the steering wheel 12 is shorter than a threshold value, the processing unit 16b determines that the hand 3 is in contact with the steering wheel 12. On the other hand, if the distance between the hand 3 and the steering wheel 12 is longer than the threshold value, the processing unit 16b determines that the hand 3 is not in contact with the steering wheel 12.

また、例えば、上記では、処理部16bが運転者2の手3のステアリングホイール12に対する接触状態の検出を行う例を説明した。ただし、接触状態の検出対象となる操作部は、車室1a内の操作部であればよく、ステアリングホイール12以外であってもよい。例えば、処理部16bは、運転者2の手3のシフトレバーに対する接触状態の検出を行ってもよい。 Also, for example, in the above description, an example has been described in which the processing unit 16b detects the contact state of the driver's 2 hand 3 with the steering wheel 12. However, the operation unit to be detected for the contact state may be any operation unit within the vehicle interior 1a, and may be other than the steering wheel 12. For example, the processing unit 16b may detect the contact state of the driver's 2 hand 3 with a shift lever.

<処理装置の効果>
本発明の実施形態に係る処理装置16の効果について説明する。
<Effects of the treatment device>
The effects of the processing device 16 according to the embodiment of the present invention will be described.

処理装置16は、運転者2の手3の位置に関する手位置情報、および、車両1の車室1a内の操作部(上記の例では、ステアリングホイール12)の位置に関する操作部位置情報を取得する取得部16aと、運転者2の状態を検出する検出処理を行う処理部16bとを備える。そして、処理部16bは、検出処理において、手位置情報および操作部位置情報に基づいて、運転者2の手3の操作部に対する接触状態を検出する。それにより、操作部に設けられる静電容量型の近接センサを用いて接触状態を検出する方法等では接触状態を検出することが困難な場合(例えば、運転者2が手袋を着用している場合等)においても、運転者2の手3の操作部に対する接触状態を検出することができる。ゆえに、処理装置16によれば、運転者2の手3の操作部に対する接触状態を適切に検出することができる。 The processing device 16 includes an acquisition unit 16a that acquires hand position information on the position of the driver's 2's hand 3 and operation unit position information on the position of the operation unit (the steering wheel 12 in the above example) in the passenger compartment 1a of the vehicle 1, and a processing unit 16b that performs a detection process to detect the state of the driver 2. In the detection process, the processing unit 16b detects the contact state of the driver's 2's hand 3 with the operation unit based on the hand position information and the operation unit position information. As a result, even when it is difficult to detect the contact state using a method of detecting the contact state using a capacitance-type proximity sensor provided in the operation unit (for example, when the driver 2 is wearing gloves), the contact state of the driver's 2's hand 3 with the operation unit can be detected. Therefore, the processing device 16 can appropriately detect the contact state of the driver's 2's hand 3 with the operation unit.

好ましくは、処理装置16では、操作部は、車両1のステアリングホイール12である。それにより、運転者2の手3のステアリングホイール12に対する接触状態を適切に検出することができる。 Preferably, in the processing device 16, the operating unit is the steering wheel 12 of the vehicle 1. This allows the contact state of the driver's 2 hands 3 with the steering wheel 12 to be appropriately detected.

好ましくは、処理装置16では、取得部16aは、ステアリングホイール12の位置を調整する位置調整に関する位置調整情報を取得し、位置調整情報に基づいて、操作部位置情報を取得する。それにより、ステアリングホイール12の位置調整を加味して、操作部位置情報を精度良く取得できる。ゆえに、運転者2の手3のステアリングホイール12に対する接触状態を精度良く検出することができる。 Preferably, in the processing device 16, the acquisition unit 16a acquires position adjustment information related to the position adjustment for adjusting the position of the steering wheel 12, and acquires the operation unit position information based on the position adjustment information. This allows the operation unit position information to be acquired with high accuracy, taking into account the position adjustment of the steering wheel 12. Therefore, the contact state of the driver's 2 hands 3 with the steering wheel 12 can be detected with high accuracy.

好ましくは、処理装置16では、車両1には、車室1a内の状態を検出し、ステアリングホイール12の位置調整が行われた場合にステアリングホイール12と一体に移動する第1車室センサ14が設けられ、取得部16aは、第1車室センサ14の検出結果に基づいて、位置調整情報を取得する。それにより、ステアリングホイール12の位置調整が行われた場合にステアリングホイール12と一体に移動する第1車室センサ14を利用することで、位置調整情報を精度良く取得できる。ゆえに、操作部位置情報をより精度良く取得できるので、運転者2の手3のステアリングホイール12に対する接触状態をより精度良く検出することができる。 Preferably, in the processing device 16, the vehicle 1 is provided with a first cabin sensor 14 that detects the state inside the cabin 1a and moves together with the steering wheel 12 when the position of the steering wheel 12 is adjusted, and the acquisition unit 16a acquires the position adjustment information based on the detection result of the first cabin sensor 14. In this way, by using the first cabin sensor 14 that moves together with the steering wheel 12 when the position of the steering wheel 12 is adjusted, the position adjustment information can be acquired with high accuracy. Therefore, since the operation unit position information can be acquired with high accuracy, the contact state of the driver's 2 hands 3 with the steering wheel 12 can be detected with high accuracy.

好ましくは、処理装置16では、車両1には、車室1a内の状態を検出し、ステアリングホイール12の位置を調整する位置調整が行われた場合にステアリングホイール12とは一体に移動しない第2車室センサ15が設けられ、取得部16aは、第2車室センサ15の検出結果に基づいて、手位置情報を取得する。それにより、ステアリングホイール12の位置調整が行われた場合にステアリングホイール12とは一体に移動しない第2車室センサ15を利用することで、手位置情報を取得することが適切に実現される。ゆえに、運転者2の手3のステアリングホイール12に対する接触状態をより適切に検出することができる。 Preferably, in the processing device 16, the vehicle 1 is provided with a second cabin sensor 15 that detects the state inside the cabin 1a and does not move together with the steering wheel 12 when the position of the steering wheel 12 is adjusted, and the acquisition unit 16a acquires hand position information based on the detection result of the second cabin sensor 15. This makes it possible to appropriately acquire hand position information by utilizing the second cabin sensor 15 that does not move together with the steering wheel 12 when the position of the steering wheel 12 is adjusted. Therefore, the contact state of the driver's 2 hands 3 with the steering wheel 12 can be more appropriately detected.

好ましくは、処理装置16では、取得部16aは、運転者2の右手3aの位置に関する右手位置情報、および、運転者2の左手3bの位置に関する左手位置情報を手位置情報として取得し、処理部16bは、検出処理において、右手位置情報、左手位置情報および操作部位置情報に基づいて、運転者2の右手3aの操作部(上記の例では、ステアリングホイール12)に対する接触状態、および、運転者2の左手3bの操作部(上記の例では、ステアリングホイール12)に対する接触状態をそれぞれ検出する。それにより、運転者2の手3が右手3aであるか左手3bであるかを区別し、運転者2の手3の操作部に対する接触状態をより細かく検出することができる。 Preferably, in the processing device 16, the acquisition unit 16a acquires right hand position information related to the position of the right hand 3a of the driver 2 and left hand position information related to the position of the left hand 3b of the driver 2 as hand position information, and the processing unit 16b detects the contact state of the right hand 3a of the driver 2 with the operation unit (in the above example, the steering wheel 12) and the contact state of the left hand 3b of the driver 2 with the operation unit (in the above example, the steering wheel 12) based on the right hand position information, left hand position information, and operation unit position information in the detection process. This makes it possible to distinguish whether the hand 3 of the driver 2 is the right hand 3a or the left hand 3b, and to detect the contact state of the hand 3 of the driver 2 with the operation unit in more detail.

以上、添付図面を参照しつつ本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されないことは勿論であり、特許請求の範囲に記載された範疇における各種の変更例または修正例についても、本発明の技術的範囲に属することは言うまでもない。 The above describes a preferred embodiment of the present invention with reference to the attached drawings, but it goes without saying that the present invention is not limited to the above-mentioned embodiment, and various modifications and alterations within the scope of the claims also fall within the technical scope of the present invention.

例えば、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。 For example, the processes described herein using flowcharts do not necessarily have to be performed in the order shown in the flowcharts. Some processing steps may be performed in parallel. Also, additional processing steps may be employed, and some processing steps may be omitted.

また、例えば、上記で説明した処理装置16による一連の処理は、ソフトウェア、ハードウェア、および、ソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、情報処理装置の内部または外部に設けられる記憶媒体に予め格納される。 Furthermore, for example, the series of processes performed by the processing device 16 described above may be realized using software, hardware, or a combination of software and hardware. The programs constituting the software are stored in advance, for example, in a storage medium provided inside or outside the information processing device.

1 車両
1a 車室
2 運転者
3 手
3a 右手
3b 左手
11 座席
11a 運転席
11b 助手席
12 ステアリングホイール
13 ステアリングコラム
14 第1車室センサ
15 第2車室センサ
16 処理装置
16a 取得部
16b 処理部
16c 制御部
Reference Signs List 1 Vehicle 1a Vehicle compartment 2 Driver 3 Hand 3a Right hand 3b Left hand 11 Seat 11a Driver's seat 11b Passenger seat 12 Steering wheel 13 Steering column 14 First vehicle compartment sensor 15 Second vehicle compartment sensor 16 Processing device 16a Acquisition unit 16b Processing unit 16c Control unit

Claims (7)

車両(1)の運転者(2)の状態の検出に関する処理を行う処理装置(16)であって、
前記運転者(2)の手(3)の位置に関する手位置情報、および、前記車両(1)の車室(1a)内の操作部の位置に関する操作部位置情報を取得する取得部(16a)と、
前記運転者(2)の状態を検出する検出処理を行う処理部(16b)と、
を備え、
前記処理部(16b)は、前記検出処理において、前記手位置情報および前記操作部位置情報に基づいて、前記運転者(2)の前記手(3)の前記操作部に対する接触状態を検出する、
処理装置。
A processing device (16) for performing processing related to detection of a state of a driver (2) of a vehicle (1),
an acquisition unit (16a) that acquires hand position information relating to a position of the driver's hand (3) and operation unit position information relating to a position of an operation unit in a cabin (1a) of the vehicle (1);
A processing unit (16b) that performs a detection process to detect the state of the driver (2);
Equipped with
The processing unit (16b) detects a contact state of the hand (3) of the driver (2) with the operation unit based on the hand position information and the operation unit position information in the detection process.
Processing unit.
前記操作部は、前記車両(1)のステアリングホイール(12)である、
請求項1に記載の処理装置。
The operation unit is a steering wheel (12) of the vehicle (1).
The processing device of claim 1 .
前記取得部(16a)は、
前記ステアリングホイール(12)の位置を調整する位置調整に関する位置調整情報を取得し、
前記位置調整情報に基づいて、前記操作部位置情報を取得する、
請求項2に記載の処理装置。
The acquisition unit (16a)
obtaining position adjustment information relating to a position adjustment for adjusting a position of the steering wheel (12);
acquiring the operation unit position information based on the position adjustment information;
The processing device according to claim 2 .
前記車両(1)には、前記車室(1a)内の状態を検出し、前記位置調整が行われた場合に前記ステアリングホイール(12)と一体に移動する第1車室センサ(14)が設けられ、
前記取得部(16a)は、前記第1車室センサ(14)の検出結果に基づいて、前記位置調整情報を取得する、
請求項3に記載の処理装置。
The vehicle (1) is provided with a first cabin sensor (14) that detects a state inside the cabin (1a) and moves integrally with the steering wheel (12) when the position adjustment is performed;
The acquisition unit (16a) acquires the position adjustment information based on a detection result of the first vehicle interior sensor (14).
The processing device according to claim 3 .
前記車両(1)には、前記車室(1a)内の状態を検出し、前記ステアリングホイール(12)の位置を調整する位置調整が行われた場合に前記ステアリングホイール(12)とは一体に移動しない第2車室センサ(15)が設けられ、
前記取得部(16a)は、前記第2車室センサ(15)の検出結果に基づいて、前記手位置情報を取得する、
請求項2に記載の処理装置。
The vehicle (1) is provided with a second cabin sensor (15) that detects a state in the cabin (1a) and does not move together with the steering wheel (12) when a position adjustment is performed to adjust the position of the steering wheel (12);
The acquisition unit (16a) acquires the hand position information based on a detection result of the second vehicle interior sensor (15).
The processing device according to claim 2 .
前記取得部(16a)は、前記運転者(2)の右手(3a)の位置に関する右手位置情報、および、前記運転者(2)の左手(3b)の位置に関する左手位置情報を前記手位置情報として取得し、
前記処理部(16b)は、前記検出処理において、前記右手位置情報、前記左手位置情報および前記操作部位置情報に基づいて、前記運転者(2)の前記右手(3a)の前記操作部に対する接触状態、および、前記運転者(2)の前記左手(3b)の前記操作部に対する接触状態をそれぞれ検出する、
請求項1~5のいずれか一項に記載の処理装置。
The acquisition unit (16a) acquires, as the hand position information, right hand position information relating to a position of a right hand (3a) of the driver (2) and left hand position information relating to a position of a left hand (3b) of the driver (2);
In the detection process, the processing unit (16b) detects a contact state of the right hand (3a) of the driver (2) with respect to the operation unit and a contact state of the left hand (3b) of the driver (2) with respect to the operation unit based on the right hand position information, the left hand position information, and the operation unit position information.
The processing apparatus according to any one of claims 1 to 5.
車両(1)の運転者(2)の状態の検出に関する処理を行う処理方法であって、
処理装置(16)の取得部(16a)が、前記運転者(2)の手(3)の位置に関する手位置情報、および、前記車両(1)の車室(1a)内の操作部の位置に関する操作部位置情報を取得し、
前記処理装置(16)の処理部(16b)が、前記運転者(2)の状態を検出する検出処理を行い、
前記処理部(16b)は、前記検出処理において、前記手位置情報および前記操作部位置情報に基づいて、前記運転者(2)の前記手(3)の前記操作部に対する接触状態を検出する、
処理方法。
A processing method for performing processing related to detection of a state of a driver (2) of a vehicle (1), comprising:
an acquisition unit (16a) of a processing device (16) acquires hand position information relating to the position of the driver's hand (3) and operation unit position information relating to the position of an operation unit in a passenger compartment (1a) of the vehicle (1);
A processing unit (16b) of the processing device (16) performs a detection process to detect the state of the driver (2),
The processing unit (16b) detects a contact state of the hand (3) of the driver (2) with the operation unit based on the hand position information and the operation unit position information in the detection process.
Processing methods.
JP2023115584A 2023-07-14 2023-07-14 Processing device and processing method Pending JP2025012614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023115584A JP2025012614A (en) 2023-07-14 2023-07-14 Processing device and processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023115584A JP2025012614A (en) 2023-07-14 2023-07-14 Processing device and processing method

Publications (1)

Publication Number Publication Date
JP2025012614A true JP2025012614A (en) 2025-01-24

Family

ID=94320237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023115584A Pending JP2025012614A (en) 2023-07-14 2023-07-14 Processing device and processing method

Country Status (1)

Country Link
JP (1) JP2025012614A (en)

Similar Documents

Publication Publication Date Title
JP5692049B2 (en) Steering position control system
US10864867B2 (en) Method for adjusting switch position, and operation device for vehicle
CN111746626B (en) Vehicle control device and control method
JP2019075150A5 (en) Driving support device
JP6704087B2 (en) Occupant protection device
JP4893204B2 (en) Mirror position adjusting device for vehicle
US20200098128A1 (en) Indoor monitoring device
JP2016505450A (en) VEHICLE CAMERA SYSTEM, METHOD AND DEVICE FOR CONTROLLING IMAGE AREA OF IMAGES OF VEHICLE VEHICLE
CN112937585B (en) Vehicle control system
CN112955356B (en) Parking assistance device and parking assistance method
JP7073682B2 (en) In-vehicle alarm device
CN112590928B (en) Vehicle control system
JP2006209750A (en) Method for detecting eye of user and determining location and blinking state of user
US10733438B2 (en) Eyeball information detection device, eyeball information detection method, and occupant monitoring device
JP2025012614A (en) Processing device and processing method
JP7046748B2 (en) Driver status determination device and driver status determination method
JP2011178206A (en) Headrest device
JP2010272069A (en) Driving diagnosis device and driving support device
US11501561B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program
WO2021033516A1 (en) Seat control device
US11048952B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program
JP2022105596A (en) Occupant protection system
JP2023110269A (en) In-vehicle device and control method for in-vehicle device
JP7117577B2 (en) Display system, display control device, display control method
JP2021046037A (en) Vehicular occupant seat and vehicle control system