[go: up one dir, main page]

WO2021024497A1 - 運行インシデント画像表示システム、方法及びプログラム - Google Patents

運行インシデント画像表示システム、方法及びプログラム Download PDF

Info

Publication number
WO2021024497A1
WO2021024497A1 PCT/JP2019/031529 JP2019031529W WO2021024497A1 WO 2021024497 A1 WO2021024497 A1 WO 2021024497A1 JP 2019031529 W JP2019031529 W JP 2019031529W WO 2021024497 A1 WO2021024497 A1 WO 2021024497A1
Authority
WO
WIPO (PCT)
Prior art keywords
incident
image
driver
information
acquired
Prior art date
Application number
PCT/JP2019/031529
Other languages
English (en)
French (fr)
Inventor
佐藤 公則
秀明 南雲
圭 石山
憲之 根本
将仁 谷口
Original Assignee
株式会社日立物流
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立物流 filed Critical 株式会社日立物流
Priority to PCT/JP2019/031529 priority Critical patent/WO2021024497A1/ja
Priority to JP2021537554A priority patent/JP7369776B2/ja
Publication of WO2021024497A1 publication Critical patent/WO2021024497A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to an operation incident image display system, method and program for the driver himself to look back on the driving video in chronological order along the operation route on the map.
  • the present invention is related to IoT (Internet of Things), and the technical field corresponds to G06Q or the like in the IPC classification.
  • an object of the present invention is to provide an operation incident image display system, method and program that allows a driver to look back on his / her own driving video in chronological order along an operation route on a map.
  • the first acquisition means for acquiring the biological information of the driver during driving, the first detection means for analyzing the acquired biological information to detect the physical condition of the driver, and the detected physical condition are A first determination means for determining a first incident when a predetermined condition is satisfied, a first extraction means for cutting out an image captured by a drive recorder as a first image in association with the first incident, and the driver.
  • a second determination means for determining a second incident a second cutting means for cutting out an image captured by the drive recorder as a second image in association with the second incident, and a vehicle driven by the driver.
  • a fourth detecting means for analyzing the acquired behavior information of the vehicle to detect a dangerous driving degree, and a fourth determining means for determining a fourth incident when the dangerous driving degree satisfies a predetermined condition.
  • a fourth cutting means for cutting out an image captured by the drive recorder as a fourth image in association with the fourth incident, and the first incident, the second incident, the third incident, and the fourth incident. It is provided with a display means for displaying the occurrence location together with the operation route on a map and displaying the cut-out first image, second image, third image, and fourth image in a time series of incident occurrence.
  • Provide an operation incident image display system (the system may be a single computer).
  • the step of detecting, the step of collating the detected behavior with the road sign information and / or the signal information, and determining a third incident when there is a violation, and the image captured by the drive recorder are described as described above.
  • the step of cutting out as a third image in association with the third incident the step of analyzing the acquired behavior information of the vehicle to detect the dangerous driving degree, and the dangerous driving degree satisfying a predetermined condition, A step of determining a fourth incident, a step of cutting out an image captured by the drive recorder as a fourth image in association with the fourth incident, the first incident, the second incident, the third incident, and the first 4
  • a step of displaying the location of the incident occurrence on the map together with the operation route, and displaying the cut-out first image, second image, third image, and fourth image in the time series of the incident occurrence Provide a method of displaying an operation incident image.
  • a step of acquiring the biological information of the driver while driving, a step of analyzing the acquired biological information to detect the physical condition of the driver, and the detected physical condition are predetermined.
  • the step of cutting out the captured image as a second image in association with the second incident the step of acquiring the behavior information of the vehicle being driven by the driver, and the step of analyzing the acquired behavior information to analyze the vehicle.
  • the step of detecting the behavior of the above the step of collating the detected behavior with the road sign information and / or the signal information, and determining a third incident when there is a violation, and an image captured by the drive recorder.
  • a step of determining a fourth incident a step of cutting out an image captured by the drive recorder as a fourth image in association with the fourth incident, a first incident, a second incident, and a third incident. And the place where the fourth incident occurred is displayed on the map together with the operation route, and the cut out first image, second image, third image, and fourth image are displayed in the time series of the incident occurrence. It provides a step and an operation incident image display program for executing.
  • the biological information of the driver during driving is acquired and analyzed, the physical condition of the driver is detected, and when the physical condition satisfies a predetermined condition, it is determined as the first incident and the drive is performed.
  • the driver's motion information is acquired and analyzed, the driver's motion is detected, and the motion satisfies a predetermined condition.
  • it is determined that it is a second incident and the image captured by the drive recorder is cut out as a second image in association with the second incident, and the behavior information of the vehicle being driven by the driver is acquired, analyzed, and then analyzed.
  • the behavior of the vehicle is detected, the behavior is collated with the road sign information and / or the signal information, and if there is a violation, it is determined as a third incident, and the image captured by the drive recorder is used as the third incident. It is associated and cut out as a third image, the acquired behavior information of the vehicle is analyzed, the dangerous driving degree is detected, and when the dangerous driving degree satisfies a predetermined condition, it is determined as a fourth incident.
  • the image captured by the drive recorder is cut out as the fourth image in association with the fourth incident, and the cut out first image, second image, third image, and fourth image are displayed on the map along the operation route. I decided to display it in chronological order. Therefore, the driver can look back on his / her own driving video in chronological order along the operation route on the map, which can be useful for preventing accidents.
  • the biological information of the driver during driving is acquired and analyzed, the physical condition of the driver is detected, and when the physical condition satisfies a predetermined condition, it is determined as the first incident and the drive recorder determines.
  • the captured image is cut out as the first image in association with the first incident, the operation information of the driver is acquired, analyzed, the operation of the driver is detected, and the operation satisfies a predetermined condition.
  • the image captured by the drive recorder which is determined to be the second incident, is cut out as the second image in association with the second incident, and the behavior information of the vehicle being driven by the driver is acquired, analyzed, and the vehicle The behavior is detected, the behavior is collated with the road sign information and / or the signal information, and if there is a violation, it is determined as a third incident, and the image captured by the drive recorder is associated with the third incident. It is cut out as a third image, the behavior information of the acquired behavior is analyzed, the dangerous driving degree is detected, and when the dangerous driving degree satisfies a predetermined condition, it is determined as a fourth incident and the drive recorder.
  • the image captured by is cut out as the fourth image in association with the fourth incident, and the cut out first image, second image, third image, and fourth image are displayed on the map along the operation route. It is displayed in a series.
  • Fig. 1 is a conceptual diagram showing an outline of the operation incident image display system according to the present embodiment.
  • the server 50 the terminal 20 mounted on the vehicle 10, and the terminal 110 for the administrator or the driver 12 to look back on the operation contents after returning are connected to the Internet.
  • Data communication is possible with each other via the including network.
  • the vehicle 10 is equipped with a driver biometric information sensing unit 40, a vehicle information sensing unit 42, and a driver motion sensing unit 44, and the information detected by these is transmitted to the terminal 20 by short-range wireless communication, and the terminal 20 Sends the received information to the server 50 via the communication unit and the network.
  • the driver biometric information sensing unit 40 includes, for example, a handle cover type electrocardiograph 22 and a seat cover type electrocardiograph 24, whereby an electrocardiographic waveform which is biometric information of the driver 12 can be obtained. Further, the driver biological information sensing unit 40 may acquire biological information such as pulse wave, electroencephalogram, blood pressure, and body temperature in addition to the electrocardiographic waveform.
  • the acquired biometric information of the driver 12 during driving is transmitted to the server 50 via the terminal 20, for example (step S1).
  • the server 50 analyzes the acquired biological information to detect the physical condition of the driver 12 (for example, fatigue, drowsiness, dementia, depression, concentration, possibility of sudden change, allergic symptom, etc.), and the detected physical condition is determined.
  • the server 50 cuts out an image (moving image or still image) captured by the drive recorder as a first image in association with the first incident.
  • the driver motion sensing unit 44 includes, for example, IoT (Internet of Things) drive recorders 30A and 30B including a camera for the outside of the vehicle and a camera for the inside of the vehicle, and an image of the camera for the vehicle interior, which is operation information of the driver 12, can be obtained. Further, the driver motion sensing unit 44 may acquire motion information of the driver 12 from a handle sensor, a motion sensor, or the like (not shown) in addition to the image for the inside of the vehicle. The acquired operation information of the driver 12 may be transmitted to the server 50 via the communication units of the IoT drive recorders 30A and 30B, or may be transmitted to the server 50 via the terminal 20 (step S2). ..
  • IoT Internet of Things
  • the server 50 analyzes the acquired operation information, detects the operation of the driver 12, and when the detected operation satisfies a predetermined condition (for example, inattentive driving or driving while operating a mobile terminal). Is deviated for 2 seconds or more, sleepy movement, etc.), it is judged as a second incident.
  • a predetermined condition for example, inattentive driving or driving while operating a mobile terminal. Is deviated for 2 seconds or more, sleepy movement, etc.), it is judged as a second incident.
  • the IoT drive recorders 30A and 30B are also used for vehicle behavior detection as will be described later, and also perform constant recording and video cutting. Further, the server 50 cuts out an image (moving image or still image) captured by the drive recorder as a second image in association with the second incident.
  • the vehicle behavior sensing unit 42 includes, for example, a danger behavior detector 26 equipped with an outward-facing camera, a danger notification button 28, and the IoT drive recorders 30A and 30B, whereby the distance between vehicles, lane departure, date and time of pressing, and constant recording are recorded. , Moving image is cut out, and behavior information (for example, speed, acceleration, brake, position information, etc.) of the vehicle 10 is acquired.
  • the acquired behavior information of the vehicle 10 may be transmitted to the server 50 via the terminal 20, or may be transmitted directly from the sensors to the server 50 when the sensors have a communication function. Good (step S3).
  • the server 50 analyzes the acquired behavior information, detects the behavior of the vehicle, and collates the detected behavior with the road sign information / signal information (for example, the road sign identification by image analysis of the camera for the outside of the vehicle). If the signal display content is specified, the road sign is specified from the map information, etc.), and if these are not observed (in the case of violation), it is determined as a third incident. Further, the server 50 cuts out an image (moving image or still image) captured by the drive recorder as a third image in association with the third incident.
  • the road sign information / signal information for example, the road sign identification by image analysis of the camera for the outside of the vehicle.
  • the server 50 analyzes the vehicle behavior information acquired in step S3, detects a dangerous driving degree (for example, sudden start, sudden braking, sudden steering, etc.), and determines the detected dangerous driving degree. When the condition of the above is satisfied, it may be determined as the fourth incident.
  • the server 50 cuts out an image (moving image or still image) captured by the drive recorder as a fourth image in association with the fourth incident.
  • the server 50 displays the occurrence locations of the first incident, the second incident, the third incident, and the fourth incident on the map together with the operation route, and cuts out the first image, the second image, the third image, and the server 50.
  • the fourth image is displayed in the time series of incident occurrence (step S4). Specifically, after the driver 12 returns, the map 118 is displayed on the display unit 112 of the terminal 110 that reviews the operation (roll call) together with the administrator. On the map 118, the locations where the first to fourth incidents occur are displayed as icons together with the operation route 116. Further, on the display unit 112, the incident information "13:01 temporary non-stop" and the cut-out incident image 130 are displayed together with the map 118.
  • the incident image 130 may be a moving image or a still image, and the moving image may be reproduced by selecting the incident image.
  • server 50 may also display the transition of the detected physical condition of the driver 12 on the map 118 in chronological order along the operation route.
  • the server 50 may learn the incident for each driver 12 and give advice to the driver 12.
  • the advice may be displayed on the terminal 110 after being managed by an ID or password for each driver 12, may be notified by pop-up to the terminal of the driver 12, or may be notified by e-mail or the like. It does not prevent you from giving advice in other ways.
  • the server 50 may stat all incidents, visualize dangerous places and times, and give advice to the driver 12.
  • the advice is given by managing each driver 12 with an ID and password and then displaying the advice on the terminal 110, or by sending a pop-up notification or an e-mail to the terminal of the driver 12. It does not prevent you from giving advice in other ways.
  • the server 50 may evaluate the growth of the driver 12 by comparing the past incident with the current incident for each driver 12. The evaluation result may be notified to the driver 12 or the administrator.
  • the server 50 may score which driver 12 has a small number of incidents, or which of the plurality of bases to which the vehicle 10 belongs has a small number of incidents.
  • the scoring result may be displayed on the terminal 110, or may be notified to the driver 12 or the administrator.
  • the players may be sorted in order of score to display the top rankers and bases.
  • the server 50 described above may be a single computer, for example, a terminal. Further, the functional configuration described later may be a computer system (cloud) executed by different computers. Further, in the present embodiment, although many processes are executed on the server 50, information acquisition, analysis / detection, and incident determination may be performed on the edge (sensors, etc.) side. By performing a lot of processing on the edge side, the amount of data transmitted to the server 50 can be reduced.
  • the vehicle 10 obtains the driver biological information sensing unit 40 for obtaining the biological information of the driver 12, the vehicle information sensing unit 42 for obtaining the behavior information of the vehicle 10 driven by the driver 12, and the operation information of the driver 12.
  • the driver motion sensing unit 44 of the above is provided.
  • the driver biometric information sensing unit 40 includes a steering wheel type electrocardiograph 22 and a seat cover type electrocardiograph 24.
  • the vehicle behavior sensing unit 42 includes a danger behavior detector 26 equipped with a vehicle outward-facing camera, a danger notification button 28, IoT drive recorders 30A, 30B, and the like.
  • the driver motion sensing unit 44 includes IoT drive recorders 30A and 30B provided with a camera for the outside of the vehicle and a camera for the inside of the vehicle.
  • the danger notification button 28 is a button that can be pressed when an incident occurs that the driver 12 notices inside or outside the vehicle regardless of various sensing devices, and is for obtaining incident occurrence information at the discretion of the driver 12.
  • the communication unit 46 transmits information obtained by various sensors and an image (moving image or still image) captured by the drive recorder to the server 50 and provides the information via the network. Of course, other information may be provided as needed.
  • the server 50 includes a processor 52, a memory 54, a storage 56, and a communication unit 69, which are connected by a bus (not shown).
  • the processor 52 is configured by, for example, a CPU (Central Processing Unit), and performs various processes by reading and executing various programs stored in the memory 54.
  • the memory 54 stores a program to be executed by the processor 52, and is composed of, for example, a ROM (Read Only Memory) or a RAM (Random Access Memory). For example, various means shown in FIG. 4 are stored.
  • the storage 56 includes acquired information 58, first incident determination condition 50, second incident determination condition 62, road sign information / signal information 63, fourth incident determination condition 64, incident information 66, map information 67, cutout image 68, and the like.
  • a control program (not shown) is stored.
  • the acquired information 58 includes, for example, biological information (electrocardiogram, pulse wave, brain wave, blood pressure, body temperature, etc.) of the driver 12 while driving, operation information of the driver 12 (vehicle inward camera image, handle sensor information, motion sensor information, etc.). ) And the behavior information (speed, acceleration, brake, position information, etc.) of the vehicle 10 driven by the driver 12.
  • biological information electronic information
  • pulse wave pulse wave
  • brain wave blood pressure
  • body temperature body temperature
  • operation information of the driver 12 vehicle inward camera image, handle sensor information, motion sensor information, etc.
  • behavior information speed, acceleration, brake, position information, etc.
  • the first incident determination condition 60 is a determination standard for analyzing the acquired biological information to detect the physical condition of the driver 12 and determining whether or not the detected physical condition corresponds to the first incident. For example, if the driver 12 has a high degree of fatigue, there is a standard that it is better not to drive.
  • the second incident determination condition 62 is a determination criterion for analyzing the acquired operation information of the driver 12 to detect the operation of the driver 12 and determining whether or not the detected operation corresponds to the second incident. is there. For example, there is a standard that a second incident occurs when the line of sight is off for 2 seconds or more during inattentive driving or driving while operating a mobile terminal, or when a sleepy operation is performed.
  • the road sign information / signal information 63 analyzes the acquired behavior information of the driver 12 to detect the behavior of the vehicle 10, and determines the third incident depending on whether or not the detected behavior complies with the road sign or the signal. It is a standard for judging whether or not it is applicable. For example, it is determined whether or not the behavior of the vehicle 10 complies with the law by specifying the road sign by image analysis of the vehicle outward camera, specifying the road sign from the map information, specifying the signal display content, and the like.
  • the fourth incident determination condition 64 is a determination standard for analyzing the acquired behavior information of the vehicle 10 to detect the degree of dangerous driving and determining whether or not the dangerous driving corresponds to the fourth incident.
  • the dangerous driving degree for example, as in the fourth incident determination condition 64 shown in FIG. 9, a driving state related to each condition quantified according to the dangerous degree can be used.
  • the judgment value is "mn" (m and n are both numbers), but the former "m” indicates the type of device (sensor) from which the data was acquired.
  • the latter "n” indicates the degree of risk by replacing it with a numerical value.
  • a standard is set that corresponds to the fourth incident.
  • the notation method and condition contents of the judgment value are examples, and are not limited to these methods and conditions.
  • Incident information 66 includes information related to the occurrence of the first incident, the second incident, the third incident, and the fourth incident (for example, the occurrence time, the occurrence location, the occurrence driver, the occurrence vehicle, the incident content, and the drive recorder image (for example). Video or still image) etc.).
  • the map information 67 is information used when displaying the occurrence locations of the first incident to the fourth incident together with the operation route on the terminal 110 used for reviewing the operation.
  • the map information 67 may be used to specify the road sign information / signal information 63.
  • the clipped image 68 includes a first image associated with a first incident, a second image associated with a second incident, a third image associated with a third incident, and a fourth image associated with the fourth incident.
  • a fourth image is included.
  • the communication unit 69 receives and acquires the information obtained by the various sensors of the vehicle 10 and the image (moving image or still image) captured by the drive recorder via the network. Of course, other information may be acquired as needed.
  • the server 50 includes the first acquisition means 70, the first detection means 71, the first determination means 72, the first cutting means 73, the second acquisition means 74, the second detection means 75, and the second determination.
  • Means 76, 2nd cutting means 77, 3rd acquiring means 78, 3rd detecting means 80, 3rd determining means 82, 3rd cutting means 84, 4th detecting means 86, and 4th The determination means 88, the fourth cutting means 90, the display means 92, the first advice means 94, the second advice means 95, the evaluation means 96, and the scoring means 97 are provided.
  • the first acquisition means 70 acquires biological information (electrocardiogram, pulse wave, brain wave, blood pressure, body temperature, etc.) of the driver 12 while driving.
  • biological information electronic information
  • the biometric information obtained by the driver biometric information sensing unit 40 of the vehicle 10 is transmitted to the server 50 via the terminal 20, and the server 50 acquires the biometric information by receiving the transmitted information.
  • the acquired biometric information is stored in the acquired information 58 of the storage 56.
  • the first detection means 71 analyzes the biological information acquired by the first acquisition means 70 and detects the physical condition of the driver 12 (fatigue, drowsiness, dementia, depression, concentration, possibility of sudden change, allergy determination, etc.). To do.
  • the first determination means 72 determines that the physical condition detected by the first detection means 71 is a first incident when a predetermined condition (high degree of fatigue and better not to drive, etc.) is satisfied. The determination of whether or not it is the first incident is performed depending on whether or not the first incident determination condition 60 is satisfied.
  • the first cutting means 73 cuts out an image (moving image or still image) captured by the drive recorder as a first image in association with the first incident.
  • the cut-out image is stored in the cut-out image 68 of the storage 56.
  • the IoT drive recorders 30A and 30B of the driver motion sensing unit 44 are used as the drive recorder.
  • the second acquisition means 74 acquires the operation information of the driver 12 (image of the inward camera, handle sensor information, motion sensor information, etc.). For example, the operation information of the driver 12 obtained by the driver operation sensing unit 44 of the vehicle 10 is transmitted to the server 50 directly by the IoT drive recorders 30A and 30B or via the terminal 20, and the server 50 transmits the transmitted information. The operation information of the driver 12 is acquired by receiving. The acquired operation information is stored in the acquired information 58 of the storage 56.
  • the second detection means 75 analyzes the operation information acquired by the second acquisition means 74 and detects the operation of the driver 12.
  • the second determining means 76 has set a predetermined condition for the operation detected by the second detecting means 75 (a sleepy operation when the line of sight is off for 2 seconds or more during inattentive driving or driving while operating the mobile terminal). When the above conditions are satisfied, it is determined as a second incident. Whether or not it is a second incident is determined based on whether or not the second incident determination condition 62 is satisfied.
  • the second cutting means 77 cuts out an image (moving image or still image) captured by the drive recorder as a second image in association with the second incident.
  • the cut-out image is stored in the cut-out image 68 of the storage 56.
  • IoT drive recorders 30A, 30B and the like are used as the drive recorder.
  • the third acquisition means 78 acquires behavior information (speed, acceleration, brake, position information, etc.) of the vehicle 10 being driven by the driver 12.
  • the behavior information of the vehicle 10 obtained by the vehicle behavior sensing unit 42 of the vehicle 10 is transmitted to the server 50 via the terminal 20.
  • the behavior information of the vehicle 10 may be transmitted directly from the edge side to the server 50.
  • the server 50 acquires the behavior information of the vehicle 10 by receiving the transmitted information.
  • the acquired behavior information is stored in the acquired information 58 of the storage 56.
  • the third detection means 80 analyzes the behavior information acquired by the third acquisition means 78 and detects the behavior of the vehicle 10.
  • the third determination means 82 determines the behavior detected by the third detection means 80 as road sign information / signal information 63 (identification of road sign / signal display content by image analysis of a vehicle outward camera, identification of road sign from map information, etc.). If these instructions are not observed, it is determined as a third incident.
  • the third cutting means 84 cuts out an image (moving image or still image) captured by the drive recorder as a third image in association with the third incident.
  • the cut-out image is stored in the cut-out image 68 of the storage 56.
  • IoT drive recorders 30A, 30B and the like are used as the drive recorder.
  • the fourth detection means 86 analyzes the behavior information of the vehicle 10 acquired by the third acquisition means 78 to detect the degree of dangerous driving (sudden start, sudden braking, sudden steering, etc.).
  • the fourth determination means 88 determines as a fourth incident when the dangerous driving degree detected by the fourth detection means 86 satisfies a predetermined condition. The determination as to whether or not it is the fourth incident is performed depending on whether or not the fourth incident determination condition 64 is satisfied.
  • the fourth cutting means 90 cuts out an image (moving image or still image) captured by the drive recorder as a fourth image in association with the fourth incident.
  • the cut-out image is stored in the cut-out image 68 of the storage 56.
  • IoT drive recorders 30A, 30B and the like are used as the drive recorder.
  • the display means 92 displays the occurrence locations of the first incident, the second incident, the third incident, and the fourth incident on the map together with the operation route, and cuts out the first image, the second image, the third image, and the third image.
  • the four images are displayed in chronological order of incident occurrence.
  • the map 118 is displayed on the display unit 112 of the terminal 110 of the administrator or the driver 12 (see FIG. 1).
  • the locations where the first to fourth incidents occur are displayed as icons together with the operation route 116.
  • the incident information "13:01 temporary non-stop" and the incident image 130 are displayed together with the map 118.
  • the incident image 130 may be a moving image or a still image, and the moving image may be reproduced by selecting the incident image.
  • the display means 92 may also display the transition of the physical condition of the driver 12 in chronological order along the operation route 116 on the map.
  • the first advice means 94 learns an incident for each driver 12 and gives advice to the driver.
  • the advice may be displayed on the terminal 110 after being managed by an ID or password for each driver 12, may be notified by pop-up to the terminal of the driver 12, or may be notified by e-mail or the like. Of course, it does not prevent you from providing advice by other means.
  • the second advice means 95 stats all incidents, visualizes dangerous places and times, and gives advice to the driver 12.
  • the advice is given by managing each driver 12 with an ID and password and then displaying the advice on the terminal 110, or by sending a pop-up notification or an e-mail to the terminal of the driver 12. Of course, it does not prevent you from providing advice by other means.
  • the evaluation means 96 compares the past incident with the current incident for each driver 12 and evaluates the growth of the driver. The evaluation result may be notified to the driver 12 or the administrator.
  • the scoring means 97 scores which driver 12 has the least number of incidents, or which of the plurality of bases to which the vehicle 10 belongs has the fewest incidents.
  • the scoring result may be displayed on the terminal 110 or notified to the driver 12 or the administrator.
  • the terminal 110 is mainly a PC or a tablet, but there may be a smartphone used in combination with these.
  • the terminal 110 includes a display unit 112, an input unit 114, and a communication unit 115.
  • the display unit 112 and the input unit 114 are, for example, a touch panel, but the present invention is not limited thereto.
  • the communication unit 115 receives the incident information 66 and the clipped image 68 from the server 50 via the network. Of course, other information may be received, or information may be provided (transmitted) to the server 50.
  • the first acquisition means 70 of the server 50 acquires the biological information (electrocardiogram, pulse wave, brain wave, blood pressure, body temperature, etc.) of the driver 12 during driving (step S10).
  • the biometric information obtained by the driver biometric information sensing unit 40 of the vehicle 10 is transmitted to the server 50 via the terminal 20, and the server 50 receives the transmitted information to acquire the biometric information.
  • the acquired biometric information is stored in the acquired information 58 of the storage 56.
  • the first detection means 71 of the server 50 analyzes the biological information acquired by the first acquisition means 70, and the physical condition of the driver 12 (fatigue, drowsiness, dementia, depression, concentration, possibility of sudden change, etc. (Allergy determination, etc.) is detected (step S12).
  • the first determination means 72 of the server 50 determines that the physical condition detected by the first detection means 71 is a first incident when a predetermined condition (high degree of fatigue and better not to drive) is satisfied. (Step S14). The determination of whether or not it is the first incident is performed depending on whether or not the first incident determination condition 60 is satisfied.
  • the first cutting means 73 of the server 50 cuts out the image (moving image or still image) captured by the drive recorder as the first image in association with the first incident (step S16).
  • the cut-out image is stored in the cut-out image 68 of the storage 56.
  • the IoT drive recorders 30A and 30B of the driver motion sensing unit 44 are used as the drive recorder.
  • the second acquisition means 74 acquires the operation information of the driver 12 (image of the inward camera, handle sensor information, motion sensor information, etc.) (step S20). ).
  • the operation information of the driver 12 obtained by the driver operation sensing unit 44 of the vehicle 10 is transmitted to the server 50 directly by the IoT drive recorders 30A and 30B or via the terminal 20, and the information transmitted by the server 50.
  • the operation information of the driver 12 is acquired by receiving.
  • the acquired operation information is stored in the acquired information 58 of the storage 56.
  • the second detection means 75 of the server 50 analyzes the operation information acquired by the second acquisition means 74 and detects the operation of the driver 12 (step S22).
  • the second determination means 76 is a sleepy operation when the operation detected by the second detection means 75 is under a predetermined condition (when the line of sight is off for 2 seconds or more during inattentive driving / driving while operating the mobile terminal). ) Is satisfied, it is determined as a second incident (step S24). Whether or not it is a second incident is determined based on whether or not the second incident determination condition 62 is satisfied.
  • the second cutting means 77 of the server 50 cuts out the image (moving image or still image) captured by the drive recorder as the second image in association with the second incident (step S26).
  • the cut-out image is stored in the cut-out image 68 of the storage 56.
  • IoT drive recorders 30A, 30B and the like are used as the drive recorder.
  • the third acquisition means 78 of the server 50 provides behavior information (speed, acceleration, brake, position information, etc.) of the vehicle 10 driven by the driver 12.
  • behavior information speed, acceleration, brake, position information, etc.
  • the behavior information of the vehicle 10 obtained by the vehicle behavior sensing unit 42 of the vehicle 10 is transmitted to the server 50 via the terminal 20.
  • the behavior information of the vehicle 10 may be transmitted directly from the edge side to the server 50.
  • the server 50 acquires the behavior information of the vehicle 10 by receiving the transmitted information.
  • the acquired behavior information is stored in the acquired information of the storage 56.
  • the third detection means 80 of the server 50 analyzes the behavior information acquired by the third acquisition means 78 and detects the behavior of the vehicle 10 (step S32).
  • the third determination means 82 of the server 50 determines the behavior detected by the third detection means 80 as road sign information / signal information 63 (road sign identification / signal display content identification by image analysis of a vehicle outward camera, map information). If the vehicle does not comply with the law (if there is a violation), it is determined to be a third incident (step S34).
  • the third cutting means 84 of the server 50 cuts out the image (moving image or still image) captured by the drive recorder as the third image in association with the third incident (step S36).
  • the cut-out image is stored in the cut-out image 68 of the storage 56.
  • IoT drive recorders 30A, 30B and the like are used as the drive recorder.
  • the fourth detection means 86 of the server 50 analyzes the behavior information of the vehicle 10 acquired by the third acquisition means 78, and the dangerous driving degree (sudden start, sudden braking). , Sudden steering wheel, etc.) (step S38).
  • the fourth determination means 82 of the server 50 determines as a fourth incident when the dangerous driving degree detected by the fourth detection means 86 satisfies a predetermined condition (step S40). The determination as to whether or not it is the fourth incident is performed depending on whether or not the fourth incident determination condition 64 is satisfied.
  • the fourth cutting means 90 of the server 50 cuts out the image (moving image or still image) captured by the drive recorder as the fourth image in association with the fourth incident (step S42).
  • the cut-out image is stored in the cut-out image 68 of the storage 56.
  • IoT drive recorders 30A, 30B and the like are used as the drive recorder.
  • the display means 92 of the server 50 displays the occurrence locations of the first incident, the second incident, the third incident, and the fourth incident on the map together with the operation route, and cuts out the first image and the second image.
  • the third image and the fourth image are displayed in a time series of incident occurrence (step S50).
  • the map 118 is displayed on the display unit 112 of the terminal 110 of the administrator or the driver 12.
  • FIG. 7 shows an example of displaying an operation incident image displayed on the terminal 110 of the administrator or the driver 12.
  • the map 118 and the incident image 130 are displayed on the display unit 112 of the terminal 110.
  • the locations where the first to fourth incidents occur are displayed together with the operation route 116 by icons 120A to 120C.
  • the incident image 130 includes incident information and cutout images 132A to 132C.
  • the incident information is "09:17 short distance between vehicles", "12:49 sudden deceleration", and "15:32 drowsiness detection", respectively, from the icon 120A shown on the map 118.
  • the location of the incident is indicated by 120C. Further, it is shown that the types of icons 120A to 120C differ depending on the type of incident.
  • Incident images 132A to 132C may be moving images or still images, and moving images may be played back by selecting an incident image.
  • the display means 92 may also display the transition of the physical condition of the driver 12 on the map 118 in chronological order along the operation route 116. The transition of the physical condition may be performed by the type of the icon, or the character information may be displayed on the map 118.
  • FIG. 8 shows another display example of the operation incident image displayed on the terminal 110.
  • FIG. 8 shows an image in the case of non-compliance with laws and regulations as another example of the incident image 140 displayed on the display unit 112 (map 118 is omitted).
  • the image corresponding to the incident of "09:17 temporary non-stop” is the cutout image 142A
  • the image corresponding to the incident of "11:25 overspeed” is the cutout image 142B.
  • the incident images 142A and 142B may be moving images or still images, and moving images may be reproduced by selecting the incident images.
  • the server 50 may learn the incident for each driver 12 and give advice to the driver.
  • the advice may be displayed on the terminal 110 after being managed by an ID or password for each driver 12, may be notified by pop-up to the terminal of the driver 12, or may be notified by e-mail or the like. It does not prevent you from giving advice by other means.
  • the server 50 may stat all incidents, visualize dangerous places and times, and give advice to the driver 12.
  • the advice is given by managing each driver 12 with an ID and password and then displaying the advice on the terminal 110, or by sending a pop-up notification or an e-mail to the terminal of the driver 12. It does not prevent you from giving advice by other means.
  • the server 50 may compare the past incident with the current incident for each driver 12 and evaluate the growth of the driver.
  • the evaluation result may be notified to the driver 12 or the administrator.
  • the server 50 may score which driver 12 has a small number of incidents, or which of the plurality of bases to which the vehicle 10 belongs has a small number of incidents. Good.
  • the scoring result may be displayed on the terminal 110 or notified to the driver 12 or the administrator.
  • the drive recorder determines.
  • the captured image is cut out as a third image in association with the third incident
  • the behavior information of the acquired behavior is analyzed, the dangerous driving degree is detected, and the dangerous driving degree satisfies a predetermined condition.
  • the image captured by the drive recorder, determined to be the 4th incident was cut out as the 4th image in association with the 4th incident, and the cut out 1st image, 2nd image, 3rd image, and 4th image Is displayed in chronological order along the operation route on the map. Therefore, the driver can look back on his / her own driving video in chronological order along the operation route on the map.
  • the server 50 may be a single computer, for example, a terminal.
  • the above-mentioned functional configuration may be a computer system (cloud) executed by different computers.
  • information acquisition, analysis / detection, and incident determination may be performed on the edge (sensors, etc.) side. By performing a lot of processing on the edge side, the amount of data transmitted to the server 50 can be reduced.
  • the present invention may be provided as a program executed by the server 50.
  • the program may be provided as recorded on a computer-readable recording medium or may be downloaded over a network.
  • the present invention may also be provided as an invention of the method.
  • the behavior of the vehicle is detected, the behavior is collated with the road sign information and / or the signal information, and if there is a violation, it is determined as a third incident, and the image captured by the drive recorder is used as the third incident. It is associated and cut out as a third image, the behavior information of the acquired behavior is analyzed, the dangerous driving degree is detected, and when the dangerous driving degree satisfies a predetermined condition, it is determined as a fourth incident.
  • the image captured by the drive recorder is cut out as the fourth image in association with the fourth incident, and the cut out first image, second image, third image, and fourth image are displayed on the map along the operation route. Display in chronological order.

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】本発明は、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返る。 【解決手段】運転中のドライバーの生体情報を取得(ステップS1)・解析し、ドライバーの体調を検出して第1インシデントを判定し、第1画像を切り出し、ドライバーの動作情報を取得(ステップS2)・解析し、ドライバーの動作を検出して第2インシデントを判定し、第2画像を切り出し、ドライバーが運転している車両の挙動情報を取得(ステップS3)・解析し、車両の挙動を検出し、挙動を道路標識情報・信号情報と照合して第3インシデントを判定して、第3画像を切り出し、取得された車両の挙動情報を解析し、危険運転度を検出して第4インシデントを判定し、第4画像を切り出し、第1画像~第4画像を、地図上に運行ルートに沿って時系列に表示する(ステップS4)。

Description

運行インシデント画像表示システム、方法及びプログラム
 本発明は、地図上の運行ルートに沿って時系列にドライバー自身が運転動画を振り返るための運行インシデント画像表示システム、方法及びプログラムに関する。本発明は、IoT(Internet of Things)に関連し、技術分野はIPC分類においてG06Q等に該当する。
 近年、事故を未然に防ぐためのIT技術が注目されている。例えば、遭遇する蓋然性の高いインシデントが発生した地点に対する注意を喚起するために、運転者の生体情報から、運転者のインシデントの遭遇の有無を判定し、インシデントに遭遇している場合、現在位置がインシデント地点として1回カウントして、現在位置が所定距離以内に接近中の地点がインシデント地点として登録されているカウントが所定値以上の場合に、地図上の、存在したインシデントデータのインシデント地点に対応する位置に注意マークを表示する技術が提供されている(特許文献1)。
特開2017-037359号公報
 事故を未然に防ぐためには、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返ることが重要である。しかしながら、特許文献1に記載の技術では、地図上の運行ルートに沿って時系列にドライバー自身の運転動画を振り返ることができない。
 本発明は、以上の課題に鑑み、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返ることができる運行インシデント画像表示システム、方法及びプログラムを提供することを目的とする。
 本発明は、運転中のドライバーの生体情報を取得する第1取得手段と、前記取得された生体情報を解析して、前記ドライバーの体調を検出する第1検出手段と、前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定する第1判定手段と、ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出す第1切出手段と、前記ドライバーの動作情報を取得する第2取得手段と、前記取得された動作情報を解析して、前記ドライバーの動作を検出する第2検出手段と、前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定する第2判定手段と、前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出す第2切出手段と、前記ドライバーが運転している車両の挙動情報を取得する第3取得手段と、前記取得された挙動情報を解析して、前記車両の挙動を検出する第3検出手段と、前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定する第3判定手段と、前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出す第3切出手段と、前記取得された車両の挙動情報を解析して、危険運転度を検出する第4検出手段と、前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定する第4判定手段と、前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出す第4切出手段と、前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示する表示手段と、を備える運行インシデント画像表示システム(システムは単体のコンピュータであってもよい)を提供する。
 また、本発明は、運転中のドライバーの生体情報を取得するステップと、前記取得された生体情報を解析して、前記ドライバーの体調を検出するステップと、前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定するステップと、ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出すステップと、前記ドライバーの動作情報を取得するステップと、前記取得された動作情報を解析して、前記ドライバーの動作を検出するステップと、前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出すステップと、前記ドライバーが運転している車両の挙動情報を取得するステップと、前記取得された挙動情報を解析して、前記車両の挙動を検出するステップと、前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出すステップと、前記取得された車両の挙動情報を解析して、危険運転度を検出するステップと、前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出すステップと、前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示するステップと、を備える運行インシデント画像表示方法を提供する。
 更に、本発明は、コンピュータに、運転中のドライバーの生体情報を取得するステップと、前記取得された生体情報を解析して、前記ドライバーの体調を検出するステップと、前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定するステップと、ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出すステップと、前記ドライバーの動作情報を取得するステップと、前記取得された動作情報を解析して、前記ドライバーの動作を検出するステップと、前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出すステップと、前記ドライバーが運転している車両の挙動情報を取得するステップと、前記取得された挙動情報を解析して、前記車両の挙動を検出するステップと、前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出すステップと、前記取得された車両の挙動情報を解析して、危険運転度を検出するステップと、前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出すステップと、前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示するステップと、を実行させるための運行インシデント画像表示プログラムを提供する。
 本発明によれば、運転中のドライバーの生体情報を取得して、解析して、ドライバーの体調を検出して、体調が所定の条件を満たした場合に、第1インシデントと判定して、ドライブレコーダが撮像した画像を、第1インシデントに関連付けて第1画像として切り出して、ドライバーの動作情報を取得して、解析して、ドライバーの動作を検出して、動作が所定の条件を満たした場合に、第2インシデントと判定して、ドライブレコーダが撮像した画像を、第2インシデントに関連付けて第2画像として切り出して、ドライバーが運転している車両の挙動情報を取得して、解析して、車両の挙動を検出して、挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定して、ドライブレコーダが撮像した画像を、第3インシデントに関連付けて第3画像として切り出して、取得された車両の挙動情報を解析して、危険運転度を検出して、危険運転度が所定の条件を満たした場合に、第4インシデントと判定して、ドライブレコーダが撮像した画像を、第4インシデントに関連付けて第4画像として切り出して、切り出された、第1画像、第2画像、第3画像、および第4画像を、地図上に運行ルートに沿って時系列に表示することとした。このため、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返ることができ、事故を未然に防ぐために役立てることができる。
本発明の一実施形態の運行インシデント画像表示システムを用いた全体構成を示す概念図である。 前記実施形態の車両の構成を示すブロック図である。 前記実施形態のサーバのハードウェア構成を示すブロック図である。 前記実施形態のサーバの機能構成を示すブロック図である。 前記実施形態の運行インシデント画像を表示する端末の構成を示すブロック図である。 前記実施形態の運行インシデント画像表示処理の一例を示すフローチャートである。 端末に表示される運行インシデント画像の表示例の一例を示す図である。 端末に表示される運行インシデント画像の他の表示例を示す図である。 前記実施形態の第4インシデント判定条件の一例を示す図である。
 本発明は、運転中のドライバーの生体情報を取得して、解析して、ドライバーの体調を検出して、体調が所定の条件を満たした場合に、第1インシデントと判定して、ドライブレコーダが撮像した画像を、第1インシデントに関連付けて第1画像として切り出して、ドライバーの動作情報を取得して、解析して、ドライバーの動作を検出して、動作が所定の条件を満たした場合に、第2インシデントと判定して、ドライブレコーダが撮像した画像を、第2インシデントに関連付けて第2画像として切り出して、ドライバーが運転している車両の挙動情報を取得して、解析して、車両の挙動を検出して、挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定して、ドライブレコーダが撮像した画像を、第3インシデントに関連付けて第3画像として切り出して、取得された挙動の挙動情報を解析して、危険運転度を検出して、危険運転度が所定の条件を満たした場合に、第4インシデントと判定して、ドライブレコーダが撮像した画像を、第4インシデントに関連付けて第4画像として切り出して、切り出された、第1画像、第2画像、第3画像、および第4画像を、地図上に運行ルートに沿って時系列に表示するものである。
 <全体構成>・・・図1は、本実施形態に係る運行インシデント画像表示システムの概要を示す概念図である。運行インシデント画像表示システム100(以下「システム」とする)は、サーバ50と、車両10に搭載された端末20と、帰着後に管理者やドライバー12が運行内容を振り返るための端末110とがインターネットを含むネットワークを介して相互にデータ通信可能となっている。車両10には、ドライバー生体情報センシング部40、車両情報センシング部42、ドライバー動作センシング部44が搭載されており、これらによって検知された情報が、近距離無線通信によって端末20に送信され、端末20は、受信した情報を、通信部およびネットワークを介してサーバ50に送信する。
 ドライバー生体情報センシング部40は、例えば、ハンドルカバー型心電計22や、シートカバー型心電計24が含まれ、これらによってドライバー12の生体情報である心電波形が得られる。また、ドライバー生体情報センシング部40は、心電波形のほかに、脈波、脳波、血圧、体温などの生体情報を取得してもよい。取得された運転中のドライバー12の生体情報は、例えば、前記端末20を介してサーバ50に送信される(ステップS1)。サーバ50では、取得された生体情報を解析して、ドライバー12の体調(例えば、疲労度、眠気、痴呆、抑鬱、集中力、急変可能性、アレルギー症状など)を検出し、検出された体調が所定の条件を満たした場合(例えば、疲労度が高いので運転しないほうがよいなど)に、第1インシデントと判定する。また、サーバ50は、ドライブレコーダが撮像した画像(動画や静止画)を、第1インシデントに関連付けて第1画像として切り出す。
 ドライバー動作センシング部44は、例えば、車外向けカメラや車内向けカメラを含むIoT(Internet of Things)ドライブレコーダ30A、30Bを含み、ドライバー12の動作情報である車内向けカメラの画像が得られる。また、ドライバー動作センシング部44は、車内向け画像のほかに、図示しないハンドルセンサ、モーションセンサなどからドライバー12の動作情報を取得してもよい。取得されたドライバー12の動作情報は、例えば、IoTドライブレコーダ30A、30Bの通信部を介してサーバ50に送信されもよいし、端末20を介してサーバ50に送信されてもよい(ステップS2)。サーバ50では、取得された動作情報を解析して、ドライバー12の動作を検出し、検出された動作が所定の条件を満たした場合(例えば、脇見運転・携帯端末を操作しながらの運転で目線が2秒以上外れた場合や、眠そうな動作など)、第2インシデントと判定する。なお、IoTドライブレコーダ30A、30Bは、後述するように車両挙動検知にも使用され、また、常時録画や動画切出し等も行う。また、サーバ50は、ドライブレコーダが撮像した画像(動画や静止画)を、第2インシデントに関連付けて第2画像として切り出す。
 車両挙動センシング部42は、例えば、車外向きカメラを搭載した危険挙動検知器26、危険通知ボタン28や、前記IoTドライブレコーダ30A、30Bを含み、これらによって車間距離、車線逸脱、押下日時、常時録画、動画切出しなどを行うとともに、車両10の挙動情報(例えば、速度、加速度、ブレーキ、位置情報など)を取得する。取得した車両10の挙動情報は、例えば、端末20を介してサーバ50に送信されてもよいし、センサ類に通信機能が備わっている場合には、センサ類から直接サーバ50に送信してもよい(ステップS3)。サーバ50では、取得された挙動情報を解析して、車両の挙動を検出し、検出された挙動を道路標識情報・信号情報と照合して(例えば、車外向けカメラの画像解析による道路標識特定・信号表示内容特定や、地図情報からの道路標識特定など)、これらを遵守していない場合(違反の場合)に、第3インシデントと判定する。また、サーバ50は、ドライブレコーダが撮像した画像(動画や静止画)を、第3インシデントに関連付けて第3画像として切り出す。
 また、サーバ50は、前記ステップS3で取得された車両の挙動情報を解析して、危険運転度(例えば、急発進、急ブレーキ、急ハンドルなど)を検出し、検出された危険運転度が所定の条件を満たした場合に、第4インシデントと判定してもよい。サーバ50は、ドライブレコーダが撮像した画像(動画や静止画)を、第4インシデントに関連付けて第4画像として切り出す。
 そして、サーバ50は、第1インシデント、第2インシデント、第3インシデントおよび第4インシデントの発生場所を運行ルートとともに地図上に表示するとともに、切り出された第1画像、第2画像、第3画像および第4画像を、インシデント発生の時系列に表示する(ステップS4)。具体的には、ドライバー12が帰着後、管理者とともに運行の振返り(点呼)を行う端末110の表示部112に、地図118を表示させる。地図118には、第1インシデント~第4インシデントの発生場所が運行ルート116とともにアイコンで表示されている。また、表示部112には、地図118とともに、インシデント情報「13:01 一時不停止」と、切り出されたインシデント画像130が表示されている。インシデント画像130は動画や静止画であってもよく、インシデント画像を選択することで動画再生を行うようにしてもよい。
 さらに、サーバ50は、地図118上に運行ルートに沿って時系列に、検出されたドライバー12の体調の推移も表示してもよい。
 また、サーバ50は、ドライバー12毎にインシデントを学習して、そのドライバー12に対してアドバイスを行うようにしてもよい。アドバイスは、例えば、ドライバー12ごとにIDやパスワードで管理したうえで端末110上に表示させたり、ドライバー12の端末にポップアップ通知したりしてもよいし、メール等で通知してもよい。他の方法によりアドバイスを行うことを妨げない。
 あるいは、サーバ50は、全てのインシデントを統計して、危ない場所・時間などを可視化して、ドライバー12に対してアドバイスを行うようにしてもよい。アドバイスは、上述の通り、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知やメール送信等により行われる。他の方法によりアドバイスを行うことを妨げない。
 さらに、サーバ50は、ドライバー12毎に、過去のインシデントと今回のインシデントとを比較して、そのドライバー12の成長を評価してもよい。評価結果は、ドライバー12や管理者に通知してもよい。
 また、サーバ50は、どのドライバー12が、インシデントが少ないかスコアリングする、あるいは、車両10が属する複数の拠点のうち、どの拠点がインシデントが少ない拠点なのかをスコアリングしてもよい。スコアリング結果は、端末110上に表示させてもよいし、ドライバー12や管理者に通知してもよい。またこの時、スコア順にソートし、ランク上位者や拠点を表示するようにしてもよい。
 以上説明したサーバ50は、単体のコンピュータであってもよく、例えば、端末であってもよい。また、後述する機能構成が、それぞれ異なるコンピュータで実行されるコンピュータシステム(クラウド)であってもよい。さらに、本実施形態では、多くの処理をサーバ50で実行することとしたが、エッジ(センサ類など)側で情報の取得、解析・検出、インシデントの判定を行うようにしてもよい。エッジ側で多くの処理を行うことにより、サーバ50へのデータ送信量を減らすことができる。
 <車両の構成>・・・次に、図2を参照して、車両10の構成を説明する。車両10は、ドライバー12の生体情報を得るためのドライバー生体情報センシング部40、ドライバー12が運転している車両10の挙動情報を得るための車両情報センシング部42、ドライバー12の動作情報を得るためのドライバー動作センシング部44、を備えている。ドライバー生体情報センシング部40には、ハンドル型心電計22やシートカバー型心電計24などが含まれる。車両挙動センシング部42には、車外向きカメラを搭載した危険挙動検知器26や危険通知ボタン28、IoTドライブレコーダ30A、30Bなどが含まれる。ドライバー動作センシング部44には、車外向けカメラや車内向けカメラを備えたIoTドライブレコーダ30A、30Bなどが含まれる。危険通知ボタン28は、各種センシング機器によらず、ドライバー12が車内外で気づいたインシデント発生時に押下可能なボタンであって、ドライバー12の判断によってインシデント発生情報を得るためのものである。通信部46は、ネットワークを介して、各種センサで得られた情報やドライブレコーダで撮像された画像(動画または静止画)をサーバ50に送信して提供するものである。むろん、必要に応じて、他の情報の提供などを行うようにしてもよい。
 <サーバのハードウェア構成>・・・次に、図3を参照して、サーバ50の機能構成を説明する。サーバ50は、プロセッサ52、メモリ54、ストレージ56、通信部69を備え、これらは図示しないバスにより接続されている。プロセッサ52は、例えば、CPU(Central Processing Unit)により構成され、メモリ54に記憶された各種プログラムを読み出して実行することで、各種処理を行う。前記メモリ54は、プロセッサ52により実行させるプログラムを記憶するものであり、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)により構成される。例えば、図4に示す各種手段が記憶されている。ストレージ56は、取得情報58、第1インシデント判定条件50、第2インシデント判定条件62、道路標識情報・信号情報63、第4インシデント判定条件64、インシデント情報66、地図情報67、切出画像68や、図示しない制御プログラムなどを記憶するものである。
 取得情報58は、例えば、運転中のドライバー12の生体情報(心電、脈波、脳波、血圧、体温など)や、ドライバー12の動作情報(車内向カメラ画像、ハンドルセンサ情報、モーションセンサ情報など)や、ドライバー12が運転している車両10の挙動情報(速度、加速度、ブレーキ、位置情報など)である。
 第1インシデント判定条件60は、取得された生体情報を解析してドライバー12の体調を検出し、検出された体調が、第1インシデントに該当するか否かを判定するための判定基準である。例えば、ドライバー12の疲労度が高い場合には、運転しないほうがよいといった基準が設けられている。
 第2インシデント判定条件62は、取得されたドライバー12の動作情報を解析してドライバー12の動作を検出し、検出された動作が第2インシデントに該当するか否かを判定するための判定基準である。例えば、脇見運転・携帯端末を操作しながらの運転で目線が2秒以上外れた場合や、眠たそうな動作をした場合には、第2インシデントに該当するといった基準が設けられている。
 道路標識情報・信号情報63は、取得されたドライバー12の挙動情報を解析して車両10の挙動を検出し、検出された挙動が道路標識や信号を遵守しているか否かにより第3インシデントに該当するか否かを判定するための基準である。例えば、車外向カメラの画像解析による道路標識特定や、地図情報からの道路標識特定・信号表示内容特定などにより、車両10の挙動が法令遵守しているか否かを判定する。
 第4インシデント判定条件64は、取得された車両10の挙動情報を解析して、危険運転度を検出し、危険運転が第4インシデントに該当するか否かを判定するための判定基準である。危険運転度は、例えば、図9に示す第4インシデント判定条件64のように、各条件に係る走行状態を危険度に応じて数値化したものを用いることができる。同図においては判定値として「m-n」(m,nはいずれも数字)という表記をしているが、これは前者の「m」がデータの取得元の装置(センサ)の種類を示すものであり、後者の「n」が危険度を数値に置き換えて示したものである。これにより例えば危険度が「〇-3」を超えた場合には、第4インシデントに該当するといった基準が設けられている。むろん、判定値の表記方法や条件内容は一例であり、この方法・条件に限定されない。
 インシデント情報66は、第1インシデント、第2インシデント、第3インシデントおよび第4インシデントが発生したことに関連する情報(例えば、発生時刻、発生場所、発生ドライバー、発生車両、インシデント内容、ドライブレコーダ画像(動画または静止画)など)である。
 地図情報67は、運行の振返りに使用する端末110に、第1インシデント~第4インシデントの発生場所を運行ルートとともに表示するときに用いられる情報である。むろん、上述したように、道路標識情報・信号情報63を特定するため地図情報67を用いてもよい。
 切出画像68には、第1インシデントに関連付けられた第1画像と、第2インシデントに関連付けられた第2画像と、第3インシデントに関連付けられた第3画像と、第4インシデントに関連付けられた第4画像が含まれる。
 次に、通信部69は、ネットワークを介して、車両10の各種センサで得られた情報やドライブレコーダで撮像された画像(動画または静止画)を受信して取得するものである。むろん、必要に応じて、他の情報の取得を行うようにしてもよい。
 <サーバの機能構成>・・・次に、図4を参照して、サーバ50の機能構成を説明する。サーバ50は、第1取得手段70と、第1検出手段71と、第1判定手段72と、第1切出手段73と、第2取得手段74と、第2検出手段75と、第2判定手段76と、第2切出手段77と、第3取得手段78と、第3検出手段80と、第3判定手段82と、第3切出手段84と、第4検出手段86と、第4判定手段88と、第4切出手段90と、表示手段92と、第1アドバイス手段94と、第2アドバイス手段95と、評価手段96と、スコアリング手段97を備えている。
 第1取得手段70は、運転中のドライバー12の生体情報(心電、脈波、脳波、血圧、体温など)を取得するものである。例えば、車両10のドライバー生体情報センシング部40で得られた生体情報が、端末20を介してサーバ50に送信され、サーバ50は送信された情報を受信することで生体情報を取得する。取得した生体情報は、ストレージ56の取得情報58に記憶される。
 第1検出手段71は、第1取得手段70によって取得された生体情報を解析して、ドライバー12の体調(疲労度、眠気、痴呆、抑鬱、集中力、急変可能性、アレルギー判定など)を検出するものである。
 第1判定手段72は、第1検出手段71によって検出された体調が所定の条件(疲労度が高く運転しないほうがよいなど)を満たした場合に、第1インシデントと判定するものである。第1インシデントか否かの判定は、第1インシデント判定条件60を満たすか否かにより行う。
 第1切出手段73は、ドライブレコーダが撮像した画像(動画または静止画)を、第1インシデントに関連付けて第1画像として切り出すものである。切り出された画像は、ストレージ56の切出画像68に記憶される。なお、ドライブレコーダは、ドライバー動作センシング部44のIoTドライブレコーダ30A、30Bなどが利用される。
 第2取得手段74は、ドライバー12の動作情報(車内向カメラの画像、ハンドルセンサ情報、モーションセンサ情報など)を取得するものである。例えば、車両10のドライバー動作センシング部44で得られたドライバー12の動作情報が、IoTドライブレコーダ30A、30Bによって直接、あるいは、端末20を介してサーバ50に送信され、サーバ50は送信された情報を受信することでドライバー12の動作情報を取得する。取得した動作情報は、ストレージ56の取得情報58に記憶される。
 第2検出手段75は、第2取得手段74によって取得された動作情報を解析して、ドライバー12の動作を検出するものである。
 第2判定手段76は、第2検出手段75によって検出された動作が所定の条件(脇見運転・携帯端末を操作しながらの運転で目線が2秒以上外れた場合、眠たそうな動作)をした場合など)を満たした場合に、第2インシデントと判定するものである。第2インシデントか否かの判定は、第2インシデント判定条件62を満たすか否かにより行う。
 第2切出手段77は、ドライブレコーダが撮像した画像(動画または静止画)を、第2インシデントに関連付けて第2画像として切り出すものである。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
 第3取得手段78は、ドライバー12が運転している車両10の挙動情報(速度、加速度、ブレーキ、位置情報など)を取得するものである。例えば、車両10の車両挙動センシング部42で得られた車両10の挙動情報が、端末20を介してサーバ50に送信される。あるいは、センサ類に通信機能が備わっている場合には、エッジ側から直接サーバ50に車両10の挙動情報を送信してもよい。サーバ50は、送信された情報を受信することで、車両10の挙動情報を取得する。取得した挙動情報は、ストレージ56の取得情報58に記憶される。
 第3検出手段80は、第3取得手段78によって取得された挙動情報を解析して、車両10の挙動を検出するものである。
 第3判定手段82は、第3検出手段80によって検出された挙動を道路標識情報・信号情報63(車外向カメラの画像解析による道路標識・信号表示内容特定、地図情報からの道路標識特定など)と照合して、これらの指示を遵守していない場合に、第3インシデントと判定するものである。
 第3切出手段84は、ドライブレコーダが撮像した画像(動画または静止画)を、第3インシデントに関連付けて第3画像として切り出すものである。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
 第4検出手段86は、第3取得手段78によって取得された車両10の挙動情報を解析して、危険運転度(急発進、急ブレーキ、急ハンドルなど)を検出するものである。
 第4判定手段88は、第4検出手段86によって検出された危険運転度が所定の条件を満たした場合に、第4インシデントと判定するものである。第4インシデントか否かの判定は、第4インシデント判定条件64を満たすか否かにより行う。
 第4切出手段90は、ドライブレコーダが撮像した画像(動画または静止画)を、第4インシデントに関連付けて第4画像として切り出すものである。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
 表示手段92は、第1インシデント、第2インシデント、第3インシデントおよび第4インシデントの発生場所を運行ルートとともに地図上に表示するとともに、切り出された第1画像、第2画像、第3画像および第4画像を、インシデント発生の時系列に表示するものである。例えば、管理者やドライバー12の端末110の表示部112に、地図118を表示させる(図1参照)。地図118には、第1インシデント~第4インシデントの発生場所が運行ルート116とともにアイコンで表示されている。また、表示部112には、地図118とともに、インシデント情報「13:01 一時不停止」と、インシデント画像130が表示されている。インシデント画像130は動画や静止画であってもよく、インシデント画像を選択することで動画再生を行うようにしてもよい。なお、表示手段92は、地図上に運行ルート116に沿って時系列にドライバー12の体調の推移も表示してよい。
 第1アドバイス手段94は、ドライバー12毎にインシデントを学習して、そのドライバーに対してアドバイスを行うものである。アドバイスは、例えば、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知してもよいし、メール等で通知してもよい。むろん、その他の手段でアドバイスを提供することを妨げるものではない。
 第2アドバイス手段95は、全てのインシデントを統計して、危ない場所・時間などを可視化して、ドライバー12に対してアドバイスを行うものである。アドバイスは、上述の通り、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知やメール送信等により行われる。むろん、その他の手段でアドバイスを提供することを妨げるものではない。
 評価手段96は、ドライバー12毎に、過去のインシデントと今回のインシデントとを比較して、そのドライバーの成長を評価するものである。評価結果は、ドライバー12や管理者に通知してもよい。
 スコアリング手段97は、どのドライバー12がインシデントが少ないかスコアリングする、あるいは、車両10が属する複数の拠点のうち、どの拠点がインシデントが少ない拠点なのかをスコアリングするものである。スコアリング結果は、端末110上に表示させたりドライバー12や管理者に通知したりしてもよい。
 <端末の構成>・・・次に、図5を参照して、管理者やドライバー12がインシデント画像を見るための端末110の構成を説明する。端末110は、PCやタブレットがメインであるが、これらと併用するスマートフォンがあってもよい。端末110は、表示部112、入力部114、通信部115を備えている。表示部112および入力部114は、例えば、タッチパネルであるが、これに限定されない。通信部115は、ネットワークを介してサーバ50からインシデント情報66や切出画像68を受信するものである。むろん、他の情報の受信を行ってもよいし、サーバ50へ情報の提供(送信)を行ってもよい。
 <運行インシデント画像表示処理>・・・次に、本システム100による運行インシデント画像表示処理の一例について、図6を参照して説明する。まず、サーバ50の第1取得手段70は、運転中のドライバー12の生体情報(心電、脈波、脳波、血圧、体温など)を取得する(ステップS10)。例えば、車両10のドライバー生体情報センシング部40で得られた生体情報が、端末20を介してサーバ50に送信され、サーバ50が送信された情報を受信することで生体情報を取得する。取得した生体情報は、ストレージ56の取得情報58に記憶される。
 次に、サーバ50の第1検出手段71は、第1取得手段70によって取得された生体情報を解析して、ドライバー12の体調(疲労度、眠気、痴呆、抑鬱、集中力、急変可能性、アレルギー判定など)を検出する(ステップS12)。
 次に、サーバ50の第1判定手段72は、第1検出手段71によって検出された体調が所定の条件(疲労度が高く運転しないほうがよいなど)を満たした場合に、第1インシデントと判定する(ステップS14)。第1インシデントか否かの判定は、第1インシデント判定条件60を満たすか否かにより行う。
 次に、サーバ50の第1切出手段73は、ドライブレコーダが撮像した画像(動画または静止画)を、第1インシデントに関連付けて第1画像として切り出す(ステップS16)。切り出された画像は、ストレージ56の切出画像68に記憶される。なお、ドライブレコーダは、ドライバー動作センシング部44のIoTドライブレコーダ30A、30Bなどが利用される。
 一方、サーバ50では、前記ステップS10~16と平行して、第2取得手段74が、ドライバー12の動作情報(車内向カメラの画像、ハンドルセンサ情報、モーションセンサ情報など)を取得する(ステップS20)。例えば、車両10のドライバー動作センシング部44で得られたドライバー12の動作情報が、IoTドライブレコーダ30A、30Bによって直接、あるいは、端末20を介してサーバ50に送信され、サーバ50が送信された情報を受信することでドライバー12の動作情報を取得する。取得した動作情報は、ストレージ56の取得情報58に記憶される。
 次に、サーバ50の第2検出手段75は、第2取得手段74によって取得された動作情報を解析して、ドライバー12の動作を検出する(ステップS22)。
 次に、第2判定手段76は、第2検出手段75によって検出された動作が所定の条件(脇見運転・携帯端末を操作しながらの運転で目線が2秒以上外れた場合、眠たそうな動作)をした場合など)を満たした場合に、第2インシデントと判定する(ステップS24)。第2インシデントか否かの判定は、第2インシデント判定条件62を満たすか否かにより行う。
 次に、サーバ50の第2切出手段77は、ドライブレコーダが撮像した画像(動画または静止画)を、第2インシデントに関連付けて第2画像として切り出す(ステップS26)。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
 更に、前記ステップS10~16、ステップS20~26と平行して、サーバ50の第3取得手段78は、ドライバー12が運転している車両10の挙動情報(速度、加速度、ブレーキ、位置情報など)を取得する(ステップS30)。例えば、車両10の車両挙動センシング部42で得られた車両10の挙動情報が、端末20を介してサーバ50に送信される。あるいは、センサ類に通信機能が備わっている場合には、エッジ側から直接サーバ50に車両10の挙動情報を送信してもよい。サーバ50は、送信された情報を受信することで、車両10の挙動情報を取得する。取得した挙動情報は、ストレージ56の取得情報に記憶される。
 次に、サーバ50の第3検出手段80は、第3取得手段78によって取得された挙動情報を解析して、車両10の挙動を検出する(ステップS32)。
 次に、サーバ50の第3判定手段82は、第3検出手段80によって検出された挙動を道路標識情報・信号情報63(車外向カメラの画像解析による道路標識特定・信号表示内容特定、地図情報からの道路標識特定など)と照合して、法令遵守していない場合(違反があった場合)に、第3インシデントと判定する(ステップS34)。
 次に、サーバ50の第3切出手段84は、ドライブレコーダが撮像した画像(動画または静止画)を、第3インシデントに関連付けて第3画像として切り出す(ステップS36)。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
 一方、前記ステップS32~36と平行して、サーバ50の第4検出手段86は、第3取得手段78によって取得された車両10の挙動情報を解析して、危険運転度(急発進、急ブレーキ、急ハンドルなど)を検出する(ステップS38)。
 次に、サーバ50の第4判定手段82は、第4検出手段86によって検出された危険運転度が所定の条件を満たした場合に、第4インシデントと判定する(ステップS40)。第4インシデントか否かの判定は、第4インシデント判定条件64を満たすか否かにより行う。
 次に、サーバ50の第4切出手段90は、ドライブレコーダが撮像した画像(動画または静止画)を、第4インシデントに関連付けて第4画像として切り出す(ステップS42)。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
 次に、サーバ50の表示手段92は、第1インシデント、第2インシデント、第3インシデントおよび第4インシデントの発生場所を運行ルートとともに地図上に表示するとともに、切り出された第1画像、第2画像、第3画像および第4画像を、インシデント発生の時系列に表示する(ステップS50)。例えば、管理者やドライバー12の端末110の表示部112に、地図118を表示させる。
 図7には、管理者やドライバー12の端末110に表示される運行インシデント画像の表示例の一例が示されている。図7に示すように、端末110の表示部112には、地図118とインシデント画像130が表示されている。地図118には、第1インシデント~第4インシデントの発生場所が運行ルート116とともにアイコン120A~120Cで表示されている。また、インシデント画像130には、インシデント情報と切出画像132A~132Cが含まれる。
 インシデント情報は、図示の例では、「09:17 車間距離不足」、「12:49 急減速」、「15:32 眠気検知」となっており、それぞれ、地図118上に示されたアイコン120A~120Cによって、インシデントの発生場所が示されている。また、インシデントの種類によって、アイコン120A~120Cの種類が異なるように示されている。
 インシデント画像132A~132Cは動画や静止画であってもよく、インシデント画像を選択することで動画再生を行うようにしてもよい。なお、表示手段92は、地図118上に運行ルート116に沿って時系列にドライバー12の体調の推移も表示してもよい。体調の推移は、アイコンの種類分けによって行ってもよいし、地図118上に文字情報を表示してもよい。
 図8には、端末110に表示される運行インシデント画像の他の表示例が示されている。図8は、表示部112に表示されるインシデント画像140の他の例として、法令遵守していない場合の画像が示されている(地図118は省略する)。「09:17 一時不停止」のインシデントに対応する画像が切出画像142Aであり、「11:25 速度超過」のインシデントに対応する画像が切出画像142Bである。例えば、一時停止地点で15km/h以上の走行の場合に、一時不停止と判定され、制限速度+30km/h以上の場合に速度違反と判定される。インシデント画像142A、142Bは動画や静止画であってもよく、インシデント画像を選択することで動画再生を行うようにしてもよい。
 上述した実施形態において、サーバ50は、ドライバー12毎にインシデントを学習して、そのドライバーに対してアドバイスを行うようにしてもよい。アドバイスは、例えば、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知してもよいし、メール等で通知してもよい。その他の手段でアドバイスを行うことを妨げない。
 あるいは、サーバ50は、全てのインシデントを統計して、危ない場所・時間などを可視化して、ドライバー12に対してアドバイスを行うようにしてもよい。アドバイスは、上述の通り、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知やメール送信等により行われる。その他の手段でアドバイスを行うことを妨げない。
 さらに、本実施形態において、サーバ50は、ドライバー12毎に、過去のインシデントと今回のインシデントとを比較して、そのドライバーの成長を評価してもよい。評価結果は、ドライバー12や管理者に通知してもよい。
 また、本実施形態において、サーバ50は、どのドライバー12がインシデントが少ないかスコアリングする、あるいは、車両10が属する複数の拠点のうち、どの拠点がインシデントが少ない拠点なのかをスコアリングしてもよい。スコアリング結果は、端末110に表示させたりドライバー12や管理者に通知したりしてもよい。
 <効果>・・・以上説明した実施形態によれば、運転中のドライバーの生体情報を取得して、解析して、ドライバーの体調を検出して、体調が所定の条件を満たした場合に、第1インシデントと判定して、ドライブレコーダが撮像した画像を、第1インシデントに関連付けて第1画像として切り出して、ドライバーの動作情報を取得して、解析して、ドライバーの動作を検出して、動作が所定の条件を満たした場合に、第2インシデントと判定して、ドライブレコーダが撮像した画像を、第2インシデントに関連付けて第2画像として切り出して、ドライバーが運転している車両の挙動情報を取得して、解析して、車両の挙動を検出して、挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定して、ドライブレコーダが撮像した画像を、第3インシデントに関連付けて第3画像として切り出して、取得された挙動の挙動情報を解析して、危険運転度を検出して、危険運転度が所定の条件を満たした場合に、第4インシデントと判定して、ドライブレコーダが撮像した画像を、第4インシデントに関連付けて第4画像として切り出して、切り出された、第1画像、第2画像、第3画像、および第4画像を、地図上に運行ルートに沿って時系列に表示する。このため、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返ることができる。
 なお、上述した実施形態は一例であり、同様の効果を奏する範囲内で適宜変更が可能である。また、サーバ50は、単体のコンピュータであってもよく、例えば、端末であってもよい。また、上述した機能構成が、それぞれ異なるコンピュータで実行されるコンピュータシステム(クラウド)であってもよい。さらに、本実施形態では、多くの処理をサーバ50で実行することとしたが、エッジ(センサ類など)側で情報の取得、解析・検出、インシデントの判定を行うようにしてもよい。エッジ側で多くの処理を行うことにより、サーバ50へのデータ送信量を減らすことができる。また、本発明は、サーバ50で実行されるプログラムとして提供されてもよい。このプログラムは、コンピュータが読取可能な記録媒体に記録された状態で提供されていてもよいし、ネットワークを介してダウンロードしてもよい。また、本発明は、方法の発明として提供されてもよい。
 本発明によれば、運転中のドライバーの生体情報を取得して、解析して、ドライバーの体調を検出して、体調が所定の条件を満たした場合に、第1インシデントと判定して、ドライブレコーダが撮像した画像を、第1インシデントに関連付けて第1画像として切り出して、ドライバーの動作情報を取得して、解析して、ドライバーの動作を検出して、動作が所定の条件を満たした場合に、第2インシデントと判定して、ドライブレコーダが撮像した画像を、第2インシデントに関連付けて第2画像として切り出して、ドライバーが運転している車両の挙動情報を取得して、解析して、車両の挙動を検出して、挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定して、ドライブレコーダが撮像した画像を、第3インシデントに関連付けて第3画像として切り出して、取得された挙動の挙動情報を解析して、危険運転度を検出して、危険運転度が所定の条件を満たした場合に、第4インシデントと判定して、ドライブレコーダが撮像した画像を、第4インシデントに関連付けて第4画像として切り出して、切り出された、第1画像、第2画像、第3画像、および第4画像を、地図上に運行ルートに沿って時系列に表示する。これにより、ドライバー自身が運行で起きたインシデントを地図上の運行ルートに沿って時系列に運転動画を観ながら運転挙動を振り返ることができる。例えば、ドライバーが帰着した後、ドライバーと管理者とで運行を振り返ること(帰着後点呼)で、ヒヤリハット事象を情報鮮度が高いうちに振り返ることができて事故発生の低下を期待でき、運行インシデント画像表示システムとして好適である。
 10:車両
 12:ドライバー
 20:端末
 22:ハンドルカバー型心電計
 24:シートカバー型心電計
 26:危険挙動検知器
 28:危険通知ボタン
 30A、30B:IoTドライブレコーダ
 40:ドライバー生体情報センシング部
 42:車両情報センシング部
 44:ドライバー動作センシング部
 46:通信部
 50:サーバ
 52:プロセッサ
 54:メモリ
 56:ストレージ
 58:取得情報
 60:第1インシデント判定条件
 62:第2インシデント判定条件
 63:道路標識情報・信号情報
 64:第4インシデント判定条件
 66:インシデント情報
 67:地図情報
 68:切出画像
 69:通信部
 70:第1取得手段
 71:第1検出手段
 72:第1判定手段
 73:第1切出手段
 74:第2取得手段
 75:第2検出手段
 76:第2判定手段
 77:第2切出手段
 78:第3取得手段
 80:第3検出手段
 82:第3判定手段
 84:第3切出手段
 86:第4検出手段
 88:第4判定手段
 90:第4切出手段
 92:表示手段
 94:第1アドバイス手段
 95:第2アドバイス手段
 96:評価手段
 97:スコアリング手段
100:運転中インシデント通知システム
110:端末
112:表示部
114:入力部
115:通信部
116:運行ルート
118:地図
120A~120C:アイコン
130、132A~132C、140、142A~142C:インシデント画像
 
 

Claims (8)

  1.  運転中のドライバーの生体情報を取得する第1取得手段と、
     前記取得された生体情報を解析して、前記ドライバーの体調を検出する第1検出手段と、
     前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定する第1判定手段と、
     ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出す第1切出手段と、
     前記ドライバーの動作情報を取得する第2取得手段と、
     前記取得された動作情報を解析して、前記ドライバーの動作を検出する第2検出手段と、
     前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定する第2判定手段と、
     前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出す第2切出手段と、
     前記ドライバーが運転している車両の挙動情報を取得する第3取得手段と、
     前記取得された挙動情報を解析して、前記車両の挙動を検出する第3検出手段と、
     前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定する第3判定手段と、
     前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出す第3切出手段と、
     前記取得された車両の挙動情報を解析して、危険運転度を検出する第4検出手段と、
     前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定する第4判定手段と、
     前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出す第4切出手段と、
     前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示する表示手段と、
    を備える運行インシデント画像表示システム。
  2.  前記表示手段は、地図上に運行ルートに沿って時系列に、検出されたドライバーの体調の推移も表示する請求項1記載の運行インデント画像表示システム。
  3.  前記ドライバー毎にインデントを学習して、当該ドライバーに対してアドバイスを提供する第1アドバイス手段と、
    を備える請求項1又は2記載の運行インデント画像表示システム。
  4.  全てのインシデントを統計して、危ない場所や時間などを可視化して、ドライバーに対してアドバイスを提供する第2アドバイス手段と、
    を備える請求項1~3のいずれか一項に記載の運行インシデント画像表示システム。
  5.  ドライバー毎に、過去のインシデントと今回のインシデントとを比較して、そのドライバーの成長を評価する評価手段と、
    を備える請求項1~4のいずれか一項に記載の運行インシデント画像表示システム。
  6.  どのドライバーがインシデントが少ないか、または、前記車両が属する複数の拠点のうちどの拠点がインシデントが少ない拠点なのかをスコアリングするスコアリング手段と、
    を備える請求項1~5のいずれか一項に記載の運行インシデント画像表示システム。
  7.  運転中のドライバーの生体情報を取得するステップと、
     前記取得された生体情報を解析して、前記ドライバーの体調を検出するステップと、
     前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定するステップと、
     ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出すステップと、
     前記ドライバーの動作情報を取得するステップと、
     前記取得された動作情報を解析して、前記ドライバーの動作を検出するステップと、
     前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定するステップと、
     前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出すステップと、
     前記ドライバーが運転している車両の挙動情報を取得するステップと、
     前記取得された挙動情報を解析して、前記車両の挙動を検出するステップと、
     前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定するステップと、
     前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出すステップと、
     前記取得された車両の挙動情報を解析して、危険運転度を検出するステップと、
     前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定するステップと、
     前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出すステップと、
     前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示するステップと、
    を備える運行インシデント画像表示方法。
  8.  コンピュータに、
     運転中のドライバーの生体情報を取得するステップと、
     前記取得された生体情報を解析して、前記ドライバーの体調を検出するステップと、
     前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定するステップと、
     ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出すステップと、
     前記ドライバーの動作情報を取得するステップと、
     前記取得された動作情報を解析して、前記ドライバーの動作を検出するステップと、
     前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定するステップと、
     前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出すステップと、
     前記ドライバーが運転している車両の挙動情報を取得するステップと、
     前記取得された挙動情報を解析して、前記車両の挙動を検出するステップと、
     前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定するステップと、
     前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出すステップと、
     前記取得された車両の挙動情報を解析して、危険運転度を検出するステップと、
     前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定するステップと、
     前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出すステップと、
     前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示するステップと、
    を実行させるための運行インシデント画像表示プログラム。
     
     
PCT/JP2019/031529 2019-08-08 2019-08-08 運行インシデント画像表示システム、方法及びプログラム WO2021024497A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/031529 WO2021024497A1 (ja) 2019-08-08 2019-08-08 運行インシデント画像表示システム、方法及びプログラム
JP2021537554A JP7369776B2 (ja) 2019-08-08 2019-08-08 運行インシデント画像表示システム、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/031529 WO2021024497A1 (ja) 2019-08-08 2019-08-08 運行インシデント画像表示システム、方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2021024497A1 true WO2021024497A1 (ja) 2021-02-11

Family

ID=74503362

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/031529 WO2021024497A1 (ja) 2019-08-08 2019-08-08 運行インシデント画像表示システム、方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7369776B2 (ja)
WO (1) WO2021024497A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234260A (ja) * 2003-01-29 2004-08-19 Hitachi Ltd 安全運転診断方法および省燃費運転診断方法、ならびに装置、安全運転診断プログラムおよび省燃費運転診断プログラム
JP2008210375A (ja) * 2007-02-01 2008-09-11 Denso Corp ドライバ管理装置および運行管理システム
JP2008234414A (ja) * 2007-03-22 2008-10-02 Equos Research Co Ltd データベース作成装置、及びデータベース作成プログラム
US20170061222A1 (en) * 2015-08-31 2017-03-02 Lytx, Inc. Detecting risky driving with machine vision
WO2017134897A1 (ja) * 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法
JP2017191368A (ja) * 2016-04-11 2017-10-19 株式会社デンソー 運転支援システム、運転支援装置及び運転支援プログラム
JP2017204104A (ja) * 2016-05-10 2017-11-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 制御装置、車載装置、映像配信方法、及びプログラム
JP2018055445A (ja) * 2016-09-29 2018-04-05 株式会社デンソー 車両運行管理システム
WO2019146488A1 (ja) * 2018-01-25 2019-08-01 日本電気株式会社 運転状況監視装置、運転状況監視方法、および運転状況監視システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019069732A1 (ja) 2017-10-06 2019-04-11 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234260A (ja) * 2003-01-29 2004-08-19 Hitachi Ltd 安全運転診断方法および省燃費運転診断方法、ならびに装置、安全運転診断プログラムおよび省燃費運転診断プログラム
JP2008210375A (ja) * 2007-02-01 2008-09-11 Denso Corp ドライバ管理装置および運行管理システム
JP2008234414A (ja) * 2007-03-22 2008-10-02 Equos Research Co Ltd データベース作成装置、及びデータベース作成プログラム
US20170061222A1 (en) * 2015-08-31 2017-03-02 Lytx, Inc. Detecting risky driving with machine vision
WO2017134897A1 (ja) * 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法
JP2017191368A (ja) * 2016-04-11 2017-10-19 株式会社デンソー 運転支援システム、運転支援装置及び運転支援プログラム
JP2017204104A (ja) * 2016-05-10 2017-11-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 制御装置、車載装置、映像配信方法、及びプログラム
JP2018055445A (ja) * 2016-09-29 2018-04-05 株式会社デンソー 車両運行管理システム
WO2019146488A1 (ja) * 2018-01-25 2019-08-01 日本電気株式会社 運転状況監視装置、運転状況監視方法、および運転状況監視システム

Also Published As

Publication number Publication date
JPWO2021024497A1 (ja) 2021-02-11
JP7369776B2 (ja) 2023-10-26

Similar Documents

Publication Publication Date Title
Horrey et al. On-board safety monitoring systems for driving: Review, knowledge gaps, and framework
JP2008507721A (ja) 運転モニタシステム及び方法
Kircher Driver distraction: A review of the literature
EP2924624A1 (en) Method of diagnosing operating characteristics
WO2022231721A1 (en) Coachable driver risk groups
Lenné et al. Predicting drowsiness-related driving events: a review of recent research methods and future opportunities
JP6593011B2 (ja) 安全運転促進装置及び安全運転促進方法
US11214263B2 (en) Management assistance system
WO2012077234A1 (ja) 車両用情報収集システム
DE102017216328B3 (de) Verfahren zum Überwachen eines Aufmerksamkeitszustandes einer Person, Verarbeitungseinrichtung, Speichermedium, und Kraftfahrzeug
JP2014075035A (ja) 運転支援システム、及び、当該システムに用いられる車載機
JP7633013B2 (ja) 安全運行支援方法、安全運行支援システム及び安全運行支援サーバ
JP2019061498A (ja) 点呼・点検支援装置、点呼・点検支援システム及び点呼・点検支援プログラム
WO2021024497A1 (ja) 運行インシデント画像表示システム、方法及びプログラム
WO2021024496A1 (ja) 車両運行情報表示システム、方法及びプログラム
JP7369775B2 (ja) 運転中インシデント通知システム、方法及びプログラム
CN117334047A (zh) 一种危险驾驶行为检测方法及装置
CN117842085A (zh) 驾驶状态检测与预警方法、系统、电子设备及存储介质
Rusmin et al. Design and implementation of driver drowsiness detection system on digitalized driver system
WO2020189070A1 (ja) 情報処理装置及びプログラム
JP7267449B6 (ja) ドライバーポイント変動システム、方法及びプログラム
Mahomed et al. Driver Posture Recognition: A Review
Srilakshmi et al. Automated Driver Drowsiness Detection System using Computer Vision and Machine Learning
CN113744498B (zh) 驾驶员注意力监测的系统和方法
WO2024062769A1 (ja) ドライバー支援装置、ドライバー支援システム及びドライバー支援方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19940331

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021537554

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19940331

Country of ref document: EP

Kind code of ref document: A1