[go: up one dir, main page]

JP7551536B2 - Near-miss incident database generation method and near-miss incident database generation system - Google Patents

Near-miss incident database generation method and near-miss incident database generation system Download PDF

Info

Publication number
JP7551536B2
JP7551536B2 JP2021028387A JP2021028387A JP7551536B2 JP 7551536 B2 JP7551536 B2 JP 7551536B2 JP 2021028387 A JP2021028387 A JP 2021028387A JP 2021028387 A JP2021028387 A JP 2021028387A JP 7551536 B2 JP7551536 B2 JP 7551536B2
Authority
JP
Japan
Prior art keywords
information
subject
imaging
record
status information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021028387A
Other languages
Japanese (ja)
Other versions
JP2022129636A (en
Inventor
佳奈子 皆内
大樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Corp
Original Assignee
Fujita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Corp filed Critical Fujita Corp
Priority to JP2021028387A priority Critical patent/JP7551536B2/en
Publication of JP2022129636A publication Critical patent/JP2022129636A/en
Application granted granted Critical
Publication of JP7551536B2 publication Critical patent/JP7551536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、ヒヤリ・ハットの情報を蓄積し共有するためのヒヤリ・ハットデータベースに関する。 The present invention relates to a near-miss database for storing and sharing near-miss information.

建設現場や工場などの作業現場で作業を行う作業者や介護施設で生活する要介護者などの対象者が経験したヒヤリ・ハットの情報を蓄積し共有するためのヒヤリ・ハットデータベースを生成することによって、災害や事故を未然に防止しようとする取り組みが行われている。ヒヤリ・ハットとは、例えば、重大な災害や事故には至らないものの、直結してもおかしくない一歩手前の事例の認知をいう。危難が発生した際には、その前に多くのヒヤリ・ハットが潜んでいることがしばしばあり、ヒヤリ・ハットの事例を収集・分析することで、危難を予防に役立てることができる。 Efforts are being made to prevent disasters and accidents by creating a near-miss database to accumulate and share information on near-misses experienced by people such as workers at construction sites and factories, and people in need of care living in nursing homes. A near-miss is, for example, the recognition of an incident that does not progress to a serious disaster or accident, but which could easily lead to one. When a danger occurs, there are often many near-misses lurking beforehand, and collecting and analyzing near-miss cases can help prevent danger.

また、近年、作業者や要介護者などの対象者の身体にセンサを取り付けて、センサの計測値に基づいて対象者の状態を監視する試みが成されている。 In recent years, there have also been attempts to attach sensors to the bodies of subjects, such as workers or people requiring care, and monitor the condition of the subjects based on the sensor measurements.

例えば、ヒヤリ・ハットデータベース生成方法として、センサの計測値を用いた人の状態管理に関連する技術が知られている(例えば、特許文献1および非特許文献1)。 For example, a method for generating a near-miss database is known that involves managing people's status using sensor measurements (for example, Patent Literature 1 and Non-Patent Literature 1).

特開2013-80304号公報JP 2013-80304 A

品川佳満他、「加速度センサを用いた人間の歩行・転倒の検出」川崎医療福祉学会誌、1999年、Vol.9 No.2 243-250Yoshimitsu Shinagawa et al., "Detection of human walking and falls using acceleration sensors," Kawasaki Medical Welfare Society Journal, 1999, Vol. 9 No. 2 243-250

しかしながら、既存のヒヤリ・ハットデータベースでは、対象者が何をしていて、どうして、どうなったか、などを把握することが難しいという懸念がある。 However, there are concerns that existing near-miss databases make it difficult to understand what the subjects were doing, why, and what happened.

そこで、本発明の目的は、ヒヤリ・ハット発生時の対象者の状況を把握することが可能なヒヤリ・ハットデータベースを生成することである。 The object of the present invention is to generate a near-miss database that can grasp the situation of the person involved when a near-miss occurs.

本発明の一つの態様は、ヒヤリ・ハットデータベース生成方法であって、対象者の状態が異常と判断すると、前記対象者を識別するための識別情報と、前記対象者の状態に関する状態情報と、状態情報取得時間情報と、状態情報取得位置情報と、前記状態情報の取得位置または近傍で撮像された画像と、を対応付けてヒヤリ・ハットデータベースを自動的に生成する。 One aspect of the present invention is a near-miss database generation method, in which when a subject's condition is determined to be abnormal, a near-miss database is automatically generated by associating identification information for identifying the subject, status information regarding the subject's condition, status information acquisition time information, status information acquisition location information, and an image captured at or near the acquisition location of the status information.

ヒヤリ・ハット発生時の対象者の状況を把握することが可能なヒヤリ・ハットデータベースを自動的に生成することができる。 It is possible to automatically generate a near-miss database that can grasp the situation of the person involved when a near-miss occurs.

実施形態のヒヤリ・ハットデータベース生成システムの一例を示す図である。FIG. 1 is a diagram illustrating an example of a near-miss database generation system according to an embodiment. 取得装置により取得される情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of information acquired by an acquisition device. 撮像装置により取得される情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of information acquired by an imaging device. ヒヤリ・ハットデータベースの一例を示す図である。FIG. 2 is a diagram illustrating an example of a near-miss database. 取得装置の動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation of the acquisition device. 撮像装置の動作の一例を示すフローチャートである。4 is a flowchart showing an example of the operation of the imaging apparatus. 生成装置の動作の一例を示すフローチャートである。13 is a flowchart illustrating an example of an operation of the generating device. 生成装置を実現するためのコンピュータの一例を示す図である。FIG. 13 illustrates an example of a computer for implementing the generating device.

以下、図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、複数の図面において対応する要素には同一の符号を付す。 Several embodiments of the present invention will be described in detail below with reference to the drawings. Note that the same reference numerals are used to designate corresponding elements in multiple drawings.

以下で述べる実施形態では、作業現場で作業を行う作業者や介護施設で生活する要介護者などの対象者に取り付けられているセンサの計測値により対象者にヒヤリ・ハットが発生した(対象者の状態が異常である)と判断することができる。対象者の状態が異常であると判断したときは、センサの計測値、取得時間、及び取得位置を取得することができる。さらに、センサの計測値の取得位置近傍に設置された固定監視カメラ、無人移動体、または利用者が装着している撮像装置で撮像された画像(静止画像または動画像)をヒヤリ・ハットデータベースに含めることができる。これにより、対象者や対象者の活動を管理する管理者は、対象者の状況を画像により確認することができるようになり、対象者の状態が異常になったときの状況(いつ、どこで、だれが、なにをしていて、どうして、どうなったなど)を、センサの計測値、取得時間、及び取得位置により把握することができる。すなわち、ヒヤリ・ハット発生時を含む対象者の状況を把握することが可能なヒヤリ・ハットデータベースを自動的に生成することができる。 In the embodiment described below, it is possible to determine that a near miss has occurred in a subject, such as a worker performing work at a work site or a person requiring care living in a care facility, based on the measurement value of a sensor attached to the subject (the subject's condition is abnormal). When it is determined that the subject's condition is abnormal, the sensor measurement value, acquisition time, and acquisition position can be acquired. Furthermore, images (still images or video images) captured by a fixed surveillance camera installed near the acquisition position of the sensor measurement value, an unmanned mobile body, or an imaging device worn by the user can be included in the near miss database. This allows the subject and the administrator who manages the subject's activities to check the subject's condition from the image, and to understand the situation when the subject's condition becomes abnormal (when, where, who, what was done, why, what happened, etc.) based on the sensor measurement value, acquisition time, and acquisition position. In other words, it is possible to automatically generate a near miss database that can grasp the subject's condition, including the time when a near miss occurs.

図1は、実施形態のヒヤリ・ハットデータベース生成システム1の一例を示す図である。図1に示すヒヤリ・ハットデータベース生成システム1は、取得装置2と、1以上の撮像装置3と、生成装置4とを備える。生成装置4は、無線通信または有線通信またはインターネットなどのネットワークを介して取得装置2及び撮像装置3から情報を取得してもよいし、メモリカードなどの記録媒体を介して取得装置2及び撮像装置3から情報を取得してもよい。また、図1の例では、ヒヤリ・ハットデータベース生成システム1が、取得装置2、撮像装置3、及び生成装置4により構成されているが、実施形態はこれに限定されるものではない。例えば、取得装置2、撮像装置3、及び生成装置4は、統合された1つの装置であってもよい。 FIG. 1 is a diagram showing an example of a near-miss database generation system 1 according to an embodiment. The near-miss database generation system 1 shown in FIG. 1 includes an acquisition device 2, one or more imaging devices 3, and a generation device 4. The generation device 4 may acquire information from the acquisition device 2 and the imaging device 3 via a network such as wireless communication, wired communication, or the Internet, or may acquire information from the acquisition device 2 and the imaging device 3 via a recording medium such as a memory card. In the example shown in FIG. 1, the near-miss database generation system 1 is composed of the acquisition device 2, the imaging device 3, and the generation device 4, but the embodiment is not limited to this. For example, the acquisition device 2, the imaging device 3, and the generation device 4 may be integrated into a single device.

取得装置2は、対象者の身体に取り付けられるものであって、状態情報取得部21と、時間情報取得部22と、位置情報取得部23と、記憶部24と、制御部25とを備える。状態情報取得部21は、時間情報取得部22と、位置情報取得部23と、を含む構成としてもよい。なお、取得装置2は、活動量計、スマートウォッチ、スマートフォン、モバイル端末などの形態で、対象者に保持されてもよい。また、取得装置2は、対象者の身体に埋め込まれるものであってもよい。 The acquisition device 2 is attached to the subject's body, and includes a status information acquisition unit 21, a time information acquisition unit 22, a location information acquisition unit 23, a storage unit 24, and a control unit 25. The status information acquisition unit 21 may be configured to include the time information acquisition unit 22 and the location information acquisition unit 23. The acquisition device 2 may be held by the subject in the form of an activity meter, a smart watch, a smartphone, a mobile terminal, or the like. The acquisition device 2 may also be embedded in the subject's body.

状態情報取得部21は、加速度センサ、傾斜センサ、心拍計、血圧計、皮膚電気活動センサ、足底圧力センサ、気圧センサなどであり、対象者の動作、位置、姿勢、バイタルデータなどの対象者の状態に関する状態情報を取得する。 The status information acquisition unit 21 is an acceleration sensor, tilt sensor, heart rate monitor, blood pressure monitor, skin electrodermal activity sensor, plantar pressure sensor, air pressure sensor, etc., and acquires status information regarding the subject's status, such as the subject's movement, position, posture, and vital data.

例えば、取得装置2が対象者の中心部(腰など)に取り付けられる場合、状態情報取得部21は加速度センサや傾斜センサにより構成される。このように状態情報取得部21が加速度センサや傾斜センサにより構成される場合、対象者の体の中心付近の加速度や傾斜角度を計測することができるため、腕及び足などの局所的な体の部位の動きの影響を抑えて対象者の動作を計測することができる。または、取得装置2が対象者の手のひら、指、腕などに取り付けられる場合、状態情報取得部21は心拍計、血圧計、皮膚電気活動センサなどにより構成される。このように状態情報取得部21が心拍計、血圧計、皮膚電気活動センサなどにより構成される場合、対象者の状態が異常になると、対象者の心拍数が急峻に上昇したり、冷や汗(精神性発汗)が生じたりするため、心拍計、血圧計、皮膚電気活動センサの計測値の急峻な増加を検知することで、対象者の状態が異常になったことを判断することができる。または、取得装置2が対象者の足底に取り付けられる場合、状態情報取得部21は圧力センサにより構成される。このように状態情報取得部21が圧力センサにより構成される場合、対象者の状態が異常になると、対象者の足底にかかる圧力が通常時と比較して圧力分布や重心移動が変化するため、圧力センサの計測値の変化を検出することで、対象者の状態が異常になったことを判断することができる。 For example, when the acquisition device 2 is attached to the center of the subject (such as the waist), the status information acquisition unit 21 is configured with an acceleration sensor or a tilt sensor. When the status information acquisition unit 21 is configured with an acceleration sensor or a tilt sensor in this way, it is possible to measure the acceleration and tilt angle near the center of the subject's body, so that the motion of the subject can be measured while suppressing the influence of the movement of local body parts such as the arms and legs. Alternatively, when the acquisition device 2 is attached to the palm, finger, arm, etc. of the subject, the status information acquisition unit 21 is configured with a heart rate monitor, a blood pressure monitor, an electrodermal activity sensor, etc. When the status information acquisition unit 21 is configured with a heart rate monitor, a blood pressure monitor, an electrodermal activity sensor, etc. in this way, when the subject's condition becomes abnormal, the subject's heart rate increases sharply or cold sweat (psychological sweating) occurs, so that it is possible to determine that the subject's condition has become abnormal by detecting a sharp increase in the measurement value of the heart rate monitor, blood pressure monitor, or electrodermal activity sensor. Alternatively, when the acquisition device 2 is attached to the sole of the subject's foot, the status information acquisition unit 21 is configured with a pressure sensor. In this way, when the condition information acquisition unit 21 is configured with a pressure sensor, if the subject's condition becomes abnormal, the pressure distribution and center of gravity movement of the pressure on the soles of the subject's feet will change compared to normal, and by detecting the change in the measurement value of the pressure sensor, it can be determined that the subject's condition has become abnormal.

時間情報取得部22は、電波時計またはGPS(Global Positioning System)などであり、状態情報取得部21により状態情報が取得されたときの時間(日時)を示す状態情報取得時間情報を取得する。 The time information acquisition unit 22 is a radio clock or a GPS (Global Positioning System), and acquires status information acquisition time information indicating the time (date and time) when the status information was acquired by the status information acquisition unit 21.

位置情報取得部23は、GPSまたは屋内位置情報取得端末などであり、状態情報取得部21により状態情報が取得されたときの取得装置2の位置情報を取得する。なお、時間情報取得部22及び位置情報取得部23がGPSにより構成される場合、時間情報取得部22と位置情報取得部23を1つにまとめてもよい。 The location information acquisition unit 23 is a GPS or an indoor location information acquisition terminal, and acquires the location information of the acquisition device 2 when the status information is acquired by the status information acquisition unit 21. Note that when the time information acquisition unit 22 and the location information acquisition unit 23 are configured by a GPS, the time information acquisition unit 22 and the location information acquisition unit 23 may be integrated into one.

記憶部24は、RAM(Random Access Memory)、ROM(Read Only Memory)、またはメモリカードなどであり、取得装置2により取得される情報(識別情報、状態情報、状態情報取得時間情報、状態情報取得位置情報)が記憶される。 The storage unit 24 is a RAM (Random Access Memory), a ROM (Read Only Memory), or a memory card, and stores information acquired by the acquisition device 2 (identification information, status information, status information acquisition time information, status information acquisition position information).

制御部25は、CPU(Central Processing Unit)またはプログラマブルなデバイス(FPGA(Field Programmable Gate Array)やPLD(Programmable Logic Device))などにより構成され、状態情報取得部21、時間情報取得部22、位置情報取得部23、及び記憶部24のそれぞれの動作を制御する。また、制御部25は、対象者を識別する識別情報と、状態情報取得部21により取得される状態情報と、時間情報取得部22により取得される時間情報と、位置情報取得部23により取得される位置情報とを対応付けて記憶部24に記憶させる。また、記憶部24に記憶される情報は、無線通信または有線通信またはネットワークを介して生成装置4に送信される。または、記憶部24に記憶される情報は、メモリカードを介して生成装置4に提供される。 The control unit 25 is configured with a CPU (Central Processing Unit) or a programmable device (such as an FPGA (Field Programmable Gate Array) or a PLD (Programmable Logic Device)), and controls the operation of the state information acquisition unit 21, the time information acquisition unit 22, the position information acquisition unit 23, and the storage unit 24. The control unit 25 also stores in the storage unit 24, in association with identification information for identifying the subject, the state information acquired by the state information acquisition unit 21, the time information acquired by the time information acquisition unit 22, and the position information acquired by the position information acquisition unit 23. The information stored in the storage unit 24 is transmitted to the generation device 4 via wireless communication, wired communication, or a network. Alternatively, the information stored in the storage unit 24 is provided to the generation device 4 via a memory card.

撮像部31は、作業現場や介護施設に設置された固定監視カメラ、ドローンやロボットなどの無人移動体が備えるカメラ、または対象者に装着されるヘルメットに取り付けられたカメラなどであり、画像(静止画像または動画像)を撮像する。当該カメラは、360度カメラまたは3Dスキャナでもよい。なお、撮像部31は、静止画像を撮像する場合、設定周期毎に画像を撮像するものとする。設定周期は、画像の検索性を考慮し適宜に設定されることが好ましい。また、撮像部31が固定監視カメラや無人移動体カメラである場合、撮像部31は、対象者及び対象者の周囲を撮像することが可能なものとする。また、撮像部31が360度カメラなどの対象者の体に取り付けられるカメラである場合、撮像部31は、対象者の周囲を撮像することが可能なものとする。 The imaging unit 31 may be a fixed surveillance camera installed at a work site or a care facility, a camera equipped on an unmanned mobile body such as a drone or a robot, or a camera attached to a helmet worn by the subject, and captures images (still images or moving images). The camera may be a 360-degree camera or a 3D scanner. When capturing still images, the imaging unit 31 captures images at set intervals. It is preferable that the set interval is appropriately set in consideration of the searchability of the images. Furthermore, when the imaging unit 31 is a fixed surveillance camera or an unmanned mobile body camera, the imaging unit 31 is capable of capturing images of the subject and the subject's surroundings. Furthermore, when the imaging unit 31 is a camera attached to the subject's body, such as a 360-degree camera, the imaging unit 31 is capable of capturing images of the subject's surroundings.

また、撮像装置3は、撮像部31と、時間情報取得部32と、位置情報取得部33と、記憶部34と、制御部35とを備える。 The imaging device 3 also includes an imaging unit 31, a time information acquisition unit 32, a position information acquisition unit 33, a storage unit 34, and a control unit 35.

時間情報取得部32は、電波時計またはGPSなどであり、撮像部31により画像が撮像されときの時間(日時)を示す撮像時間情報を取得する。 The time information acquisition unit 32 is a radio clock or GPS, etc., and acquires imaging time information indicating the time (date and time) when an image was captured by the imaging unit 31.

位置情報取得部33は、GPSまたは屋内位置情報取得端末などであり、撮像部31により画像が撮像されたときの撮像装置3の位置を示す撮像位置情報を取得する。なお、時間情報取得部32及び位置情報取得部33がGPSにより構成される場合、時間情報取得部32と位置情報取得部33を1つにまとめてもよい。 The position information acquisition unit 33 is a GPS or an indoor position information acquisition terminal, and acquires imaging position information indicating the position of the imaging device 3 when an image is captured by the imaging unit 31. Note that when the time information acquisition unit 32 and the position information acquisition unit 33 are configured by a GPS, the time information acquisition unit 32 and the position information acquisition unit 33 may be integrated into one.

記憶部34は、RAM、ROM、またはメモリカードなどであり、撮像装置3により取得される情報(画像、撮像時間情報、撮像位置情報)が記憶される。 The storage unit 34 is a RAM, ROM, or memory card, and stores information acquired by the imaging device 3 (images, imaging time information, imaging position information).

制御部35は、CPUまたはプログラマブルなデバイスなどにより構成され、撮像部31、時間情報取得部32、位置情報取得部33、及び記憶部34のそれぞれの動作を制御する。また、制御部35は、撮像部31により撮像される画像と、時間情報取得部32により取得される撮像時間情報と、位置情報取得部33により取得される撮像位置情報とを対応付けて記憶部34に記憶させる。また、記憶部34に記憶される情報は、無線通信または有線通信またはネットワークを介して生成装置4に送信される。または、記憶部34に記憶される情報は、メモリカードを介して生成装置4に提供される。 The control unit 35 is configured with a CPU or a programmable device, and controls the operation of each of the imaging unit 31, the time information acquisition unit 32, the position information acquisition unit 33, and the storage unit 34. The control unit 35 also stores in the storage unit 34 an image captured by the imaging unit 31, imaging time information acquired by the time information acquisition unit 32, and imaging position information acquired by the position information acquisition unit 33 in association with each other. The information stored in the storage unit 34 is also transmitted to the generation device 4 via wireless communication, wired communication, or a network. Alternatively, the information stored in the storage unit 34 is provided to the generation device 4 via a memory card.

生成装置4は、パーソナルコンピュータ(PC)、モバイルPC、タブレット端末、スマートフォン、携帯電話機、またはネットワーク上のサーバコンピュータなどのコンピュータにより構成される。 The generation device 4 is composed of a computer such as a personal computer (PC), a mobile PC, a tablet terminal, a smartphone, a mobile phone, or a server computer on a network.

また、生成装置4は、判断部41と、生成部42と、記憶部43とを備え、取得装置2により取得された情報と撮像装置3により取得された情報とを用いてヒヤリ・ハットデータベースを生成する。 The generating device 4 also includes a determining unit 41, a generating unit 42, and a memory unit 43, and generates a near-miss database using the information acquired by the acquiring device 2 and the information acquired by the imaging device 3.

判断部41は、取得装置2により取得される状態情報が急峻な変化を検出した場合をヒヤリ・ハットとして検出する。例えば、判断部41は、状態情報取得部21としての加速度センサにより計測された加速度が「静止状態」に対応する加速度範囲に含まれることを一定期間連続して判断すると、対象者の状態が「静止状態」であると判断する。次に、判断部41は、対象者の状態として「静止状態」を特定した後、加速度センサにより計測された加速度が「歩行状態」に対応する加速度範囲に含まれることを一定期間連続して判断すると、対象者の状態が「静止状態」から「歩行状態」に変わったと判断する。一方、判断部41は、対象者の状態として「静止状態」を特定した後、加速度センサにより計測された加速度が予め用意されている何れの加速度範囲に含まれないと判断すると、対象者の状態が異常である、すなわち、ヒヤリ・ハットが発生したと判断する。 The judgment unit 41 detects a sudden change in the state information acquired by the acquisition device 2 as a near miss. For example, if the judgment unit 41 judges that the acceleration measured by the acceleration sensor as the state information acquisition unit 21 is included in the acceleration range corresponding to the "stationary state" for a certain period of time, the judgment unit 41 judges that the state of the subject is "stationary state". Next, if the judgment unit 41 determines that the acceleration measured by the acceleration sensor is included in the acceleration range corresponding to the "walking state" for a certain period of time after identifying the "stationary state" as the state of the subject, the judgment unit 41 judges that the state of the subject has changed from the "stationary state" to the "walking state". On the other hand, if the judgment unit 41 determines that the acceleration measured by the acceleration sensor is not included in any of the acceleration ranges prepared in advance after identifying the "stationary state" as the state of the subject, the judgment unit 41 judges that the state of the subject is abnormal, that is, that a near miss has occurred.

なお、加速度範囲の判定範囲は、最小値、最大値などの閾値を設けることができる。例えば、「静止状態」に対応する加速度範囲は、対象者が静止しているときに加速度センサにより一定期間連続して計測される複数の加速度のうちの最小値から最大値までの範囲とする。同様に、「歩行状態」に対応する加速度範囲は、対象者が歩行しているときに加速度センサにより一定期間連続して計測される複数の加速度のうちの最小値から最大値までの範囲とする。また、加速度範囲の最小値及び最大値は、固定値であってもよいし、対象者に応じて変化させてもよいし、加速度センサの計測値の単位時間あたりの変化量に応じて変化させてもよい。 The determination range of the acceleration range can be set to thresholds such as minimum and maximum values. For example, the acceleration range corresponding to a "stationary state" is the range from the minimum to maximum of multiple accelerations measured continuously for a certain period by the acceleration sensor when the subject is stationary. Similarly, the acceleration range corresponding to a "walking state" is the range from the minimum to maximum of multiple accelerations measured continuously for a certain period by the acceleration sensor when the subject is walking. Furthermore, the minimum and maximum values of the acceleration range may be fixed values, may be changed depending on the subject, or may be changed depending on the amount of change per unit time in the measurement value of the acceleration sensor.

なお、取得装置2の状態情報取得部21を複数のセンサにより構成する場合、判断部41は、複数のセンサによりそれぞれ計測される計測値を用いて、対象者の状態が異常であるか否かを判断するように構成してもよい。または、取得装置2の状態情報取得部21を複数のセンサにより構成する場合、判断部41は、対象者の状態を特定した後、対象者の状態が特定した状態から異常になったか否かを判断するように構成してもよい。例えば、判断部41は、加速度センサにより計測される計測値と気圧センサにより計測される計測値とを用いて、対象者が階段を下りていることを特定した後、対象者の状態が階段を下りている状態から異常になったか否かを判断するように構成してもよい。 When the status information acquisition unit 21 of the acquisition device 2 is configured with multiple sensors, the determination unit 41 may be configured to determine whether the subject's status is abnormal using the measurement values measured by the multiple sensors. Alternatively, when the status information acquisition unit 21 of the acquisition device 2 is configured with multiple sensors, the determination unit 41 may be configured to determine whether the subject's status has become abnormal from the specified status after identifying the subject's status. For example, the determination unit 41 may be configured to determine whether the subject's status has become abnormal from the status of descending stairs using the measurement values measured by the acceleration sensor and the measurement values measured by the air pressure sensor after identifying that the subject is descending stairs.

また、取得装置2の状態情報取得部21をカメラなどの撮像装置により構成する場合、判断部41は、その撮像装置により撮像された画像(静止画像または動画像)を用いて、対象者の状態が異常であるか否かを判断するように構成してもよい。または、取得装置2の状態情報取得部21を撮像装置により構成する場合、判断部41は、その撮像装置により撮像された画像を用いて、対象者の状態を特定した後、対象者の状態が特定した状態から異常になったか否かを判断するように構成してもよい。例えば、判断部41は、動画像を解析し動画像内の対象者を追跡することで、対象者が歩いていることを特定した後、対象者の状態が歩いている状態から異常になったか否かを判断するように構成してもよい。 In addition, when the status information acquisition unit 21 of the acquisition device 2 is configured with an imaging device such as a camera, the judgment unit 41 may be configured to judge whether the subject's condition is abnormal or not using an image (still image or moving image) captured by the imaging device. Alternatively, when the status information acquisition unit 21 of the acquisition device 2 is configured with an imaging device, the judgment unit 41 may be configured to use an image captured by the imaging device to identify the subject's condition and then judge whether the subject's condition has become abnormal from the identified condition. For example, the judgment unit 41 may be configured to analyze the moving image and track the subject in the moving image to identify that the subject is walking, and then judge whether the subject's condition has become abnormal from the walking condition.

また、取得装置2の状態情報取得部21を加速度センサなどのセンサとカメラなどの撮像装置とにより構成する場合、判断部41は、センサの計測値と撮像装置の画像とを両方用いて、対象者の状態が異常であるか否かを判断するように構成してもよい。または、取得装置2の状態情報取得部21をセンサと撮像装置とにより構成する場合、判断部41は、センサの計測値と撮像装置の画像とを両方用いて、対象者の状態を特定した後、対象者の状態が特定した状態から異常になったか否かを判断するように構成してもよい。例えば、判断部41は、センサの計測値を用いて特定した対象者の状態と、撮像装置の画像を用いて特定した対象者の状態とが互いに一致すると、その特定した対象者の状態を確定するように構成してもよい。また、判断部41は、センサの計測値を用いて対象者の状態が特定した状態から異常になったと判断するとともに、撮像装置の画像を用いて対象者の状態が特定した状態から異常になったと判断する場合、対象者の状態が異常であると確定するように構成してもよい。 In addition, when the state information acquisition unit 21 of the acquisition device 2 is configured with a sensor such as an acceleration sensor and an imaging device such as a camera, the determination unit 41 may be configured to determine whether the state of the subject is abnormal using both the measurement value of the sensor and the image of the imaging device. Alternatively, when the state information acquisition unit 21 of the acquisition device 2 is configured with a sensor and an imaging device, the determination unit 41 may be configured to determine whether the state of the subject has become abnormal from the specified state after identifying the state of the subject using both the measurement value of the sensor and the image of the imaging device. For example, the determination unit 41 may be configured to determine the state of the subject identified when the state of the subject identified using the measurement value of the sensor and the state of the subject identified using the image of the imaging device match each other. In addition, the determination unit 41 may be configured to determine that the state of the subject is abnormal when it is determined that the state of the subject has become abnormal from the specified state using the measurement value of the sensor and the image of the imaging device.

生成部42は、判断部41により対象者の状態が異常であると判断されると、対象者を識別するための識別情報と、対象者の状態が異常であると判断したときに用いた状態情報の取得時間を示す状態情報取得時間情報と、対象者の状態が異常であると判断したときに用いた状態情報の取得位置を示す状態情報取得位置情報と、対象者の状態が異常であると判断したときに用いた状態情報の取得位置で撮像された画像とを対応付けてヒヤリ・ハットデータベースを生成する。 When the determination unit 41 determines that the subject's condition is abnormal, the generation unit 42 generates a near-miss database by associating identification information for identifying the subject, status information acquisition time information indicating the acquisition time of the status information used when it was determined that the subject's condition is abnormal, status information acquisition position information indicating the acquisition position of the status information used when it was determined that the subject's condition is abnormal, and an image captured at the acquisition position of the status information used when it was determined that the subject's condition is abnormal.

なお、複数の撮像装置3を備えてヒヤリ・ハットデータベース生成システム1が構成される場合、生成部42は、識別情報と、状態情報取得時間情報と、状態情報取得位置情報と、複数の撮像装置3によりそれぞれ撮像された画像とを対応付けてヒヤリ・ハットデータベースを生成するように構成してもよい。 When the near-miss database generation system 1 is configured to include multiple imaging devices 3, the generation unit 42 may be configured to generate the near-miss database by associating the identification information, status information acquisition time information, status information acquisition location information, and images captured by each of the multiple imaging devices 3.

記憶部43は、RAMまたはROMなどであり、取得装置2により取得される情報(識別情報、状態情報、状態情報取得時間情報、状態情報取得位置情報)、撮像装置3により取得される情報(画像、撮像時間情報、撮像位置情報)、及び生成部42で生成されるヒヤリ・ハットデータベースが記憶される。 The storage unit 43 is a RAM or a ROM, and stores the information acquired by the acquisition device 2 (identification information, status information, status information acquisition time information, status information acquisition position information), the information acquired by the imaging device 3 (image, imaging time information, imaging position information), and the near-miss database generated by the generation unit 42.

図2は、取得装置2により取得される情報の一例を示す図である。 Figure 2 shows an example of information acquired by acquisition device 2.

図2に示す情報D1は、取得装置2の記憶部24や生成装置4の記憶部43に記憶される情報である。また、情報D1は、識別情報が格納されるフィールドF11と、状態情報が格納されるフィールドF12と、状態情報取得時間情報が格納されるフィールドF13と、状態情報取得位置情報が格納されるフィールドF14とを有する。すなわち、情報D1は、識別情報と、状態情報と、取得時間情報と、取得位置情報とが互いに対応付けられている情報である。図2の例では、情報D1のレコードR11~レコードR20のそれぞれのフィールドF11に「ID1」が格納され、レコードR11~レコードR20のそれぞれのフィールドF14に「緯度:35度41分29秒、経度:139度44分16秒」が格納されている。また、情報D1のレコードR11のフィールドF12に「1.1[G]」が格納され、レコードR11のフィールドF13に「2021年1月15日9時30分31秒」が格納されている。また、情報D1のレコードR12のフィールドF12に「1.0[G]」が格納され、レコードR12のフィールドF13に「2021年1月15日9時30分32秒」が格納されている。また、情報D1のレコードR13のフィールドF12に「0.9[G]」が格納され、レコードR13のフィールドF13に「2021年1月15日9時30分33秒」が格納されている。また、情報D1のレコードR14のフィールドF12に「0.8[G]」が格納され、レコードR14のフィールドF13に「2021年1月15日9時30分34秒」が格納されている。また、情報D1のレコードR15のフィールドF12に「0.6[G]」が格納され、レコードR15のフィールドF13に「2021年1月15日9時30分35秒」が格納されている。また、情報D1のレコードR16のフィールドF12に「1.1[G]」が格納され、レコードR16のフィールドF13に「2021年1月15日9時30分36秒」が格納されている。また、情報D1のレコードR17のフィールドF12に「1.0[G]」が格納され、レコードR17のフィールドF13に「2021年1月15日9時30分37秒」が格納されている。また、情報D1のレコードR18のフィールドF12に「2.9[G]」が格納され、レコードR18のフィールドF13に「2021年1月15日9時30分38秒」が格納されている。また、情報D1のレコードR19のフィールドF12に「0.8[G]」が格納され、レコードR19のフィールドF13に「2021年1月15日9時30分39秒」が格納されている。また、情報D1のレコードR20のフィールドF12に「0.6[G]」が格納され、レコードR20のフィールドF13に「2021年1月15日9時30分40秒」が格納されている。 Information D1 shown in FIG. 2 is information stored in the memory unit 24 of the acquisition device 2 and the memory unit 43 of the generation device 4. Information D1 also has a field F11 in which identification information is stored, a field F12 in which status information is stored, a field F13 in which status information acquisition time information is stored, and a field F14 in which status information acquisition position information is stored. In other words, information D1 is information in which identification information, status information, acquisition time information, and acquisition position information are associated with one another. In the example of FIG. 2, "ID1" is stored in field F11 of each of records R11 to R20 of information D1, and "latitude: 35 degrees 41 minutes 29 seconds, longitude: 139 degrees 44 minutes 16 seconds" is stored in field F14 of each of records R11 to R20. In addition, "1.1 [G]" is stored in the field F12 of record R11 of information D1, and "January 15, 2021, 9:30:31 seconds" is stored in the field F13 of record R11. In addition, "1.0 [G]" is stored in the field F12 of record R12 of information D1, and "January 15, 2021, 9:30:32 seconds" is stored in the field F13 of record R12. In addition, "0.9 [G]" is stored in the field F12 of record R13 of information D1, and "January 15, 2021, 9:30:33 seconds" is stored in the field F13 of record R13. In addition, "0.8 [G]" is stored in the field F12 of record R14 of information D1, and "January 15, 2021, 9:30:34 seconds" is stored in the field F13 of record R14. In addition, "0.6 [G]" is stored in the field F12 of record R15 of information D1, and "January 15, 2021, 9:30:35" is stored in the field F13 of record R15. In addition, "1.1 [G]" is stored in the field F12 of record R16 of information D1, and "January 15, 2021, 9:30:36" is stored in the field F13 of record R16. In addition, "1.0 [G]" is stored in the field F12 of record R17 of information D1, and "January 15, 2021, 9:30:37" is stored in the field F13 of record R17. In addition, "2.9 [G]" is stored in the field F12 of record R18 of information D1, and "January 15, 2021, 9:30:38" is stored in the field F13 of record R18. In addition, "0.8 [G]" is stored in field F12 of record R19 of information D1, and "January 15, 2021, 9:30:39" is stored in field F13 of record R19. In addition, "0.6 [G]" is stored in field F12 of record R20 of information D1, and "January 15, 2021, 9:30:40" is stored in field F13 of record R20.

図3は、撮像装置3により取得される情報の一例を示す図である。 Figure 3 shows an example of information acquired by the imaging device 3.

図3に示す情報D2は、撮像装置3の記憶部34や生成装置4の記憶部43に記憶される情報である。また、情報D2は、画像が格納されるフィールドF21と、撮像時間情報が格納されるフィールドF22と、撮像位置情報が格納されるフィールドF23とを有する。すなわち、情報D2は、画像情報と、撮像時間情報と、撮像位置情報とが互いに対応付けられている情報である。図3の例では、情報D2のレコードR21のフィールドF21に「Image1」が格納され、レコードR21のフィールドF22に「2021年1月15日9時30分31秒」が格納されている。また、情報D2のレコードR22のフィールドF21に「Image2」が格納され、レコードR22のフィールドF22に「2021年1月15日9時30分32秒」が格納されている。また、情報D2のレコードR23のフィールドF21に「Image3」が格納され、レコードR23のフィールドF22に「2021年1月15日9時30分33秒」が格納されている。また、情報D2のレコードR24のフィールドF21に「Image4」が格納され、レコードR24のフィールドF22に「2021年1月15日9時30分34秒」が格納されている。また、情報D2のレコードR25のフィールドF21に「Image5」が格納され、レコードR25のフィールドF22に「2021年1月15日9時30分35秒」が格納されている。また、情報D2のレコードR26のフィールドF21に「Image6」が格納され、レコードR26のフィールドF22に「2021年1月15日9時30分36秒」が格納されている。また、情報D2のレコードR27のフィールドF21に「Image7」が格納され、レコードR27のフィールドF22に「2021年1月15日9時30分37秒」が格納されている。また、情報D2のレコードR28のフィールドF21に「Image8」が格納され、レコードR28のフィールドF22に「2021年1月15日9時30分38秒」が格納されている。また、情報D2のレコードR29のフィールドF21に「Image9」が格納され、レコードR29のフィールドF22に「2021年1月15日9時30分39秒」が格納されている。また、情報D2のレコードR30のフィールドF21に「Image10」が格納され、レコードR30のフィールドF22に「2021年1月15日9時30分40秒」が格納されている。また、情報D2のレコードR21~レコードR30のそれぞれのフィールドF23に「緯度:35度41分29秒、経度:139度44分16秒」が格納されている。 Information D2 shown in FIG. 3 is information stored in the memory unit 34 of the imaging device 3 and the memory unit 43 of the generation device 4. Information D2 also has a field F21 in which an image is stored, a field F22 in which imaging time information is stored, and a field F23 in which imaging position information is stored. That is, information D2 is information in which image information, imaging time information, and imaging position information are associated with each other. In the example of FIG. 3, "Image1" is stored in field F21 of record R21 of information D2, and "January 15, 2021, 9:30:31" is stored in field F22 of record R21. Also, "Image2" is stored in field F21 of record R22 of information D2, and "January 15, 2021, 9:30:32" is stored in field F22 of record R22. In addition, "Image3" is stored in the field F21 of record R23 of information D2, and "January 15, 2021, 9:30:33" is stored in the field F22 of record R23. In addition, "Image4" is stored in the field F21 of record R24 of information D2, and "January 15, 2021, 9:30:34" is stored in the field F22 of record R24. In addition, "Image5" is stored in the field F21 of record R25 of information D2, and "January 15, 2021, 9:30:35" is stored in the field F22 of record R25. In addition, "Image6" is stored in the field F21 of record R26 of information D2, and "January 15, 2021, 9:30:36" is stored in the field F22 of record R26. In addition, "Image7" is stored in the field F21 of record R27 of information D2, and "January 15, 2021, 9:30:37" is stored in the field F22 of record R27. In addition, "Image8" is stored in the field F21 of record R28 of information D2, and "January 15, 2021, 9:30:38" is stored in the field F22 of record R28. In addition, "Image9" is stored in the field F21 of record R29 of information D2, and "January 15, 2021, 9:30:39" is stored in the field F22 of record R29. In addition, "Image10" is stored in the field F21 of record R30 of information D2, and "January 15, 2021, 9:30:40" is stored in the field F22 of record R30. Additionally, "Latitude: 35 degrees 41 minutes 29 seconds, Longitude: 139 degrees 44 minutes 16 seconds" is stored in field F23 of each of records R21 to R30 of information D2.

図4は、ヒヤリ・ハットデータベースの一例を示す図である。 Figure 4 shows an example of a near-miss database.

図4に示すヒヤリ・ハットデータベースD3は、生成装置4の記憶部43に記憶される情報である。また、ヒヤリ・ハットデータベースD3は、識別情報が格納されるフィールドF31と、状態情報が格納されるフィールドF32と、状態情報取得時間情報が格納されるフィールドF33と、状態情報取得位置情報が格納されるフィールドF34と、画像が格納されるフィールドF35とを有する。すなわち、ヒヤリ・ハットデータベースD3は、識別情報と、状態情報と、状態情報取得時間情報と、状態情報取得位置情報と、画像とが互いに対応付けられている情報である。図4の例では、情報D3のレコードR31のフィールドF31に「ID1」が格納され、レコードR31のフィールドF32に「2.9[G]」が格納され、レコードR31のフィールドF33に「2021年1月15日9時30分38秒」が格納され、レコードR31のフィールドF34に「緯度:35度41分29秒、経度:139度44分16秒」が格納され、レコードR31のフィールドF35に「Image8」が格納されている。 The near-miss database D3 shown in Figure 4 is information stored in the memory unit 43 of the generation device 4. The near-miss database D3 also has a field F31 in which identification information is stored, a field F32 in which status information is stored, a field F33 in which status information acquisition time information is stored, a field F34 in which status information acquisition position information is stored, and a field F35 in which images are stored. In other words, the near-miss database D3 is information in which identification information, status information, status information acquisition time information, status information acquisition position information, and images are associated with one another. In the example of FIG. 4, "ID1" is stored in field F31 of record R31 of information D3, "2.9 [G]" is stored in field F32 of record R31, "January 15, 2021, 9:30:38" is stored in field F33 of record R31, "Latitude: 35 degrees 41 minutes 29 seconds, longitude: 139 degrees 44 minutes 16 seconds" is stored in field F34 of record R31, and "Image 8" is stored in field F35 of record R31.

ここで、図2に示す情報D1及び図3に示す情報D2が生成装置4の記憶部43に記憶されている場合において、対象者が歩いている状態を特定する場合の加速度範囲の最小値を0.6[G]とし最大値を1.2[G]とし、一定時間を5[秒]とする場合を想定する。 Here, assume that information D1 shown in FIG. 2 and information D2 shown in FIG. 3 are stored in the memory unit 43 of the generating device 4, the minimum value of the acceleration range for identifying the state in which the subject is walking is 0.6 [G], the maximum value is 1.2 [G], and the fixed time is 5 [seconds].

まず、生成装置4の判断部41は、情報D1のレコードR11~レコードR20のうち、一定時間(5[秒])分のレコードR11~レコードR15のそれぞれのフィールドF12に格納されている各状態情報(1.1[G]、1.0[G]、0.9[G]、0.8[G]、0.6[G])が加速度範囲(0.6[G]~1.2[G])内であると判断すると、対象者の状態として「歩いている状態」を特定する。次に、判断部41は、情報D1のレコードR11~R20のうち、次の一定時間(5[秒])分のレコードR16~レコードR20のそれぞれのフィールドF12に格納されている各状態情報のうちのレコードR18のフィールドF12に格納されている状態情報(2.9[G])が所定範囲(0.6[G]~1.2[G])外であると判断すると、対象者の状態が「歩いている状態」から異常になったと判断する。すなわち、判断部41は、対象者が歩いているときにヒヤリ・ハットが発生したと判断する。なお、生成部42は、判断部41により判断された内容(対象者が歩いているときにヒヤリ・ハットが発生したこと)をヒヤリ・ハットデータベースに含めるように構成してもよい。 First, when the determination unit 41 of the generating device 4 determines that the state information (1.1 [G], 1.0 [G], 0.9 [G], 0.8 [G], 0.6 [G]) stored in the field F12 of each of the records R11 to R15 for a certain time period (5 [seconds]) among the records R11 to R20 of the information D1 is within the acceleration range (0.6 [G] to 1.2 [G]), it identifies the state of the subject as "walking state". Next, when the determination unit 41 determines that the state information (2.9 [G]) stored in the field F12 of record R18 among the state information stored in the field F12 of each of the records R16 to R20 for the next certain time period (5 [seconds]) among the records R11 to R20 of the information D1 is outside the predetermined range (0.6 [G] to 1.2 [G]), it determines that the state of the subject has changed from "walking state" to abnormal. That is, the determination unit 41 determines that a near miss occurred while the subject was walking. The generation unit 42 may be configured to include the content determined by the determination unit 41 (that a near miss occurred while the subject was walking) in the near miss database.

次に、生成装置4の生成部42は、情報D1のレコードR18の状態情報取得時間情報及び状態情報取得位置情報と一致する撮像時間情報及び撮像位置情報に対応するレコードR28を情報D2から検索する。これにより、対象者の状態が異常であると判断したときに用いた状態情報の取得位置または近傍で撮像された画像として、情報D2のレコードR28のフィールドF21に格納されている画像(Image8)を抽出することができる。そして、生成部42は、情報D2のレコードR28のフィールドF21に格納されている画像(Image8)を、情報D1のレコードR18に対応付けることで、レコードR31から構成されるヒヤリ・ハットデータベースD3を生成する。これにより、対象者または対象者の活動を管理する管理者がヒヤリ・ハットデータベースD3のレコードR31のフィールドF31~フィールドF34に格納されている各情報を確認することにより、いつ(「緯度:35度41分29秒、経度:139度44分16秒」)、どこで(「2021年1月15日9時30分35秒」~「2021年1月15日9時30分40秒」)、だれが(「ID1」)を認識することができるとともに、レコードR31のフィールドF35に格納されている画像を確認することにより、なにをしていて、どうして、どうなったか(例えば、歩行しているときに床に散乱している資材でつまずいたこと)を認識することができる。なお、情報D2は、ヒヤリ・ハットが発生したときのみ記録するように設定されてもよい。ヒヤリ・ハットが発生したときのみ記録するようにすることで、記憶装置の容量を少なくすることができる。また、生成装置4に送信するデータ量を少なくすることができる。決められた時間に情報D2をまとめて送信するように設定されてもよい。 Next, the generation unit 42 of the generation device 4 searches the information D2 for record R28 corresponding to the imaging time information and imaging position information that match the status information acquisition time information and status information acquisition position information of record R18 of information D1. This makes it possible to extract the image (Image8) stored in field F21 of record R28 of information D2 as the image captured at or near the acquisition position of the status information used when it was determined that the subject's condition was abnormal. The generation unit 42 then generates a near-miss database D3 consisting of record R31 by associating the image (Image8) stored in field F21 of record R28 of information D2 with record R18 of information D1. As a result, the subject or the administrator who manages the subject's activities can confirm when ("Latitude: 35°41'29", Longitude: 139°44'16"), where ("January 15, 2021 9:30:35" to "January 15, 2021 9:30:40"), and who ("ID1") by checking each piece of information stored in fields F31 to F34 of record R31 of the near-miss database D3, and can also confirm what was done, why, and what happened (for example, tripping over materials scattered on the floor while walking) by checking the image stored in field F35 of record R31. Note that the information D2 may be set to be recorded only when a near-miss occurs. By recording only when a near-miss occurs, the capacity of the storage device can be reduced. In addition, the amount of data transmitted to the generating device 4 can be reduced. The information D2 may be set to be transmitted collectively at a set time.

なお、生成部42は、対象者の状態が異常になったときの情報D1のレコードR18を含むレコードR18前後のレコードR16~レコードR20と、それらレコードR16~レコードR20と時間及び位置が一致する情報D2のレコードR26~レコードR30の各画像(Image6~Image10)とによりヒヤリ・ハットデータベースD3を生成するように構成してもよい。また、生成部42は、複数の対象者についてヒヤリ・ハットデータベースを生成するように構成してもよい。また、生成部42は、ヒヤリ・ハットデータベースに基づいて、対象者が異常になったときの状況について分析および統計処理し、その分析および統計処理から対象者が異常になった原因を抽出するように構成してもよい。これにより、対象者または管理者は、ヒヤリ・ハットデータベースD3の各画像を確認することにより、対象者の異常時の前後の状況を把握することができる。したがって、対象者や管理者は、ヒヤリ・ハットデータベースD3を確認することで、いつ、どこで、だれが異常になったか(ヒヤリ・ハットが発生したか)を認識することができるだけでなく、異常になったときの状況を分析および統計処理し、異常になった原因を抽出することができる。 The generating unit 42 may be configured to generate the near-miss database D3 from records R16 to R20 before and after record R18, including record R18 in information D1 when the subject's condition becomes abnormal, and each image (Image 6 to Image 10) of records R26 to R30 in information D2 that coincides with the time and position of records R16 to R20. The generating unit 42 may also be configured to generate near-miss databases for multiple subjects. The generating unit 42 may also be configured to analyze and statistically process the situation when the subject becomes abnormal based on the near-miss database, and extract the cause of the subject's abnormality from the analysis and statistical processing. In this way, the subject or the manager can understand the situation before and after the subject's abnormality by checking each image in the near-miss database D3. Therefore, by checking the near-miss database D3, the target person or manager can not only recognize when, where, and who became abnormal (whether a near-miss occurred), but also analyze and statistically process the situation when the abnormality occurred, and extract the cause of the abnormality.

図5は、取得装置2の動作の一例を示すフローチャートである。なお、取得装置2は、無線通信または有線通信またはネットワークを介して生成装置4と情報を送受信することができるものとする。 Figure 5 is a flowchart showing an example of the operation of the acquisition device 2. Note that the acquisition device 2 is capable of transmitting and receiving information to and from the generation device 4 via wireless communication, wired communication, or a network.

まず、取得装置2の制御部25は、状態情報取得開始指示を受信すると(ステップS11:Yes)、状態情報取得部21、時間情報取得部22、及び位置情報取得部23のそれぞれの動作を制御することにより、識別情報、状態情報、状態情報取得時間情報、及び状態情報取得位置情報を取得し、それら情報を互いに対応付けて記憶部24に記憶させる(ステップS12)。 First, when the control unit 25 of the acquisition device 2 receives an instruction to start acquiring status information (step S11: Yes), it controls the operation of the status information acquisition unit 21, the time information acquisition unit 22, and the position information acquisition unit 23 to acquire identification information, status information, status information acquisition time information, and status information acquisition position information, and associates these pieces of information with each other and stores them in the memory unit 24 (step S12).

次に、制御部25は、状態情報取得終了指示を受信しない場合(ステップS13:No)、状態情報取得部21、時間情報取得部22、及び位置情報取得部23のそれぞれの動作制御を継続することで、識別情報と状態情報と状態情報取得時間情報と状態情報取得位置情報とが対応付けられた情報を記憶部34に蓄積する(ステップS12)。 Next, if the control unit 25 does not receive an instruction to end status information acquisition (step S13: No), it continues to control the operation of the status information acquisition unit 21, the time information acquisition unit 22, and the position information acquisition unit 23, and accumulates information in which the identification information, status information, status information acquisition time information, and status information acquisition position information are associated with each other in the memory unit 34 (step S12).

一方、制御部25は、状態情報取得終了指示を受信すると(ステップS13:Yes)、記憶部24に記憶させた情報を生成装置4に送信する(ステップS14)。 On the other hand, when the control unit 25 receives an instruction to end status information acquisition (step S13: Yes), it transmits the information stored in the memory unit 24 to the generation device 4 (step S14).

図6は、撮像装置3の動作の一例を示すフローチャートである。なお、撮像装置3は、無線通信または有線通信またはネットワークを介して生成装置4と情報を送受信することができるものとする。 Figure 6 is a flowchart showing an example of the operation of the imaging device 3. Note that the imaging device 3 is capable of transmitting and receiving information to and from the generating device 4 via wireless communication, wired communication, or a network.

まず、撮像装置3の制御部35は、画像取得開始指示を受信すると(ステップS21:Yes)、撮像部31、時間情報取得部32、及び位置情報取得部33のそれぞれの動作を制御することにより、画像、撮像時間情報、及び撮像位置情報を取得し、それら情報を互いに対応付けて記憶部34に記憶させる(ステップS22)。 First, when the control unit 35 of the imaging device 3 receives an instruction to start image acquisition (step S21: Yes), it controls the operation of the imaging unit 31, the time information acquisition unit 32, and the position information acquisition unit 33 to acquire an image, imaging time information, and imaging position information, and stores these pieces of information in association with each other in the memory unit 34 (step S22).

次に、制御部35は、画像取得終了指示を受信しない場合(ステップS23:No)、撮像部31、時間情報取得部32、及び位置情報取得部33のそれぞれの動作制御を継続することで、画像と撮像時間情報と撮像位置情報とが対応付けられた情報を記憶部34に蓄積する(ステップS22)。 Next, if the control unit 35 does not receive an instruction to end image acquisition (step S23: No), it continues to control the operation of the imaging unit 31, the time information acquisition unit 32, and the position information acquisition unit 33, and accumulates information in which the image, imaging time information, and imaging position information are associated with each other in the memory unit 34 (step S22).

一方、制御部35は、画像取得終了指示を受信すると(ステップS23:Yes)、記憶部34に記憶させた情報を生成装置4に送信する(ステップS24)。 On the other hand, when the control unit 35 receives an instruction to end image acquisition (step S23: Yes), it transmits the information stored in the memory unit 34 to the generation device 4 (step S24).

図7は、生成装置4の動作の一例を示すフローチャートである。なお、生成装置4は、無線通信または有線通信またはネットワークを介して取得装置2及び撮像装置3と情報を送受信することができるものとする。 Figure 7 is a flowchart showing an example of the operation of the generating device 4. Note that the generating device 4 is capable of transmitting and receiving information to and from the acquiring device 2 and the imaging device 3 via wireless communication, wired communication, or a network.

まず、生成装置4の判断部41は、作業現場や介護施設などの所定の場所に対象者が入場したことを判断すると(ステップS31:Yes)、状態情報取得開始指示を取得装置2に送信するとともに画像取得開始指示を撮像装置3に送信する(ステップS32)。例えば、生成装置4は、作業現場や介護施設の入口付近に設置されているRFID(Radio Frequency Identification)受信機、磁気読み取り機、赤外線センサ、または顔認証などにより、作業現場や介護施設に対象者が入場したことを判断する。または、生成装置4は、作業現場や介護施設の入口付近に設置されている、または対象者が装着した機器が備える計測開始ボタンが対象者により押下されたことを検知することにより、作業現場や介護施設に対象者が入場したことを判断する。 First, when the determination unit 41 of the generating device 4 determines that the subject has entered a predetermined location such as a work site or a care facility (step S31: Yes), it transmits an instruction to start acquiring status information to the acquiring device 2 and an instruction to start acquiring images to the imaging device 3 (step S32). For example, the generating device 4 determines that the subject has entered the work site or care facility by using an RFID (Radio Frequency Identification) receiver, a magnetic reader, an infrared sensor, or face recognition that is installed near the entrance to the work site or care facility. Alternatively, the generating device 4 determines that the subject has entered the work site or care facility by detecting that the subject has pressed a measurement start button installed near the entrance to the work site or care facility or provided on a device worn by the subject.

次に、判断部41は、作業現場や介護施設などの所定の場所から対象者が退場したことを判断すると(ステップS33:Yes)、状態情報取得終了指示を取得装置2に送信するとともに画像取得終了指示を撮像装置3に送信する(ステップS34)。例えば、生成部42は、作業現場や介護施設の出口付近に設置されているRFID受信機、磁気読み取り機、赤外線センサ、または顔認証などにより、作業現場や介護施設から対象者が退場したことを判断する。または、生成装置4は、作業現場や介護施設の出口付近に設置されている、または対象者が装着した機器が備える計測終了ボタンが対象者により押下されたことを検知することにより、作業現場や介護施設から対象者が退場したことを判断する。 Next, when the determination unit 41 determines that the subject has left a predetermined location such as a work site or a care facility (step S33: Yes), it transmits an instruction to end status information acquisition to the acquisition device 2 and an instruction to end image acquisition to the imaging device 3 (step S34). For example, the generation unit 42 determines that the subject has left the work site or care facility by using an RFID receiver, magnetic reader, infrared sensor, or face recognition installed near the exit of the work site or care facility. Alternatively, the generation device 4 determines that the subject has left the work site or care facility by detecting that the subject has pressed a measurement end button installed near the exit of the work site or care facility or provided on a device worn by the subject.

次に、判断部41は、取得装置2から情報を受信するとともに撮像装置3から情報を受信すると(ステップS35:Yes)、対象者の状態が異常であるか否かを判断する(ステップS36)。 Next, when the determination unit 41 receives information from the acquisition device 2 and from the imaging device 3 (step S35: Yes), it determines whether the subject's condition is abnormal (step S36).

次に、生成部42は、受信した情報に、対象者の状態が異常であると判断される状態情報が含まれていないと判断すると(ステップS36:No)、ヒヤリ・ハットデータベースを作成せずに、ヒヤリ・ハットデータベース生成処理を終了する。 Next, if the generation unit 42 determines that the received information does not include condition information that determines that the subject's condition is abnormal (step S36: No), it ends the near-miss database generation process without creating a near-miss database.

一方、生成装置4の生成部42は、受信した情報に、対象者の状態が異常であると判断される状態情報が含まれていると(ステップS36:Yes)、その状態情報と、その状態情報に関連する情報(識別情報、状態情報取得時間情報、及び状態情報取得位置情報)と、その状態情報の取得位置で撮像された画像とによりヒヤリ・ハットデータベースを生成し記憶部43に記憶させることでヒヤリ・ハットデータベース生成処理を終了する(ステップS37)。 On the other hand, if the received information includes status information that determines that the subject's condition is abnormal (step S36: Yes), the generation unit 42 of the generation device 4 generates a near-miss database using the status information, information related to the status information (identification information, status information acquisition time information, and status information acquisition position information), and an image captured at the acquisition position of the status information, and stores the near-miss database in the memory unit 43, thereby terminating the near-miss database generation process (step S37).

このように、実施形態のヒヤリ・ハットデータベース生成システム1では、対象者の状態が異常であると判断したときに用いた状態情報だけでなく、その状態情報の取得位置で撮像された画像も含めてヒヤリ・ハットデータベースを生成する構成である。これにより、対象者や管理者は、ヒヤリ・ハットデータベースを確認することで、ヒヤリ・ハット発生時の対象者の状況を把握することが可能なヒヤリ・ハットデータベースを自動的に生成することができる。そのため、対象者や管理者は、ヒヤリ・ハットの発生を防止するための対策を立て易くすることができる。 In this way, the near-miss database generation system 1 of the embodiment is configured to generate a near-miss database that includes not only the status information used when the subject's status was determined to be abnormal, but also the image captured at the acquisition position of that status information. This allows subjects and managers to automatically generate a near-miss database that enables them to understand the subject's status when a near-miss occurs by checking the near-miss database. This makes it easier for subjects and managers to take measures to prevent the occurrence of near-misses.

また、複数の対象者に対してもヒヤリ・ハットデータベースD3を収集することができる。また、複数の作業現場に対しても適用することができる。複数の対象者のヒヤリ・ハット情報を収集することで、ヒヤリ・ハットデータベースを作成することができる。ヒヤリ・ハットデータベースを構築することで、複数の作業現場等におけるヒヤリ・ハットの発生場所や、状況、時刻などについて分析および統計処理を行い、その結果を用いて作業現場環境の改善、働き方の改善を行うことができる。 The near-miss database D3 can also be collected for multiple subjects. It can also be applied to multiple work sites. A near-miss database can be created by collecting near-miss information for multiple subjects. By constructing a near-miss database, analysis and statistical processing can be performed on the location, situation, time, etc. of near-miss occurrences at multiple work sites, etc., and the results can be used to improve the work site environment and work styles.

図8は、生成装置4を実現するためのコンピュータの一例を示す図である。 Figure 8 shows an example of a computer for implementing the generation device 4.

図8に示すコンピュータ80は、プロセッサ81と、メモリ82と、記憶装置83と、読取装置84と、通信インタフェース85と、入出力インタフェース86とを備える。なお、プロセッサ81、メモリ82、記憶装置83、読取装置84、通信インタフェース85、及び入出力インタフェース86は、バス87を介して互いに接続されている。 The computer 80 shown in FIG. 8 includes a processor 81, a memory 82, a storage device 83, a reader 84, a communication interface 85, and an input/output interface 86. The processor 81, memory 82, storage device 83, reader 84, communication interface 85, and input/output interface 86 are connected to each other via a bus 87.

プロセッサ81は、シングルプロセッサまたはマルチプロセッサまたはマルチコアなどにより構成される。また、プロセッサ81は、記憶装置83に格納されているプログラムを読み出し、メモリ82を利用して、図7に示すフローチャートの手順を記述したプログラムを実行することにより、判断部41及び生成部42の一部または全部の機能を提供する。 The processor 81 is configured as a single processor, a multi-processor, a multi-core, or the like. The processor 81 also reads out a program stored in the storage device 83, and uses the memory 82 to execute a program that describes the procedure of the flowchart shown in FIG. 7, thereby providing some or all of the functions of the determination unit 41 and the generation unit 42.

メモリ82は、半導体メモリなどであり、RAM領域およびROM領域を含んでいてよい。 Memory 82 may be a semiconductor memory or the like, and may include a RAM area and a ROM area.

記憶装置83は、ハードディスクやフラッシュメモリなどの半導体メモリ、または、外部記憶装置である。 The storage device 83 is a semiconductor memory such as a hard disk or flash memory, or an external storage device.

読取装置84は、プロセッサ81の指示に従って着脱可能記憶媒体89にアクセスする。着脱可能記憶媒体89は、半導体デバイス、磁気的作用により情報が入出力される媒体、光学的作用により情報が入出力される媒体などにより実現される。なお、半導体デバイスは、USB(Universal Serial Bus)メモリなどである。また、磁気的作用により情報が入出力される媒体は、磁気ディスクなどである。光学的作用により情報が入出力される媒体は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、Blu-ray Disc(Blu-rayは登録商標)などである。 The reader 84 accesses the removable storage medium 89 according to instructions from the processor 81. The removable storage medium 89 is realized by a semiconductor device, a medium where information is input and output by magnetic action, a medium where information is input and output by optical action, etc. The semiconductor device is a USB (Universal Serial Bus) memory, etc. The medium where information is input and output by magnetic action is a magnetic disk, etc. The medium where information is input and output by optical action is a CD (Compact Disc)-ROM, a DVD (Digital Versatile Disc), a Blu-ray Disc (Blu-ray is a registered trademark), etc.

上述の記憶部43は、例えば、メモリ82、記憶装置83、および着脱可能記憶媒体89を含んでよい。例えば、記憶装置83には、図2に示す情報D1、図3に示す情報D2、及び図4に示すヒヤリ・ハットデータベースD3が格納されている。 The storage unit 43 may include, for example, a memory 82, a storage device 83, and a removable storage medium 89. For example, the storage device 83 stores information D1 shown in FIG. 2, information D2 shown in FIG. 3, and a near-miss database D3 shown in FIG. 4.

通信インタフェース85は、プロセッサ81の指示に従って、他の装置と通信する。例えば、生成装置4は、通信インタフェース85を介して取得装置2及び撮像装置3から情報を収集してよい。 The communication interface 85 communicates with other devices according to instructions from the processor 81. For example, the generating device 4 may collect information from the acquiring device 2 and the imaging device 3 via the communication interface 85.

入出力インタフェース86は、例えば、入力装置および出力装置との間のインタフェースであってよい。入力装置は、対象者や管理者からの指示を受け付けるキーボード、マウス、タッチパネルなどのデバイスである。出力装置は、ディスプレイなどの表示装置、または、スピーカなどの音声装置である。 The input/output interface 86 may be, for example, an interface between an input device and an output device. The input device is a device such as a keyboard, mouse, or touch panel that accepts instructions from the subject or administrator. The output device is a display device such as a display, or an audio device such as a speaker.

実施形態に係る各プログラムは、例えば、下記の形態で生成装置4に提供される。
(1)記憶装置83に予めインストールされている。
(2)着脱可能記憶媒体89により提供される。
(3)プログラムサーバなどのサーバから提供される。
Each program according to the embodiment is provided to the generating device 4 in the following form, for example.
(1) It is pre-installed in the storage device 83.
(2) Provided by a removable storage medium 89.
(3) Provided from a server such as a program server.

なお、図8を参照して述べた生成装置4を実現するためのコンピュータ80のハードウェア構成は例示であり、実施形態はこれに限定されるものではない。例えば、上述の構成の一部が、削除されてもよく、また、新たな構成が追加されてもよい。また、別の実施形態では、例えば、上述の生成装置4の一部または全部の機能がFPGA、SoC(System-on-a-Chip)、ASIC(Application Specific Integrated Circuit)、または、PLDなどによるハードウェアとして実装されてもよい。 The hardware configuration of the computer 80 for realizing the generating device 4 described with reference to FIG. 8 is an example, and the embodiment is not limited to this. For example, part of the above-mentioned configuration may be deleted, or new configuration may be added. In another embodiment, for example, part or all of the functions of the above-mentioned generating device 4 may be implemented as hardware such as an FPGA, a System-on-a-Chip (SoC), an Application Specific Integrated Circuit (ASIC), or a PLD.

以上において、いくつかの実施形態が説明される。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態および代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨および範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態が実施され得ることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除して、または実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。 In the above, several embodiments are described. However, the embodiments are not limited to the above embodiments, and should be understood to include various modified and alternative forms of the above embodiments. For example, it will be understood that the various embodiments can be embodied by modifying the components without departing from the spirit and scope of the embodiments. It will also be understood that various embodiments can be implemented by appropriately combining multiple components disclosed in the above-mentioned embodiments. Furthermore, it will be understood by those skilled in the art that various embodiments can be implemented by deleting some components from all the components shown in the embodiments, or by adding some components to the components shown in the embodiments.

1 ヒヤリ・ハットデータベース生成システム
2 取得装置
3 撮像装置
4 生成装置
21 状態情報取得部
22 時間情報取得部
23 位置情報取得部
24 記憶部
25 制御部
31 撮像部
32 時間情報取得部
33 位置情報取得部
34 記憶部
35 制御部
41 判断部
42 生成部
43 記憶部

Reference Signs List 1 Near-miss database generation system 2 Acquisition device 3 Imaging device 4 Generation device 21 Status information acquisition unit 22 Time information acquisition unit 23 Position information acquisition unit 24 Memory unit 25 Control unit 31 Imaging unit 32 Time information acquisition unit 33 Position information acquisition unit 34 Memory unit 35 Control unit 41 Determination unit 42 Generation unit 43 Memory unit

Claims (4)

ヒヤリ・ハットデータベースを生成する生成装置におけるヒヤリ・ハットデータベース生成方法であって、
前記生成装置は、
取得装置から送信される、対象者を識別する識別情報、前記対象者の状態に関する状態情報、前記状態情報が取得されたときの時間を示す状態情報取得時間情報、及び前記状態情報が取得されたときの前記取得装置の位置を示す状態情報取得位置情報が対応付けられた第1レコードを記憶部に記憶し、
撮像装置から送信される、前記撮像装置に備えられる撮像部により撮像された画像、前記画像が撮像されたときの時間を示す撮像時間情報、及び前記画像が撮像されたときの前記撮像装置の位置を示す撮像位置情報が対応付けられた第2レコードを前記記憶部に記憶し、
前記状態情報に基づいて前記対象者の状態が異常であると判断すると、前記対象者の状態が異常であると判断した前記状態情報に対応する前記第1レコードの前記状態情報取得時間情報及び前記状態情報取得位置情報と時間及び位置が一致する前記撮像時間情報及び前記撮像位置情報に対応する前記第2レコードを前記記憶部から検索し、
前記検索した前記第2レコードの前記画像を、前記対象者の状態が異常であると判断した前記状態情報に対応する前記第1レコードと対応付けて前記ヒヤリ・ハットデータベースを生成する
ヒヤリ・ハットデータベース生成方法。
A near-miss database generating method in a generating device that generates a near-miss database, comprising:
The generating device comprises:
storing a first record in a storage unit in which identification information for identifying the subject, status information regarding a status of the subject, status information acquisition time information indicating a time when the status information was acquired, and status information acquisition position information indicating a position of the acquisition device when the status information was acquired are associated with each other, the first record being transmitted from the acquisition device;
storing in the storage unit a second record in which an image captured by an imaging unit included in the imaging device, imaging time information indicating the time when the image was captured, and imaging position information indicating the position of the imaging device when the image was captured are associated with each other, the second record being transmitted from the imaging device;
when it is determined that the condition of the subject is abnormal based on the condition information, searching the storage unit for the second record corresponding to the imaging time information and the imaging position information whose time and position match the condition information acquisition time information and the condition information acquisition position information of the first record corresponding to the condition information that determined that the condition of the subject is abnormal,
A near-miss database generation method for generating the near-miss database by associating the image of the searched second record with the first record corresponding to the condition information that determines that the subject's condition is abnormal.
生成装置と、
取得装置と、
撮像部を備える撮像装置と、
を備え、
前記生成装置は、
前記取得装置から送信される、対象者を識別する識別情報、前記対象者の状態に関する状態情報、前記状態情報が取得されたときの時間を示す状態情報取得時間情報、及び前記状態情報が取得されたときの前記取得装置の位置を示す状態情報取得位置情報が対応付けられた第1レコードを記憶するとともに、前記撮像装置から送信される、前記撮像部により撮像された画像、前記画像が撮像されたときの時間を示す撮像時間情報、及び前記画像が撮像されたときの前記撮像装置の位置を示す撮像位置情報が対応付けられた第2レコードを記憶する記憶部と、
前記状態情報に基づいて前記対象者の状態が異常であるか否かを判断する判断部と、
前記判断部により前記対象者の状態が異常であると判断されると、前記対象者の状態が異常であると判断した前記状態情報に対応する前記第1レコードの前記状態情報取得時間情報及び前記状態情報取得位置情報と時間及び位置が一致する前記撮像時間情報及び前記撮像位置情報に対応する前記第2レコードを前記記憶部から検索し、前記検索した前記第2レコードの前記画像を、前記対象者の状態が異常であると判断した前記状態情報に対応する前記第1レコードと対応付けてヒヤリ・ハットデータベースを生成する生成部と、
を備えるヒヤリ・ハットデータベース生成システム。
A generating device;
An acquisition device;
An imaging device including an imaging unit;
Equipped with
The generating device comprises:
a storage unit that stores a first record in which identification information for identifying a subject, status information related to a status of the subject, status information acquisition time information indicating the time when the status information was acquired, and status information acquisition position information indicating the position of the acquisition device when the status information was acquired are associated with each other, the first record being transmitted from the acquisition device, and the storage unit that stores a second record in which an image captured by the imaging unit, imaging time information indicating the time when the image was captured, and imaging position information indicating the position of the imaging device when the image was captured are associated with each other, the first record being transmitted from the acquisition device,
a determination unit that determines whether a condition of the subject is abnormal based on the condition information;
a generation unit that, when the determination unit determines that the subject's condition is abnormal, searches the storage unit for the second record corresponding to the image capture time information and the image capture position information whose time and position match the status information acquisition time information and the status information acquisition position information of the first record corresponding to the status information that determined that the subject's condition is abnormal, and generates a near-miss database by associating the image of the searched second record with the first record corresponding to the status information that determined that the subject's condition is abnormal;
A near-miss database generation system comprising:
請求項1に記載のヒヤリ・ハットデータベース生成方法であって、2. The method for generating a near-miss database according to claim 1,
前記生成装置は、所定の場所から前記対象者が退場したことを判断すると、前記取得装置から送信される、前記識別情報、前記状態情報、前記状態情報取得時間情報、及び前記状態情報取得時間情報を受信するとともに、前記撮像装置から送信される、前記画像、前記撮像時間情報、及び前記撮像位置情報を受信するWhen the generating device determines that the target person has left a predetermined location, the generating device receives the identification information, the status information, the status information acquisition time information, and the status information acquisition time information transmitted from the acquiring device, and also receives the image, the imaging time information, and the imaging position information transmitted from the imaging device.
ヒヤリ・ハットデータベース生成方法。How to generate a near-miss database.
請求項2に記載のヒヤリ・ハットデータベース生成システムであって、3. The near-miss database generation system according to claim 2,
前記生成装置は、所定の場所から前記対象者が退場したことを判断すると、前記取得装置から送信される、前記識別情報、前記状態情報、前記状態情報取得時間情報、及び前記状態情報取得時間情報を受信するとともに、前記撮像装置から送信される、前記画像、前記撮像時間情報、及び前記撮像位置情報を受信するWhen the generating device determines that the target person has left a predetermined location, the generating device receives the identification information, the status information, the status information acquisition time information, and the status information acquisition time information transmitted from the acquiring device, and also receives the image, the imaging time information, and the imaging position information transmitted from the imaging device.
ヒヤリ・ハットデータベース生成システム。Near-miss database generation system.
JP2021028387A 2021-02-25 2021-02-25 Near-miss incident database generation method and near-miss incident database generation system Active JP7551536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021028387A JP7551536B2 (en) 2021-02-25 2021-02-25 Near-miss incident database generation method and near-miss incident database generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021028387A JP7551536B2 (en) 2021-02-25 2021-02-25 Near-miss incident database generation method and near-miss incident database generation system

Publications (2)

Publication Number Publication Date
JP2022129636A JP2022129636A (en) 2022-09-06
JP7551536B2 true JP7551536B2 (en) 2024-09-17

Family

ID=83151169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021028387A Active JP7551536B2 (en) 2021-02-25 2021-02-25 Near-miss incident database generation method and near-miss incident database generation system

Country Status (1)

Country Link
JP (1) JP7551536B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007085091A (en) 2005-09-22 2007-04-05 Hitachi Constr Mach Co Ltd Safety control device of work site and working machine applied to this device
JP2008234414A (en) 2007-03-22 2008-10-02 Equos Research Co Ltd Database generation device and program
WO2020003704A1 (en) 2018-06-27 2020-01-02 コニカミノルタ株式会社 Control program, report output method, and report output device
JP2021019977A (en) 2019-07-30 2021-02-18 富士通株式会社 Information processing apparatus, near-miss detection method, and near-miss detection system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007085091A (en) 2005-09-22 2007-04-05 Hitachi Constr Mach Co Ltd Safety control device of work site and working machine applied to this device
JP2008234414A (en) 2007-03-22 2008-10-02 Equos Research Co Ltd Database generation device and program
WO2020003704A1 (en) 2018-06-27 2020-01-02 コニカミノルタ株式会社 Control program, report output method, and report output device
JP2021019977A (en) 2019-07-30 2021-02-18 富士通株式会社 Information processing apparatus, near-miss detection method, and near-miss detection system

Also Published As

Publication number Publication date
JP2022129636A (en) 2022-09-06

Similar Documents

Publication Publication Date Title
US10080513B2 (en) Activity analysis, fall detection and risk assessment systems and methods
CN113397520B (en) Information detection method and device for indoor object, storage medium and processor
CN109171734A (en) Human body behavioural analysis cloud management system based on Fusion
Muheidat et al. Context-aware, accurate, and real time fall detection system for elderly people
KR102338297B1 (en) System control method, apparatus and program for determining user state
CN106663140A (en) Device, system and method for detecting a health condition of a subject
CN108882853A (en) Measurement physiological parameter is triggered in time using visual context
Ponce et al. Sensor location analysis and minimal deployment for fall detection system
Martinez-Villaseñor et al. Design and analysis for fall detection system simplification
JP7551536B2 (en) Near-miss incident database generation method and near-miss incident database generation system
JP2019152914A (en) Nursing facility child watching system and information processing method
Schneider et al. Comparison of gait speeds from wearable camera and accelerometer in structured and semi‐structured environments
JP7534979B2 (en) Information processing device and detection method
JP2005287708A (en) Motion evaluation apparatus
Boudouane et al. Wearable camera for fall detection embedded system
Nouriani et al. System-identification-based activity recognition algorithms with inertial sensors
CN112964376A (en) Intelligent temperature measurement method and device, computer equipment and storage medium
Agarwal et al. Method to improve gait speed assessment for low frame rate AI enabled visual sensor
Nouriani et al. Real world validation of activity recognition algorithm and development of novel behavioral biomarkers of falls in aged control and movement disorder patients
Solachidis et al. TeNDER: Towards efficient Health Systems through e-Health platforms employing multimodal monitoring
JP6827734B2 (en) Detection system, detection method and program
Papadopoulos et al. Differentiating walking from other activities of daily living in older adults using wrist-based accelerometers
JP2016209404A (en) Stress detection system
Smeaton et al. Combining wearable sensors for location-free monitoring of gait in older people
JP2023110307A (en) Generating device and generating method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240904

R150 Certificate of patent or registration of utility model

Ref document number: 7551536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150