JP7685850B2 - Monitoring terminal and monitoring method - Google Patents
Monitoring terminal and monitoring method Download PDFInfo
- Publication number
- JP7685850B2 JP7685850B2 JP2021039465A JP2021039465A JP7685850B2 JP 7685850 B2 JP7685850 B2 JP 7685850B2 JP 2021039465 A JP2021039465 A JP 2021039465A JP 2021039465 A JP2021039465 A JP 2021039465A JP 7685850 B2 JP7685850 B2 JP 7685850B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- notification
- monitoring
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Description
本発明は、監視するための技術に関する。 The present invention relates to technology for monitoring.
高齢化社会といわれる日本の人口は、現在約3割が65歳以上となっている。高齢者の増加に伴い、単身世帯の高齢者(いわゆる独居老人)も増加傾向にあり、2015年時点で600万人を超えている。このような独居老人は、一人暮らしであるため、病気や事故等のトラブルが起きた際に適切な対応を取ることが難しいことが多く、怪我や病気を重篤化させてしまうおそれもある。このような問題は一人暮らしの老人に限った問題ではなく、高齢者施設等のように一人の空間で居住することを前提とした施設においても生じうる問題であるし、親族などの同居者がいる場合であっても一日の一部の時間帯で一人になることがある老人にとっても生じうる問題である。 Japan is said to be an aging society, with approximately 30% of the population currently aged 65 or over. As the elderly population increases, the number of elderly people living alone (so-called elderly people living alone) is also on the rise, exceeding 6 million as of 2015. Because these elderly people living alone live alone, it is often difficult for them to take appropriate action when illness, accidents, or other problems occur, and there is a risk that their injuries or illnesses will become more serious. This problem is not limited to elderly people living alone, but can also occur in facilities such as elderly care facilities that are designed for people to live in their own space, and it can also occur for elderly people who are alone for part of the day even if they live with relatives or other people.
怪我や病気の重症化は、要介護老人を増加させることにつながる。そのため、国の社会保障費の増加や働き盛り世代の介護離職増加につながるなど、社会に与える損失が大きい。このように、社会の課題の一つとして、高齢者を中心とした社会的弱者の見守りは今後ますます重要となっている。このような問題に対し、老人の居住空間に対してカメラを設置することにより見守りを行う技術が提案されている(例えば特許文献1)。 The worsening of injuries and illnesses leads to an increase in the number of elderly people requiring nursing care. This causes great losses to society, such as an increase in the nation's social security costs and an increase in the number of people in their prime leaving work to care for elderly people. As such, one of the challenges facing society is that monitoring the socially vulnerable, particularly the elderly, will become increasingly important in the future. In response to this issue, technology has been proposed that monitors the elderly by installing cameras in their living spaces (for example, Patent Document 1).
しかしながら、撮像された映像などを介して、老人の行動や表情などの状況が常に監視されていると、怪我や病気の観点からは問題を解決できるかもしれないが、プライバシーの問題が生じてしまう。このような問題が解決されておらず、十分な整備は進んでいない。結果として、病気やケガの発見が遅れ、重症化や孤独死に繋がってしまうケースもある。このような問題は、老人に限った問題ではなく、監視される者(以下「監視対象」という。)にとって共通の問題である。 However, constant monitoring of the behavior, facial expressions, and other status of elderly people through video footage may solve the problem from the perspective of injury or illness, but it also gives rise to privacy issues. These issues have not been resolved, and sufficient measures have not been put in place. As a result, there are cases where illness or injury is discovered late, leading to the illness becoming more severe or the person dying alone. These issues are not limited to the elderly, but are common to all those being monitored (hereafter referred to as "targets of monitoring").
上記事情に鑑み、本発明は、監視対象のプライバシーを守りつつ、監視を行うことを可能とする技術の提供を目的としている。 In view of the above circumstances, the present invention aims to provide technology that enables surveillance while protecting the privacy of the person being monitored.
本発明の一態様は、監視対象を撮像した画像から前記監視対象の位置する領域を示す対象領域情報を推定する対象領域推定部と、前記監視対象について異常が生じているか否か判定する異常判定部と、前記異常判定部によって異常が生じていると判定された場合に、前記対象領域情報を示す画像である対象領域画像を含み且つ前記監視対象そのものの画像を含まない通知画像を生成し、前記通知画像を他の装置に送信する通知部と、を備える監視端末である。 One aspect of the present invention is a monitoring terminal that includes a target area estimation unit that estimates target area information indicating an area in which a monitoring target is located from an image of the monitoring target, an abnormality determination unit that determines whether or not an abnormality has occurred in the monitoring target, and a notification unit that generates a notification image that includes a target area image that is an image indicating the target area information but does not include an image of the monitoring target itself when the abnormality determination unit determines that an abnormality has occurred, and transmits the notification image to another device.
本発明の一態様は、上記の監視端末であって、前記監視対象が活動する施設である監視対象施設に設置される。 One aspect of the present invention is the above-mentioned monitoring terminal, which is installed in a monitored facility where the monitored object is active.
本発明の一態様は、上記の監視端末であって、前記監視対象の姿勢を推定する姿勢推定部をさらに備え、前記対象領域推定部は、前記監視対象が撮影された教師画像と前記監視対象が撮影されていない教師画像とを含む第1学習データセットを用いた機械学習によって得られた学習済みモデルを用いて前記領域を推定し、前記姿勢推定部は、前記監視対象が撮影されていない教師画像の全体に占める割合が相対的に前記第1学習データセットよりも少ない第2学習データセットを用いた機械学習によって得られた学習済みモデルを用いて姿勢を推定する。 One aspect of the present invention is the above-mentioned monitoring terminal, further comprising a posture estimation unit that estimates the posture of the monitored object, wherein the target area estimation unit estimates the area using a trained model obtained by machine learning using a first learning dataset including teacher images in which the monitored object is photographed and teacher images in which the monitored object is not photographed, and the posture estimation unit estimates the posture using a trained model obtained by machine learning using a second learning dataset in which the proportion of teacher images in which the monitored object is not photographed is relatively smaller than that of the first learning dataset.
本発明の一態様は、上記の監視端末であって、前記監視対象に対して安全な状態であるか否かの返答を促す内容の音声を音声出力部から出力し、その後に音声入力部から入力される音声に基づいて確認結果の情報を生成する安否確認部をさらに備え、前記通知部は、前記確認結果も他の装置に送信する。 In one aspect of the present invention, the monitoring terminal further includes a safety confirmation unit that outputs a voice from an audio output unit prompting the monitored subject to respond as to whether or not the monitored subject is in a safe state, and then generates information on the confirmation result based on the voice input from the audio input unit, and the notification unit also transmits the confirmation result to another device.
本発明の一態様は、監視対象を撮像した画像から前記監視対象の位置する領域を示す対象領域情報を推定する対象領域推定ステップと、前記監視対象について異常が生じているか否か判定する異常判定ステップと、前記異常判定ステップにおいて異常が生じていると判定された場合に、前記対象領域情報を示す画像である対象領域画像を含み且つ前記監視対象そのものの画像を含まない通知画像を生成し、前記通知画像を他の装置に送信する通知ステップと、を有する監視方法である。 One aspect of the present invention is a monitoring method having a target area estimation step of estimating target area information indicating an area in which a monitoring target is located from an image of the monitoring target, an abnormality determination step of determining whether or not an abnormality has occurred in the monitoring target, and a notification step of generating a notification image including a target area image that is an image indicating the target area information but not including an image of the monitoring target itself, and transmitting the notification image to another device, if it is determined in the abnormality determination step that an abnormality has occurred.
本発明により、監視対象のプライバシーを守りつつ、監視を行うことを可能とする技術の提供を目的としている。 The present invention aims to provide technology that allows surveillance to be carried out while protecting the privacy of the person being monitored.
以下、本発明の具体的な構成例について、図面を参照しながら説明する。
図1は、本発明の監視システム100のシステム構成を示す概略ブロック図である。監視システム100は、監視対象施設90にて活動する監視対象を監視するためのシステムである。監視対象施設90は、例えば監視対象が住む住居であってもよいし、複数の監視対象が住む集合住宅や施設(例えば老人ホームなど)であってもよいし、1又は複数の監視対象が行動する施設(例えば保育園、幼稚園、学校)であってもよいし、1又は複数の監視対象が生活する施設(例えば刑務所など)であってもよい。監視システム100は、監視端末10、制御装置20及びユーザー端末30を含む。監視端末10、制御装置20及びユーザー端末30は、ネットワーク40を介して通信可能に接続される。ネットワーク40は、無線通信を用いたネットワークであってもよいし、有線通信を用いたネットワークであってもよい。ネットワーク40は、複数のネットワークが組み合わされて構成されてもよい。
Hereinafter, specific configuration examples of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic block diagram showing a system configuration of a
監視端末10は、監視対象施設90に設置される。監視端末10は、監視対象施設90内の監視対象の映像を撮像し、監視対象の画像を対象領域画像に変換する。対象領域画像は、監視対象の全体又は一部が位置している領域(以下「対象領域」という。)を示す画像である。監視端末10は、監視対象の画像を含まずに、対象領域画像を含む通知画像を生成する。監視端末10によって生成された通知画像は、制御装置20やユーザー端末30に送信される。通知画像には監視対象の画像が含まれないため、監視対象のプライバシーを守ることができる。また、通知画像には対象領域画像が含まれる。そのため、通知画像に基づいて監視対象の状態を監視することができる。ユーザー端末30は、監視対象に異常が生じた際に異常に対応する予定の者によって操作される。例えば、ユーザー端末30は、監視対象の親族や知人によって使用されてもよいし、監視対象を監視(見守り)する業務を行う者によって使用されてもよいし、他の者によって使用されてもよい。このような仕組みにより、監視システム100では監視対象のプライバシーを守りつつ監視を行うことが可能となる。以下、監視システム100の詳細について説明する。
The
図2は、監視端末10の機能構成の具体例を示す概略ブロック図である。監視端末10は、例えばスマートフォン、タブレット、パーソナルコンピューター、携帯ゲーム機、据え置き型ゲーム機、専用機器などの情報機器を用いて構成される。監視端末10は、通信部11、撮像部12、音声入力部13、音声出力部14、表示部15、制御部16及び記憶部17を備える。
FIG. 2 is a schematic block diagram showing a specific example of the functional configuration of the
通信部11は、通信機器である。通信部11は、例えばネットワークインターフェースとして構成されてもよい。通信部11は、制御部16の制御に応じて、ネットワーク40を介して他の装置とデータ通信する。通信部11は、無線通信を行う装置であってもよいし、有線通信を行う装置であってもよい。
The
撮像部12は、カメラを用いて構成される。撮像部12は、カメラそのものとして構成されてもよいし、外部機器としてカメラを監視端末10に接続するためのインターフェースとして構成されてもよい。カメラは、監視対象施設90内の所定の空間を撮像する。カメラによる撮像は、可視光を受光することで画像形成する処理として実現されてもよいし、レーダーを用いて画像形成する処理として実現されてもよいし、他の実装方法で実現されてもよい。カメラによって撮像される所定の空間は、監視対象が位置する可能性のある空間であることが望ましい。例えば、監視対象が老人である場合には、その老人が普段生活している空間(例えばリビング、居間、廊下、寝室など)であってもよい。例えば、監視対象が乳児や幼児である場合には、その乳児や幼児が活動する範囲内の空間(例えばリビング、居間、ベビーベッド上など)であってもよい。カメラは1台設けられてもよいし、複数台設けられてもよい。例えば、監視対象が動物である場合には、その動物が活動する範囲内の空間(例えばケージ、リビング、小屋、トイレなど)であってもよい。撮像部12は、カメラによって撮像された画像のデータを制御部16に出力する。
The
音声入力部13は、マイクを用いて構成される。音声入力部13は、マイクそのものとして構成されてもよいし、外部機器としてマイクを監視端末10に接続するためのインターフェースとして構成されてもよい。マイクは、監視対象施設90内の所定の空間の音声を取得する。マイクによって音声取得される所定の空間は、監視対象が位置する可能性のある空間であることが望ましい。例えば、上述したカメラが撮像対象としている空間であることが望ましい。音声入力部13は、マイクによって取得された音声のデータを制御部16に出力する。
The
音声出力部14は、スピーカーを用いて構成される。音声出力部14は、スピーカーそのものとして構成されてもよいし、外部機器としてスピーカーを監視端末10に接続するためのインターフェースとして構成されてもよい。スピーカーは、監視対象施設90内の所定の空間に音声を出力する。スピーカーによって音声出力される所定の空間は、監視対象が位置する可能性のある空間であることが望ましい。例えば、上述したカメラが撮像対象としている空間であることが望ましい。音声出力部14は、制御部16によって出力される音声信号に応じた音声を出力する。
The
表示部15は、制御部16の制御に応じて監視対象に対して画像を表示する。表示部15は、例えば監視対象に対して反応を促すための画像を表示してもよい。例えば、「大丈夫ですか?」といった文字列や、「大丈夫である場合には以下のボタンを押して下さい」という文字列と「大丈夫」等の問題が生じていないことを示す文字や画像を含むボタン等の操作対象と、を表示してもよい。
The
制御部16は、CPU(Central Processing Unit)等のプロセッサーとメモリーとを用いて構成される。制御部16は、プロセッサーがプログラムを実行することによって、対象領域推定部161、姿勢推定部162、異常判定部163、通知画像生成部164、通知部165、安否確認部166、データ取得部167及び情報管理部168として機能する。なお、制御部16の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピューター読み取り可能な記録媒体に記録されても良い。コンピューター読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
The
対象領域推定部161は、撮像部12から得られた画像において監視対象の全体又は一部が位置している領域(対象領域)を示す情報(以下「対象領域情報」という。)を推定する。対象領域は、例えば監視対象の全体又は一部が位置している領域を含む矩形であってもよい。この場合、対象領域情報は、矩形の四隅の座標を示す情報であってもよい。対象領域は、矩形に限らず他の幾何学形状(例えば円形、楕円形、三角形、四角形、五角形など)であってもよい。対象領域は、監視対象の形状に沿った複数の直線や曲線で示される形状であってもよい。
The target
対象領域推定部161は、例えば予め教師画像(第1学習データセット)を用いて機械学習処理を行うことによって得られた学習済みモデルを用いることで対象領域を推定する処理(以下「対象領域推定」という。)を行ってもよい。この場合、教師画像の正解の画像として、監視対象と同種の生物の全体が撮影された画像や同種の生物の一部(例えば頭部のみ、頭部を含む上半身のみ、頭部を含まない上半身、左右どちらかの腕のみ、下半身のみ、脚及び足のみ)が撮影された画像が用いられてもよい。この場合、教師画像の正解の画像に対し、正解であることを示すラベルと、監視対象と同種の生物の全体又は一部が位置する領域を示す情報(対象領域情報)と、が与えられていることが望ましい。ただし、対象領域情報として、教師画像の外枠そのものが用いられてもよい。この場合には、教師画像に対して必ずしも対象領域情報が対応付けられていなくてもよい。
The target
また、正解の各画像として、監視対象と同種の生物の全体及び一部のそれぞれについて、表面の画像、側面の画像、背面の画像が用いられてもよい。監視対象の属性(例えば年代、性別、人種など)が定まっている場合には、監視対象と属性が一致している生物の画像が正解の画像として用いられてもよい。このような正解の画像が用いられることで、対象領域推定の精度を向上させることができる。 In addition, as each correct image, an image of the front, side, or back of the whole or part of a living organism of the same species as the monitoring target may be used. When the attributes of the monitoring target (e.g., age, sex, race, etc.) are determined, an image of a living organism whose attributes match those of the monitoring target may be used as the correct image. By using such correct images, the accuracy of target area estimation can be improved.
さらに、教師画像の不正解の画像として、監視対象と同種の生物の全体及び一部のいずれもが含まれていない画像が用いられてもよい。例えば、教師画像の不正解の画像として、生物の像が含まれていない画像が用いられてもよいし、監視対象とは異なる種類の生物の全体が撮影された画像や異なる種類の生物の一部が撮影された画像が用いられてもよい。この場合、教師画像の不正解の画像に対し、不正解であることを示すラベルが与えられてもよい。正解の画像の教師画像と、不正解の画像の教師画像と、を含む第1学習データセットが、対象領域推定部161で用いられる学習済みモデルの生成に用いられてもよい。なお、対象領域推定部161の実装に用いられる技術は、上述した教師有り学習に限定される必要は無く、どのようなものであってもよい。
Furthermore, an image that does not include either the whole or part of a living organism of the same species as the monitoring target may be used as the incorrect teacher image. For example, an image that does not include an image of a living organism may be used as the incorrect teacher image, or an image of a whole organism of a species different from the monitoring target or an image of a part of a different species of organism may be used. In this case, a label indicating that the incorrect teacher image is incorrect may be given. A first learning dataset including a teacher image of a correct image and a teacher image of an incorrect image may be used to generate a trained model used in the target
姿勢推定部162は、撮像部12から得られた画像において監視対象の姿勢情報を推定する。姿勢情報は、監視対象の姿勢を示す情報である。姿勢情報は、例えば予め定められた複数の姿勢候補の中から選択される情報であってもよい。このような姿勢候補には、正常な姿勢を示す情報と、異常な姿勢を示す情報とが含まれてもよい。姿勢候補の具体例として、起立状態、着席状態、床座り状態、寝た状態、転んだ状態、うずくまった状態、倒れた状態、などがある。姿勢候補の具体例として、倒れている状態(FALL)と、倒れていない状態(NOT FALL)と、の2つの状態が定義されてもよい。
The
姿勢情報は、例えば監視対象について得られた監視対象領域に基づいて推定されてもよい。姿勢推定部162は、例えば予め教師画像(第2学習データセット)を用いて機械学習処理を行うことによって得られた学習済みモデルを用いることで姿勢情報を推定する処理(以下「姿勢推定」という。)を行ってもよい。この場合、機械学習に用いられる教師画像のデータセット(第2学習データセット)に含まれる教師画像のうち、監視対象と同種の生物の全体及び一部のいずれもが含まれていない画像が占める割合は、第1学習データセットに比べて低くてもよい。この割合は、ゼロであってもよい。すなわち、教師画像のデータとして、監視対象が撮影されていない画像は用いられないように構成されてもよい。対象領域推定部161の処理において推定された対象領域には、監視対象が含まれていることが明らかになっているため、その後の処理として姿勢推定が実行される場合には、監視対象と異なる種類の生物の画像が用いられる必要が無い。むしろ、監視対象と同種の生物の画像のみが用いられることによって、姿勢推定の精度を向上させることが可能である。
The posture information may be estimated based on, for example, the monitoring target area obtained for the monitoring target. The
教師画像のデータとして、各画像にはその画像に撮影されている生物の状態を示す情報がラベルとして与えられてもよい。この場合、各ラベルの内容は、予め定義されている状態候補の中から選択されることが望ましい。なお、姿勢推定部162の実装に用いられる技術は、上述したような教師有り学習を用いた処理に限定される必要は無く、どのようなものであってもよい。
As teacher image data, each image may be given information indicating the state of the organism captured in that image as a label. In this case, it is desirable that the content of each label is selected from predefined state candidates. Note that the technology used to implement the
異常判定部163は、監視対象に異常が生じているか否か判定する。異常判定部163は、例えば対象領域推定部161の推定結果である対象領域情報に基づいて異常を判定してもよい。異常判定部163は、例えば姿勢推定部162の推定結果である姿勢情報に基づいて異常を判定してもよい。より具体的には、異常が生じている可能性が高い姿勢情報(例えば“FALL”)と、異常が生じていない可能性が高い姿勢情報(例えば“NOT FALL”)とが予め定義されており、推定された姿勢情報に基づいて異常が生じているか否かが判定されてもよい。異常判定部163は、例えば対象領域推定部161の推定結果である対象領域情報と、姿勢推定部162の推定結果である姿勢情報と、に基づいて異常を判定してもよい。異常判定部163は、例えば、記憶部17に予め記憶されている異常判定条件に基づいて異常を判定してもよい。すなわち、異常判定部163は、異常判定に用いられる情報(例えば、対象領域情報や姿勢情報や他の情報)が、異常判定条件を満たす場合に異常が生じていると判定してもよい。
The
異常判定条件として、例えば監視対象の身に怪我や発作などが生じている可能性が高いことを示す対象領域情報や姿勢情報が予め登録されていてもよい。異常判定条件として、所定の深夜を示す時間帯(例えば0時~4時)であっても所定の時間にわたって照明がついていることを示す条件が定義されてもよい。照明がついているか否かは、例えば撮像部12によって撮影された画像の明度に基づいて得られてもよいし、監視端末10に接続されている不図示の明度センサーの出力に基づいて得られてもよいし、監視対象施設90内の電気機器の状態や消費電力を示す情報をHEMS等のシステムから取得して判定されてもよい。異常判定条件として、撮像部12によって撮像された映像において、所定の時間以上にわたって監視対象を検出できないことが定義されてもよい。例えば対象領域推定部161によって対象領域情報が推定されたことにしたがって監視対象が検出されたと判定されてもよいし、姿勢推定部162によって姿勢を判定できた場合に監視対象が検出されたと判定されてもよいし、他の人体検知アルゴリズム(例えば人の顔の検出、人の全体像のシルエットの検出、人体検知センサーの使用など)を用いて監視対象の検出が行われてもよい。異常判定条件として、普段の撮影画像に基づいて教師無し学習によって得られる学習済みモデルを用いて普段と有意差をもった現象が検出されたことが定義されてもよい。
As the abnormality determination condition, for example, target area information and posture information indicating that the monitoring target is highly likely to have an injury or a seizure may be registered in advance. As the abnormality determination condition, a condition indicating that the light is on for a predetermined time even during a time period indicating a predetermined late night (for example, from 0:00 to 4:00) may be defined. Whether the light is on or not may be obtained, for example, based on the brightness of the image captured by the
通知画像生成部164は、撮像部12によって予め撮影された画像(以下「背景画像」という。)に対して、対象領域推定部161によって推定された対象領域情報を示す画像(対象領域画像)を重畳することによって、通知画像を生成する。図3は、背景画像の具体例を示す図である。背景画像は、撮像部12に用いられるカメラの撮像範囲を予め撮像することによって得られる画像である。背景画像には、監視対象そのものの画像や、監視対象を示す画像が含まれていない。背景画像は、例えば所定のタイミングで更新されてもよい。例えば、毎日所定の時刻(一般的に監視対象が活動しない可能性が高い時刻)に撮影された画像が背景画像として用いられてもよい。例えば、所定の時間(例えば24時間)が経過する度に、監視対象領域が推定されていない状態の画像が背景画像として記録されてもよい。対象領域画像は、対象領域を示す枠を示す画像であってもよいし、監視対象の輪郭を示す画像であってもよいし、監視対象の形状を模したイラスト等の画像であってもよい。
The notification
図4は、撮像部12によって撮影された画像の具体例を示す図である。図5は、対象領域推定部161によって推定された対象領域の具体例を示す図である。図4の画像では、ドアの前に監視対象の人物が横に倒れている。対象領域推定部161によって、ドアの前に倒れている監視対象の人物を囲む矩形51が、対象領域として推定されている。
Fig. 4 is a diagram showing a specific example of an image captured by the
図6は、通知画像の第一の具体例を示す図である。図6の通知画像では、図5の画像において推定された対象領域を示す枠の画像(矩形51)が、図3の背景画像に重畳されている。 Figure 6 is a diagram showing a first specific example of a notification image. In the notification image of Figure 6, a frame image (rectangle 51) indicating the target area estimated in the image of Figure 5 is superimposed on the background image of Figure 3.
図7は、通知画像の第二の具体例を示す図である。図7の通知画像では、図5の画像において推定された対象領域そのものではなく、推定された対象領域に応じたイラストの画像52が、図3の背景画像に重畳されている。このようなイラストの画像は、予め複数種類用意されて記憶部17に記録されていてもよい。例えば、推定された対象領域の形状や、推定された姿勢情報等に基づいて、それらに予め対応付けて記憶されているイラストの画像が選択されてもよい。例えば、対象領域推定部161又は姿勢推定部162が監視対象の向きを推定できる場合には、その推定結果にもさらに基づいてイラストの画像が選択されてもよい。
Figure 7 is a diagram showing a second specific example of a notification image. In the notification image of Figure 7, an illustrated
図6及び図7の通知画像の例から明らかなように、通知画像では、監視対象の位置がわかり、おおよその状態もわかる。この場合は、横に倒れている状態であることがわかる。その一方で、監視対象そのもののテクスチャーや細かい動作が不明であるためプライバシーが守られている。例えば、監視対象が裸であったり、監視対象が鼻水やよだれを垂らしていたとしても、そのような情報は通知画像には含まれない。また、通知画像には予め撮像された背景画像が用いられるため、監視対象が誤って失禁している場合や、吐瀉していたとしても、汚物を示す情報は通知画像に含まれない。このように、監視対象にとって記録には残されたくないような情報は、通知画像には含まれない。 As is clear from the examples of notification images in Figures 6 and 7, the notification image shows the position of the monitored subject and also shows the general state of the subject. In this case, it can be seen that the subject is lying on his/her side. At the same time, privacy is protected because the texture and detailed movements of the monitored subject itself are unknown. For example, even if the monitored subject is naked or has a runny nose or drool, such information is not included in the notification image. Also, because a background image captured in advance is used for the notification image, information indicating waste is not included in the notification image even if the monitored subject has accidentally lost control or is vomiting. In this way, information that the monitored subject would not want recorded is not included in the notification image.
通知部165は、通知条件が満たされると、通知画像を含む通知情報を、通信部11を介して他の装置に送信する。通知条件は、例えば異常判定部163において異常と判定されることであってもよい。通知条件は、例えば異常判定部163において異常と判定され且つ後述する安否確認部166において安全が確認されなかったことであってもよい。通知条件は、他の条件として定義されてもよい。通知部165は、安否確認部166による確認結果を取得した場合には、確認結果に関する情報を含む通知情報を生成する。確認結果に関する情報とは、例えば確認結果の内容を示す文字列や画像や識別情報であってもよい。確認結果の内容を示す文字列とは、例えば“安否確認の結果、大丈夫という受け答えがありました。”という文字列や、“安否確認の結果、助けて欲しいという受け答えがありました。”という文字列や、“安否確認の結果、応答がありません。”という文字列などがある。
When the notification condition is satisfied, the
安否確認部166は、安否確認条件が満たされると、音声出力部14から所定の音声を出力することによって、監視対象に対して安否を確認する。安否確認条件は、例えば異常判定部163において異常と判定されることであってもよい。安否確認部166によって出力される所定の音声は、監視対象に対して安全な状態であるか否かの返答を促す内容の音声であってもよい。例えば、「大丈夫ですか?」といった音声や、「助けが必要ですか?」といった音声であってもよい。安否確認部166は、音声を出力した後に、確認結果を通知部165に出力する。
When the safety confirmation condition is met, the
安否確認部166は、例えば以下のような処理によって確認結果を生成してもよい。安否確認部166は、音声を出力した後に監視対象から発せられた音声のデータを、音声入力部13から取得する。安否確認部166は、所定の時間内に監視対象から発生られた音声のデータを取得できない場合には、回答が得られないことを確認結果として通知部165に出力してもよい。安否確認部166は、取得された音声について音声認識を行い、危険を知らせる所定の内容である場合には、危険であることを示す確認結果を通知部165に出力してもよい。安否確認部166は、取得された音声について音声認識を行い、安全を知らせる所定の内容である場合には、安全であることを示す確認結果を通知部165に出力してもよい。安否確認部166は、取得された音声について音声認識を行い、その音声認識の結果である文字列を確認結果として通知部165に出力してもよい。これらの場合、通知部165は、安否確認部166によって出力された確認結果を含む通知情報を生成してもよい。
The
データ取得部167は、監視対象や監視対象施設90内の状況などについて種々のデータを取得する。データ取得部167は、例えば撮像部12によって撮像された画像から物体を検出することによって、カメラの撮影範囲となっている空間に設置された家具などの形状や設置位置を示す情報を取得してもよい。データ取得部167は、例えば撮像部12によって撮像された時系列の映像に基づいて、監視対象の移動の経路(動線)を示す情報を取得してもよい。データ取得部167は、取得されたデータを、定期的に通信部11を介して制御装置20へ送信する。
The
記憶部17は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部17は、制御部16によって使用されるデータを記憶する。記憶部17は、例えば監視端末10に対して割り当てられた端末IDや、監視端末10が対象としている監視対象の属性情報(氏名、住所、性別、年齢、識別情報等の情報)を記憶してもよい。
The
図8は、制御装置20の機能構成の具体例を示す概略ブロック図である。制御装置20は、例えばパーソナルコンピューター、サーバー装置などの情報機器を用いて構成される。制御装置20は、通信部21、記憶部22及び制御部23を備える。
Figure 8 is a schematic block diagram showing a specific example of the functional configuration of the
通信部21は、通信機器である。通信部21は、例えばネットワークインターフェースとして構成されてもよい。通信部21は、制御部23の制御に応じて、ネットワーク40を介して他の装置とデータ通信する。通信部21は、無線通信を行う装置であってもよいし、有線通信を行う装置であってもよい。
The
記憶部22は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部22は、制御部23によって使用されるデータを記憶する。例えば、記憶部22は、送信先情報テーブルを記憶してもよい。送信先情報テーブルは、監視端末10に割り当てられている識別情報(以下「監視識別情報」という。)と、その監視端末10から送信された通知情報に基づいて生成されるユーザー通知情報の送信先の情報(以下「通知先情報」という。)と、を対応付けたテーブルである。
The
制御部23は、CPU等のプロセッサーとメモリーとを用いて構成される。制御部23は、プロセッサーがプログラムを実行することによって、通知制御部231及びデータ制御部232として機能する。なお、制御部23の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピューター読み取り可能な記録媒体に記録されても良い。コンピューター読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
The
通知制御部231は、監視端末10から通知情報を受信すると、受信された通知情報に基づいてユーザー通知情報を生成する。ユーザー通知情報は、例えば、監視対象に異常が生じていることを示す文字列(例えば、“異常が生じています。ご確認下さい。”)と、通知画像が記憶されている記憶領域を示す通知アドレス情報と、を含む。ユーザー通知情報に含まれる文字列は、例えば監視端末10やユーザー端末30にかかわらずに予め定められた固定の文字列であってもよい。ユーザー通知情報に含まれる文字列は、監視端末10やユーザー端末30に対応付けて定義された文字列であってもよい。これらの文字列は、記憶部22に記憶されていてもよい。
When the
通知アドレス情報は、通知制御部231によって生成されてもよいし、通知画像を公開する他のサーバーによって生成されてもよい。例えば、通知制御部231は、他の情報機器からアクセス可能な記憶領域に通知画像をアップロードしてもよい。この場合、アップロード先の記憶領域を示すアドレス情報(例えばURL)が、通知アドレス情報として用いられてもよい。
The notification address information may be generated by the
通知制御部231は、受信された通知情報に含まれる識別情報に基づいて通知先を判定する。通知制御部231は、例えば記憶部22に記憶されている送信先情報テーブルに基づいて、通知情報の送信元である監視識別情報に対応付けられている通知先情報を、通知先として判定してもよい。通知制御部231は、判定された通知先に対して、ユーザー通知情報を送信する。
The
データ制御部232は、監視端末10から送信されるデータを、送信元である監視端末10の監視識別情報に対応付けて記憶部22に登録する。上述したように、監視端末10から送信されるデータには、監視対象そのものの画像が含まれない。そのため、データ制御部232によって登録されるデータには、プライバシーを侵害するような情報は含まれにくい。データ制御部232は、監視端末10から送信されるデータを、送信元である監視端末10の識別情報(例えば端末ID)と対応付けて記憶部22に登録してもよい。
The data control
図9は、監視システム100の動作の流れの具体例を示すシーケンスチャートである。監視端末10の撮像部12が撮像すると、制御部16は撮像部12によって撮像された画像データを取得する(ステップS101)。対象領域推定部161は、撮像された画像において監視対象の対象領域を推定する(ステップS102)。姿勢推定部162は、撮像された画像において監視対象の姿勢を推定する(ステップS103)。異常判定部163は、異常判定を行う(ステップS104)。異常と判定されなかった場合、すなわち正常であると判定された場合(ステップS105-NO)、制御部16の処理はステップS101の処理に戻る。一方、異常と判定された場合、すなわち正常と判定されなかった場合(ステップS105-YES)、通知部165は通知画像を生成する(ステップS106)。通知部165は、通知画像を含む通知情報を生成し、制御装置20に通知情報を送信する(ステップS107)。
Figure 9 is a sequence chart showing a specific example of the flow of the operation of the
制御装置20の通知制御部231は、通知情報を受信すると、通知情報に応じたユーザー通知情報を生成する。また、通知制御部231は、受信された通知情報に応じてユーザー通知情報の送信先を判定する。そして、通知制御部231は、ユーザー端末30に対してユーザー通知情報を送信する(ステップS108)。また、通知制御部231は、通知情報を記憶部22に記録する(ステップS109)。
When the
ユーザー端末30は、ユーザー通知情報を受信すると、ユーザー通知情報が受信されたことを示す出力を行う。例えば、ユーザー端末30の画面の所定の領域に、ユーザー通知情報が受信されたことを示す画像や文字を表示してもよいし、ユーザー端末30に予め設定されている通知方法に応じて音声出力やバイブレーターの駆動を行ってもよい。ユーザーがユーザー端末30を操作することでユーザー通知情報の出力を指示すると、ユーザー端末30はユーザー通知情報の内容を出力する。例えば、ユーザー端末30は、監視対象に異常が生じていることを示す文字列と、通知アドレス情報を示す文字列とを画面に表示してもよい(ステップS110)。ユーザーがユーザー端末30を操作して通知画像の表示を指示すると、ユーザー端末30は通知アドレス情報にアクセスして通知画像の送信を要求する(ステップS111)。
When the
制御装置20は、通知アドレス情報宛に通知画像の送信の要求を受けると、要求に応じた通知画像をユーザー端末30に送信する(ステップS112)。ユーザー端末30は、通知画像を受信すると、受信された通知画像を画面に表示する(ステップS113)。
When the
図10は、監視システム100の動作の流れの他の具体例を示すシーケンスチャートである。図10に示されるシーケンスチャートでは、監視端末10によって安否確認が行われる。以下、図9に示されるシーケンスチャートとの相違点についてのみ説明する。なお、図9と図10とでは、同じ処理には同じ符号が付されている。
Figure 10 is a sequence chart showing another specific example of the flow of operation of the
監視端末10の安否確認部166は、通知部165によって通知が行われると、音声出力部14を介して安否確認音声を出力する(ステップS201)。安否確認部166は、その後に発せられた音声の入力を受け付ける(ステップS202)。安否確認部166は、入力された音声に基づいて確認通知情報を生成する。例えば、所定の音圧以上の音声が入力された場合には、監視対象が反応したということであるため、安否の確認がとれたことを示す確認情報を生成してもよい。例えば、所定の音圧以上の音声が入力されなかった場合には、監視対象が反応していないということであるため、安否の確認がとれなかったことを示す確認情報を生成してもよい。安否確認部166は、生成された確認情報を制御装置20に送信する(ステップS203)。制御装置20の通知制御部231は、受信された確認情報をユーザー端末30に送信する(ステップS204)。ユーザー端末30は、確認情報を受信すると、受信された確認情報を出力する(ステップS205)。確認情報の出力は、音声の出力によって行われてもよいし、画面への文字や画像の表示によって行われてもよいし、他の態様で行われてもよい。なお、ステップS101~ステップS113までの処理は、図9と同様である。
When the
図11は、監視システム100の動作の流れの他の具体例を示すシーケンスチャートである。図11に示されるシーケンスチャートでは、監視端末10によって生成されたデータが制御装置20において蓄積される。以下、図9に示されるシーケンスチャートとの相違点についてのみ説明する。なお、図9と図11とでは、同じ処理には同じ符号が付されている。
Figure 11 is a sequence chart showing another specific example of the flow of operation of the
監視端末10のデータ取得部167は、撮像部12によって撮像された画像の時系列データに基づいて、監視対象の移動の経路を示す動線を検出し、記憶部17に記録する(ステップS301)。データ取得部167は、ステップS104において異常と判定されない場合には、所定の閾値よりも過去において検出された動線の情報を破棄する。一方、ステップS104において異常と判定された場合には、データ取得部167は、記憶部17に記録されている所定期間の動線の情報を含む蓄積データを生成する(ステップS302)。所定の期間とは、例えば異常が検出されたタイミングから遡って所定の秒数(例えば5秒や10秒など)の期間である。データ取得部167は、生成された蓄積データを制御装置20へ送信する(ステップS303)。制御装置20のデータ制御部232は、蓄積データを受信すると、受信された蓄積データを記憶部22に記録する(ステップS304)。
The
このように構成された監視システム100では、監視対象に関して外部に通知が行われる際に使用される通知画像には、監視対象そのものの画像が含まれず、対象領域を示す画像が含まれる。このように、通知画像には監視対象そのものの画像が含まれないため、監視対象のプライバシーを守ることができる。また、通知画像には監視対象の位置を示す画像が含まれるため、通知画像に基づいて監視対象の状態を監視することができる。このような仕組みにより、監視システム100では監視対象のプライバシーを守りつつ監視を行うことが可能となる。
In the
また、監視対象の位置する領域(対象領域)の推定の処理では、監視対象と同種の生物の一部のみが撮影された画像も教師画像の正解の画像として使用される。そのため、撮影された画像において、家具などの陰に監視対象の一部が隠れてしまっていたとしても、撮影されている残りの一部分のみに基づいてより精度良く監視対象の位置を推定することが可能となる。同様の理由により、監視対象の状態の推定や異常であるか否かの判定をより精度良く実現することが可能となる。 In addition, in the process of estimating the area in which the monitored object is located (target area), an image in which only a portion of a living organism of the same species as the monitored object is captured is also used as the correct answer teacher image. Therefore, even if part of the monitored object is hidden behind furniture or the like in the captured image, it is possible to estimate the position of the monitored object with higher accuracy based on only the remaining captured portion. For the same reason, it is possible to more accurately estimate the state of the monitored object and determine whether or not there is an abnormality.
また、監視システム100では、家具の配置や監視対象の動線を示す情報などが蓄積データとして制御装置20に蓄積される。これらのデータにも、監視対象そのものの画像は含まれない。そのため、これらのデータを解析などに用いる際にも、監視対象のプライバシーを守ることが可能となる。また、図11のシーケンスチャートにも示されるように、動線の情報は、異常が生じたタイミングから遡って所定の期間のデータが蓄積される。そのため、どのような動線で動いた際に異常が生じやすいか、どのような家具の配置により異常が生じやすい動線になってしまったのか、等の観点の分析に対し有用なデータを効率よく取得することが可能となる。
In addition, in the
(変形例)
対象領域推定部161と姿勢推定部162とは、一つの機能として実装されてもよい。すなわち、対象領域推定と姿勢推定とが同時に行われてもよい。このような処理は、例えば対象領域推定に用いられる学習済みモデルを生成する際に、姿勢情報を示すラベルが予め付与された教師画像のデータを用いることによって実現されてもよい。
(Modification)
The target
姿勢推定部162と異常判定部163は、一つの機能として実装されてもよい。すなわち、姿勢推定と異常判定とが同時に行われてもよい。このような処理は、例えば姿勢推定に用いられる学習済みモデルを生成する際に、異常か否かを示すラベルが予め付与された教師画像のデータを用いることによって実現されてもよい。
The
制御部16が姿勢推定部162として処理を行わないように構成されてもよい。この場合、異常判定部163は、姿勢推定部162で用いられる学習済みモデルとして上述したものを学習する際に、姿勢情報ではなく異常か否かを示すラベルを教師画像のデータに与えることによって実装されてもよい。この場合、姿勢情報を推定することなく、単に異常か否かを判定することができる。詳細は以下の通りである。
The
異常判定部163は、例えば予め教師画像を用いて機械学習処理を行うことによって得られた学習済みモデルを用いることで異常判定を行ってもよい。この場合、教師画像のデータとして、監視対象と同種の生物の画像のみが用いられてもよい。すなわち、対象領域推定部161の処理において推定された対象領域には、監視対象が含まれていることが明らかになっているため、その後の処理として異常判定が実行される場合には、監視対象と異なる種類の生物の画像が用いられる必要が無い。むしろ、監視対象と同種の生物の画像のみが用いられることによって、異常判定の精度を向上させることが可能である。教師画像のデータとして、各画像にはその画像に撮影されている生物の状態が異常か否かを示す情報がラベルとして与えられる。
The
ユーザー通知情報は、通知アドレス情報に代えて、通知画像のデータを含んでもよい。この場合、ユーザー端末30は、よりスムーズに通知画像を表示することが可能となる。また、ユーザー端末30は、通知画像のデータを受信した場合、ユーザーの操作を受ける事無く、画面に通知画像のデータを表示してもよい。このように構成されることにより、より早く監視対象の異常をユーザーに通知することが可能となる。
The user notification information may include notification image data instead of notification address information. In this case, the
通知部165は、安否結果が所定の緊急条件を満たす場合には、通知先としてユーザー端末30ではなく、予め定められた緊急通報先を選択し、緊急通報先に通知を行ってもよい。所定の緊急条件とは、例えば安否結果に含まれる文字列に、“助けて”や“死ぬ”などの緊急性が高いことを示す所定のキーワードが含まれていることであってもよい。
When the safety result satisfies a predetermined emergency condition, the
監視端末10は、監視対象の操作を受け付けるための入力装置を備えてもよい。例えば、監視端末10がスマートフォン等の端末装置を用いて構成される場合には、予めこのような入力装置を備えている。監視端末10は、監視対象から所定の操作を受け付ける事に応じて、一時的に撮像部12における撮像を中断するように構成されてもよい。このように構成されることによって、監視対象のプライバシーをより強固に守ることが可能となる。
The
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The above describes an embodiment of the present invention in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and includes designs that do not deviate from the gist of the present invention.
100…監視システム, 10…監視端末, 20…制御装置, 30…ユーザー端末, 40…ネットワーク, 90…監視対象施設, 11…通信部, 12…撮像部, 13…音声入力部, 14…音声出力部, 15…表示部, 16…制御部, 161…対象領域推定部, 162…姿勢推定部, 163…異常判定部, 164…通知画像生成部, 165…通知部, 166…安否確認部, 167…データ取得部, 17…記憶部, 21…通信部, 22…記憶部, 23…制御部, 231…通知制御部, 232…データ制御部 100...monitoring system, 10...monitoring terminal, 20...control device, 30...user terminal, 40...network, 90...monitored facility, 11...communication unit, 12...imaging unit, 13...audio input unit, 14...audio output unit, 15...display unit, 16...control unit, 161...target area estimation unit, 162...posture estimation unit, 163...abnormality determination unit, 164...notification image generation unit, 165...notification unit, 166...safety confirmation unit, 167...data acquisition unit, 17...storage unit, 21...communication unit, 22...storage unit, 23...control unit, 231...notification control unit, 232...data control unit
Claims (5)
前記監視対象の姿勢を示す姿勢情報を推定する姿勢推定部と、
前記監視対象について異常が生じているか否か判定する異常判定部と、
前記異常判定部によって異常が生じていると判定された場合に、前記監視対象が位置する空間の画像であって、前記対象領域情報を示す画像である対象領域画像を含み且つ前記監視対象そのものの画像を含まない通知画像を生成し、前記通知画像を他の装置に送信する通知部と、
を備え、
前記通知部は、前記対象領域推定部又は前記姿勢推定部による前記監視対象の向きの推定結果に基づいて前記監視対象の位置する領域における前記監視対象の形状を示すイラストを、向きの推定結果に基づいて予め複数種類用意されている中から選択して前記通知画像に用いる監視端末。 a target area estimation unit that estimates target area information indicating an area in which a monitoring target is located from an image of the monitoring target;
a posture estimation unit that estimates posture information indicating a posture of the monitoring target;
an abnormality determination unit that determines whether or not an abnormality has occurred in the monitoring target;
a notification unit that, when it is determined by the abnormality determination unit that an abnormality has occurred, generates a notification image, which is an image of a space in which the monitoring target is located, including a target area image that is an image showing the target area information and does not include an image of the monitoring target itself, and transmits the notification image to another device;
Equipped with
The notification unit is a monitoring terminal that selects an illustration showing the shape of the monitored object in the area in which the monitored object is located from among multiple types prepared in advance based on the estimation result of the orientation of the monitored object by the target area estimation unit or the attitude estimation unit, and uses the selected illustration as the notification image .
前記対象領域推定部は、前記監視対象が撮影された教師画像と前記監視対象が撮影されていない教師画像とを含む第1学習データセットを用いた機械学習によって得られた学習済みモデルを用いて前記領域を推定し、
前記姿勢推定部は、前記監視対象が撮影されていない教師画像の全体に占める割合が相対的に前記第1学習データセットよりも少ない第2学習データセットを用いた機械学習によって得られた学習済みモデルを用いて姿勢を推定する、請求項1又は2に記載の監視端末。 A posture estimation unit that estimates a posture of the monitoring target,
the target area estimation unit estimates the area using a trained model obtained by machine learning using a first training data set including a teacher image in which the monitoring target is captured and a teacher image in which the monitoring target is not captured;
3. The monitoring terminal according to claim 1, wherein the posture estimation unit estimates the posture using a trained model obtained by machine learning using a second learning data set in which a proportion of teacher images in which the target to be monitored is not captured is relatively smaller than that of the first learning data set.
前記通知部は、前記確認結果も他の装置に送信する、請求項1から3のいずれか一項に記載の監視端末。 a safety confirmation unit that outputs a voice from a voice output unit to prompt the monitoring target to respond as to whether or not the monitoring target is in a safe state, and generates information on the confirmation result based on the voice input from the voice input unit thereafter;
The monitoring terminal according to claim 1 , wherein the notification unit also transmits the confirmation result to another device.
前記監視対象の姿勢を示す姿勢情報を推定する姿勢推定ステップと、
前記監視対象について異常が生じているか否か判定する異常判定ステップと、
前記異常判定ステップにおいて異常が生じていると判定された場合に、前記監視対象が位置する空間の画像であって、前記対象領域情報を示す画像である対象領域画像を含み且つ前記監視対象そのものの画像を含まない通知画像を生成し、前記通知画像を他の装置に送信する通知ステップと、
を有し、
前記通知ステップでは、前記対象領域推定ステップ又は前記姿勢推定ステップにおける前記監視対象の向きの推定結果に基づいて前記監視対象の位置する領域における前記監視対象の形状を示すイラストを、向きの推定結果に基づいて予め複数種類用意されている中から選択して前記通知画像に用いる監視方法。 a target area estimation step of estimating target area information indicating an area in which the monitoring target is located from an image of the monitoring target;
a posture estimating step of estimating posture information indicating a posture of the monitoring target;
an abnormality determination step of determining whether or not an abnormality has occurred in the monitored object;
a notification step of generating a notification image, which is an image of a space in which the monitoring target is located, including a target area image that is an image showing the target area information and does not include an image of the monitoring target itself, when it is determined that an abnormality has occurred in the abnormality determination step, and transmitting the notification image to another device;
having
In the notification step, an illustration showing the shape of the monitored object in the area in which the monitored object is located is selected from a plurality of types prepared in advance based on the estimation result of the orientation of the monitored object in the target area estimation step or the attitude estimation step , and used as the notification image .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021039465A JP7685850B2 (en) | 2021-03-11 | 2021-03-11 | Monitoring terminal and monitoring method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021039465A JP7685850B2 (en) | 2021-03-11 | 2021-03-11 | Monitoring terminal and monitoring method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022139196A JP2022139196A (en) | 2022-09-26 |
| JP7685850B2 true JP7685850B2 (en) | 2025-05-30 |
Family
ID=83399094
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021039465A Active JP7685850B2 (en) | 2021-03-11 | 2021-03-11 | Monitoring terminal and monitoring method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7685850B2 (en) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009225398A (en) | 2008-03-19 | 2009-10-01 | Secom Co Ltd | Image distribution system |
| JP2016032501A (en) | 2014-07-31 | 2016-03-10 | 株式会社コンテック | Nursing / care support device and nursing / care support method |
| JP2016067641A (en) | 2014-09-30 | 2016-05-09 | 東京エレクトロンデバイス株式会社 | Fall detection processing device and fall detection system |
| JP2017016593A (en) | 2015-07-06 | 2017-01-19 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
| JP2017153850A (en) | 2016-03-04 | 2017-09-07 | 栄夫 澤田 | Living body monitoring system and living body monitoring method |
| JP2018005520A (en) | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | Object detection device and object detection method |
| JP2019204345A (en) | 2018-05-24 | 2019-11-28 | 株式会社東芝 | Information processing device, program, and information processing method |
| JP2020145595A (en) | 2019-03-06 | 2020-09-10 | 株式会社F Label | Viewing or monitoring system, or program |
| JP2020194493A (en) | 2019-05-30 | 2020-12-03 | アースアイズ株式会社 | Monitoring system for nursing-care apparatus or hospital and monitoring method |
-
2021
- 2021-03-11 JP JP2021039465A patent/JP7685850B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009225398A (en) | 2008-03-19 | 2009-10-01 | Secom Co Ltd | Image distribution system |
| JP2016032501A (en) | 2014-07-31 | 2016-03-10 | 株式会社コンテック | Nursing / care support device and nursing / care support method |
| JP2016067641A (en) | 2014-09-30 | 2016-05-09 | 東京エレクトロンデバイス株式会社 | Fall detection processing device and fall detection system |
| JP2017016593A (en) | 2015-07-06 | 2017-01-19 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
| JP2017153850A (en) | 2016-03-04 | 2017-09-07 | 栄夫 澤田 | Living body monitoring system and living body monitoring method |
| JP2018005520A (en) | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | Object detection device and object detection method |
| JP2019204345A (en) | 2018-05-24 | 2019-11-28 | 株式会社東芝 | Information processing device, program, and information processing method |
| JP2020145595A (en) | 2019-03-06 | 2020-09-10 | 株式会社F Label | Viewing or monitoring system, or program |
| JP2020194493A (en) | 2019-05-30 | 2020-12-03 | アースアイズ株式会社 | Monitoring system for nursing-care apparatus or hospital and monitoring method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022139196A (en) | 2022-09-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7138619B2 (en) | Monitoring terminal and monitoring method | |
| JP6398460B2 (en) | Control method, control device, and control program | |
| JP2020052867A (en) | Attitude analysis apparatus, attitude analysis method, and program | |
| JP6093124B2 (en) | Supervisory system | |
| JP2016067641A (en) | Fall detection processing device and fall detection system | |
| JP2020086819A (en) | Image processing program and image processing device | |
| JP6579411B1 (en) | Monitoring system and monitoring method for care facility or hospital | |
| JPWO2020003706A1 (en) | Control program, report output method, and report output device | |
| JP7137155B2 (en) | Monitored Person Monitoring Support System, Monitored Person Monitoring Support Method and Program | |
| JP7673900B2 (en) | Method and system for monitoring a subject - Patents.com | |
| JP7685850B2 (en) | Monitoring terminal and monitoring method | |
| JP2020140418A (en) | Mobile terminal control program, mobile terminal, and monitoring system | |
| JP7425413B2 (en) | Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system, and monitored person monitoring support server device | |
| JP7264065B2 (en) | Monitored Person Monitoring Support System and Monitored Person Monitoring Support Method | |
| JP2020013185A (en) | Watching device and watching device control program | |
| JP2021033379A (en) | Image processing system, image processing program, and image processing method | |
| JPWO2020003704A1 (en) | Control program, report output method, and report output device | |
| JP7435609B2 (en) | Image processing system, image processing program, and image processing method | |
| JP7351339B2 (en) | Image processing system, image processing program, and image processing method | |
| JP7591953B2 (en) | Determination device and determination method | |
| JP7354549B2 (en) | Monitoring device and monitoring program | |
| JP2023070277A (en) | Risk prediction system for care facility, program, and risk prediction method for care facility | |
| JPWO2018235279A1 (en) | Information processing apparatus, control method, and program | |
| JP2020135146A (en) | Surveillance system, message board providing device, and message board providing program | |
| JP7563401B2 (en) | Monitoring system, monitoring method, and monitoring program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230707 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240422 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240708 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241015 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241216 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250204 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250407 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250422 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250520 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7685850 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |