JP2024160736A - 見守り装置、制御方法、および制御プログラム - Google Patents
見守り装置、制御方法、および制御プログラム Download PDFInfo
- Publication number
- JP2024160736A JP2024160736A JP2023075981A JP2023075981A JP2024160736A JP 2024160736 A JP2024160736 A JP 2024160736A JP 2023075981 A JP2023075981 A JP 2023075981A JP 2023075981 A JP2023075981 A JP 2023075981A JP 2024160736 A JP2024160736 A JP 2024160736A
- Authority
- JP
- Japan
- Prior art keywords
- person
- unit
- target
- recognized
- followed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims description 36
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 238000003384 imaging method Methods 0.000 claims abstract description 14
- 230000008859 change Effects 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 description 26
- 230000010365 information processing Effects 0.000 description 25
- 238000012544 monitoring process Methods 0.000 description 15
- 230000006399 behavior Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 230000032683 aging Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000000474 nursing effect Effects 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000019646 color tone Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】撮影部による見守り対象の捕捉精度を向上できる見守り装置を提供する。
【解決手段】人の画像を撮影する撮影部と、人の位置を検知する人感センサーと、人感センサーの検知情報に基づき、撮影部の撮影方向を変更する駆動部と、撮影部により撮影される画像から人を認識する認識部と、認識部により認識される人の特徴に基づいて、認識部により認識される人が追従対象かどうか判定する判定部と、を有し、判定部により追従対象と判定された人を追従するように、撮影部の撮影方向を駆動部に変更させる制御部と、を含む見守り装置。
【選択図】図9
【解決手段】人の画像を撮影する撮影部と、人の位置を検知する人感センサーと、人感センサーの検知情報に基づき、撮影部の撮影方向を変更する駆動部と、撮影部により撮影される画像から人を認識する認識部と、認識部により認識される人の特徴に基づいて、認識部により認識される人が追従対象かどうか判定する判定部と、を有し、判定部により追従対象と判定された人を追従するように、撮影部の撮影方向を駆動部に変更させる制御部と、を含む見守り装置。
【選択図】図9
Description
本発明は、見守り装置、制御方法、および制御プログラムに関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、要介護者等の行動等に応じて介護者や看護師等のスタッフがすぐに駆けつけられるようにするためのシステムの開発が進められている。
下記特許文献1には、次の先行技術が開示されている。人の存在を補捉する赤外線アレイセンサ部と、赤外線アレイセンサ部の検知方向を上下左右に変更する駆動機構を含むセンサ装置を備える。駆動機構により一定時間ごとに赤外線アレイセンサ部の検知方向を変えて複数の所定位置における要介護者の検知を行う。そして、複数の所定位置における要介護者の存在補捉時間のうち最も存在補捉時間の長い所定位置に赤外線アレイセンサ部の検知方向を固定して見守りをする。
しかし、上記先行技術は、要介護者以外の人が補捉される所定位置にセンサ部の検知方向が固定される可能性がある。このため、要介護者の見守りが長時間なされない状態になる可能性がある。
本発明は、上述の問題を解決するためになされたものである。すなわち、撮影部による見守り対象の補捉精度を向上できる見守り装置、制御方法、および制御プログラムを提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)人の画像を撮影する撮影部と、人の位置を検知する人感センサーと、前記人感センサーの検知情報に基づき、前記撮影部の撮影方向を変更する駆動部と、前記撮影部により撮影される前記画像から人を認識する認識部と、前記認識部により認識される人の特徴に基づいて、前記認識部により認識される人が追従対象かどうか判定する判定部と、前記判定部により前記追従対象と判定された人を追従するように、前記撮影部の撮影方向を前記駆動部に変更させる制御部と、を有する見守り装置。
(2)前記判定部は、前記認識部により認識される人の移動速度に基づいて、前記追従対象かどうか判定する、上記(1)に記載の見守り装置。
(3)前記判定部は、前記認識部により認識される人を、顔または装着物の認証により、前記追従対象かどうか判定する、上記(1)に記載の見守り装置。
(4)前記認識部により認識される人の関節点を推定する推定部を有し、前記判定部は、前記推定部により推定される前記関節点に基づいて前記追従対象かどうか判定する、上記(1)に記載の見守り装置。
(5)前記認識部は、前記撮影部により撮影される前記画像から人以外の物体をさらに認識し、前記判定部は、前記認識部により認識される人と、前記認識部により認識される前記物体との相対的位置に基づいて、当該人が前記追従対象かどうか判定する、上記(1)に記載の見守り装置。
(6)前記制御部は、所定の条件を満たしたときに、再度、前記駆動部に、前記撮影部の前記撮影方向を変更させて、前記判定部により前記追従対象と判定された人を追従させる、上記(1)~(5)のいずれかに記載の見守り装置。
(7)前記所定の条件は、前記判定部により前記追従対象と判定された人が前記画像において前記認識部により認識されなくなったこと、前記判定部により前記追従対象と判定された人が前記画像において前記認識部により認識されなくなってから所定時間経過したこと、または、前記判定部により前記追従対象と判定された人が前記画像において前記認識部により認識されなくなった後、前記人感センサーにより人が検知されたことである、上記(6)に記載の見守り装置。
(8)人の画像を撮影する撮影部と、人の位置を検知する人感センサーと、前記撮影部の撮影方向を変更する駆動部と、を有する見守り装置の制御方法であって、前記人感センサーの検知情報に基づき、前記撮影部の撮影方向を変更させるステップ(a)と、前記撮影部により撮影される前記画像から人を認識するステップ(b)と、前記ステップ(b)において認識される人の特徴に基づいて、認識される人が追従対象かどうか判定するステップ(c)と、前記ステップ(c)において前記追従対象と判定された人を追従するように、前記撮影部の撮影方向を前記駆動部に変更させるステップ(d)と、を有する制御方法。
(9)前記ステップ(c)においては、前記ステップ(b)において認識される人の移動速度に基づいて、前記追従対象かどうか判定する、上記(8)に記載の制御方法。
(10)前記ステップ(c)においては、前記ステップ(b)において認識される人を、顔または装着物の認証により、前記追従対象かどうか判定する、上記(8)に記載の制御方法。
(11)前記ステップ(b)において認識される人の関節点を推定するステップ(e)を有し、前記ステップ(c)においては、前記ステップ(e)において推定される前記関節点に基づいて前記追従対象かどうか判定する、上記(8)に記載の制御方法。
(12)前記ステップ(b)においては、前記撮影部により撮影される前記画像から人以外の物体をさらに認識し、前記ステップ(c)においては、前記ステップ(b)において認識される人と、前記ステップ(b)において認識される前記物体との相対的位置に基づいて、当該人が前記追従対象かどうか判定する、上記(8)に記載の制御方法。
(13)所定の条件を満たしたときに、再度、前記駆動部に、前記撮影部の前記撮影方向を変更させて、前記追従対象と判定された人を追従させるステップ(f)を有する、上記(8)に記載の制御方法。
(14)前記所定の条件は、前記ステップ(c)において前記追従対象と判定された人が前記画像において認識されなくなったこと、前記ステップ(c)において前記追従対象と判定された人が前記画像において認識されなくなってから所定時間経過したこと、または、前記ステップ(c)において前記追従対象と判定された人が前記画像において認識されなくなった後、前記人感センサーにより人が検知されたことである、上記(13)に記載の制御方法。
(15)上記(8)~(14)のいずれかに記載の制御方法をコンピューターに実行させるための制御プログラム。
人感センサーによる人の検知情報に基づき、撮影部の撮影方向を変更する駆動部を備える。そして、撮影部の画像から認識される人の特徴から当該人が追従対象かどうか判定し、追従対象と判定した人を追従するように撮影部の撮影方向を駆動部に変更させる。これにより、撮影部による見守り対象の補捉精度を向上できる。
以下、図面を参照して、本発明の実施形態に係る見守り装置、制御方法、および制御プログラムについて説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
(第1実施形態)
図1は、見守りシステム10の概略構成を示す図である。
図1は、見守りシステム10の概略構成を示す図である。
見守りシステム10は、情報処理装置100、通信ネットワーク200、および携帯端末300を含む。情報処理装置100は、見守り装置を構成する。情報処理装置100の一部、または見守りシステム10の一部または全部が見守り装置を構成してもよい。
情報処理装置100は、通信ネットワーク200によりアクセスポイント210を介して携帯端末300と相互に通信可能に接続される。情報処理装置100は、1つの一体化された装置であり得る。情報処理装置100は、分離配置される複数の装置であってもよい。なお、通信ネットワーク200を介して情報処理装置100および携帯端末300と相互に通信可能なサーバー(図示せず)を設けてもよい。そして、情報処理装置100の機能の一部をサーバーが実施するようにしてもよい。また、通信ネットワーク200を介して情報処理装置100および携帯端末300と相互に通信可能な固定端末(図示せず)を設けてもよい。そして、携帯端末300の一部または全部の機能を固定端末が実施するようにしてもよい。
情報処理装置100は、対象者500の各居室の天井または壁の高い位置等にそれぞれ配設され得る。対象者500は、例えば、介護または看護を必要とする者(人)である。携帯端末300は、対象者500の介護または看護をする各スタッフに携帯される。
(情報処理装置100)
図2は、情報処理装置100のハードウェア構成を示すブロック図である。情報処理装置100は、制御部110、通信部120、記憶部130、およびカメラユニット140を備え、これらはバスによって、相互に接続されている。
図2は、情報処理装置100のハードウェア構成を示すブロック図である。情報処理装置100は、制御部110、通信部120、記憶部130、およびカメラユニット140を備え、これらはバスによって、相互に接続されている。
制御部110は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って情報処理装置100の各部の制御および演算処理を行う。制御部110の機能の詳細については後述する。
通信部120は、通信ネットワーク200を介して、携帯端末300等と通信するためのインターフェース回路(例えばLANカード等)である。
記憶部130は各種プログラムおよび各種データを記憶する。記憶部130は、例えば、SDDまたはHDDにより構成される。
カメラユニット140は、カメラ141、駆動機構142、および人感センサー143を含む。カメラユニット140は、情報処理装置100と一体化されることで、例えば、対象者500の居室の天井、または壁の高い位置等に配置される。
カメラ141は、2次元の撮影画像700(図6を参照。以下、単に「撮影画像700」とも称する)を撮影する。撮影画像700には動画および静止画が含まれる。撮影画像700は、複数のフレーム(静止画)で構成される動画であってもよい。カメラ141は赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。以下、説明を簡単にするために、撮影画像700は、赤外線カメラによる、複数のフレームから構成される動画である場合を例に説明する。
図3は、情報処理装置100の概略構成を示す説明図である。上述したように、カメラユニット140は情報処理装置100と一体化され得る。駆動機構142は、カメラ141の撮影方向を変更する。駆動機構142は、モーター、ギア、およびカメラ141との接合部材を含んで構成され得る。カメラ141は、例えば、図3において矢印で示す方向に、所定の軸に対して回動することにより、撮影方向が変更され得る。
人感センサー143は、対象者500を含む人50(図5等を参照)の位置を検知するためのセンサーである。人感センサー143は、例えば、ステレオカメラ、またはTOF(Time Of Flight)センサーにより構成される。人感センサー143は、所定の検知範囲について、画素ごとの深度情報を検知することで距離画像800(図5を参照。以下、単に「距離画像800」とも称する)を生成する。深度情報は、物体(例えば、人、床、壁、ベッド、および家具)までの、カメラユニット140からの距離の情報である。深度情報は、撮影画像700に垂直な方向(法線方向)における距離の情報であり得る。距離画像800は、画素ごとの深度情報である。従って、距離画像800は、3次元の画像とも言える。距離画像800は、人感センサー143の検知情報を構成する。
人感センサー143による深度情報の検知方向および検知範囲は固定とされ得る。人感センサー143による深度情報の検知範囲は、カメラ141による撮影画像700の各フレームの撮影範囲より広くされ得る。なお、カメラ141の撮影方向が変更させることにより、カメラ141による撮影範囲は拡大される。人感センサー143の固定の検知範囲に、カメラ141による(撮影方向の変更前後の複数の)撮影範囲が包含され得る。なお、距離画像800においては、模様や色等を含むテクスチャー情報は含まれていない。
なお、人感センサー143は、人50の位置を検知する他の装置により置換され得る。他の装置には、例えばビーコンが含まれる。
制御部110の機能について説明する。
図4は、制御部110の機能を示すブロック図である。制御部110は、位置検知部111、駆動部112、認識部113、推定部114、判定部115、追従制御部116、および行動認識部117として機能する。
位置検知部111は、人感センサー143から距離画像800を取得し、距離画像800から人の位置を検知する。
図5は、距離画像800を示す図である。図5の距離画像800においては、深度情報(カメラユニット140から物体までの距離)が、色のトーンにより示されている。なお、図5に示す距離画像800は、色の違いにより深度情報が示された距離画像800をグレー色に変換した画像である。このため、図5に示す距離画像800は、トーンの濃度が深度情報を正確に反映しているとは限らない。図5の例では、距離画像800において人50(人50の画像)が2つ検知されている。
位置検知部111は、時間差分法(フレーム差分法)または背景差分法といった公知の技術により人50の位置を検知し得る。位置検知部111は、距離画像800から人50を検知するための学習がされた、ニューラルネットワークの学習済みモデルを用いて、人50の位置を検知してもよい。
駆動部112は、位置検知部111により検知された人50がカメラ141の撮影範囲に入るように駆動機構142によりカメラ141を回動させる。これにより、位置検知部111により検知された人50が撮影画像700に含まれるようにカメラ141の撮影方向が変更される。距離画像800において複数の人50が検知される場合、当該複数の人50が撮影画像700に含まれるようにカメラ141の撮影方向が変更され得る。距離画像800において複数の人50が検知される場合は、いずれか1人が撮影画像700に含まれるようにカメラ141の撮影方向が変更されてもよい。距離画像800と撮影画像700は互いの各画素が対応付けされるキャリブレーションがなされる。
認識部113は、撮影画像700から人50を認識(検知)する。撮影画像700に複数の人50の画像が含まれている場合は、認識部113は、当該複数の人50すべてを認識し得る。
図6は、撮影画像700において検知された人矩形710を示す図である。認識部113は、撮影画像700に含まれる人50を、当該人50を含む領域である人矩形710として検知し得る。具体的には、認識部113は、撮影画像700上で物体(オブジェクト)が存在する領域を検知する。そして、認識部113は、検知した領域に含まれる物体のカテゴリーを推定することで、人50を検知する。物体が存在する領域は、撮影画像上で物体が含まれる候補矩形として検知される。検知された候補矩形のうち、物体のカテゴリーが人であると推定された候補矩形を、人矩形710として検知することで、人50を検知する。認識部113は、撮影画像700から人矩形710を検知するための辞書(パラメーター)が反映されたニューラルネットワークの学習済みモデルを用い得る。そして、認識部113は、当該学習済みモデルにより、撮影画像700から人矩形710を検知し得る。学習済みモデルとして、例えば、公知のモデルであるRegion Proposal Network(RPN)を用い得る。認識部113は、人矩形710を、撮影画像700と、当該人矩形710の対向する2つの頂点e1、e2の座標との組合せとして出力し得る。
なお、認識部113は、時間差分法(フレーム差分法)または背景差分法といった公知の技術により、撮影画像700からシルエットとして人50を検知してもよい。
推定部114は、認識部113により認識される人50の関節点720を推定する。具体的には、推定部114は、人矩形710から関節点720を推定する。
図7は、関節点720を示す模式図である。
図7の例においては、関節点720には、頭部の関節点720a、肩部の関節点720b、腰部の関節点720c、および体幹を構成する関節点720dが含まれる。頭部の2つの関節点720aの距離は、人50の頭部の大きさを反映する。
図8は、人矩形710に基づいて検知された関節点720を示す模式図である。
図8の例においては、椅子上で座位の姿勢の人50の関節点720が示されている。推定部114は、人矩形710から関節点720を検知するための学習がされた、ニューラルネットワークの学習済みモデルを用いて、関節点720を推定してもよい。学習済みモデルとしては、Deep Pose等の公知のモデルを用い得る。DeepPoseについては、公知の文献(Alexander Toshev, et al. “DeepPose: Human Pose Estimation via Deep Neural Networks”, in CVPR, 2014)に詳細が記載されている。
判定部115は、認識部113により認識される人50の特徴に基づいて、認識部113により認識される人50がカメラ141による追従対象かどうか判定する。追従対象かどうかの判定に用いられる、人50の特徴は、追従対象かどうか判定可能な、人50の特徴が広く含まれる。例えば、人50の特徴には、人50の移動速度、人50の顔、人50の装着物、ならびに、人50の行動範囲および行動パターンが含まれる。
本実施形態においては、判定部115は、関節点720の特徴に基づいて、関節点720が推定された人50が追従対象かどうか判定する。追従対象となるのは対象者500である。従って、判定部115は、関節点720の特徴に基づいて、人矩形710として検知された人50が対象者500であるかどうか判定する。
判定部115は、認識部113により認識される人50の移動速度に基づいて、認識される人50が追従対象かどうか判定し得る。具体的には、判定部115は、人矩形710といて検知された人の中で、人矩形710または関節点720の移動速度に基づいて、いずれか1人を追従対象として判定する。なお、判定部115は、人矩形710が1つのみ検知された場合は、検知された人矩形710に含まれる人50を追従対象と判定する。
判定部115は、人矩形710として検知された人50の中で移動速度が最も遅い人50を追従対象と判定する。これは、追従対象である対象者500は、介護等を必要とすることから、撮影画像700に含まれるスタッフ等の他の人50と比較して移動速度が遅いと考えられるからである。移動速度は、時系列で隣接する、撮影画像のフレームからそれぞれ検知された人矩形710の中心の移動量を、フレーム間隔(時間)で除算することで算出され得る。移動速度は、時系列で隣接する、撮影画像のフレームからそれぞれ検知された関節点720の重心の移動量を、フレーム間隔(時間)で除算することで算出されてもよい。判定部115は、移動速度の算出において、時系列で隣接するフレーム相互における人50の同一性を判断するトラッキングを行い得る。トラッキングでは、例えば、時系列で隣接するフレームからそれぞれ検知される人矩形710の重複度合い(または近接度合い)が最も高い人矩形710を決定する。そして、決定した人矩形710同士を同じ人50の人矩形710と判断する。トラッキングでは、時系列で隣接するフレームからそれぞれ検知される関節点720の近接度合いが最も高い関節点720を決定する。そして、決定した関節点720同士を同じ人50の関節点720と判断する。トラッキングは、トラッキングのジャンルであるMTSCT(Multi Target SingleCamera Tracking)に含まれる公知のトラッキングアルゴリズムであるDeepSORTを用いて行われてもよい。
判定部115は、認識部113により認識される人50の関節点720の特徴に基づいて、認識される人50が追従対象かどうか判定してもよい。具体的には、判定部115は、関節点720から人50の姿勢を算出し、算出した姿勢に基づいて、当該関節点720に対応する人50が追従対象かどうか判定し得る。人50の姿勢は、ニューラルネットワークを用いた公知の機械学習技術を用いて算出(推定)されてもよい。判定部115は、例えば、前屈みの姿勢の人50を追従対象として判定し得る。
判定部115は、移動速度および姿勢の両方に基づいて、認識部113により認識される人50が追従対象かどうか判定してもよい。例えば、前屈みの姿勢のまま比較的遅い移動速度で移動する人50を追従対象と判定してもよい。
追従制御部116は、判定部115により追従対象と判定された人50を追従するように、カメラ141の撮影方向を駆動機構142に変更させる。この際、追従制御部116は、追従対象と判定された人50を追従するために、撮影画像700のフレームの相互における人50の同一性を判断するトラッキングが行なわれてもよい。トラッキングを行うことで、撮影画像700のフレームごとの、判定部115による追従対象の判定を不要にできる。トラッキングでは、例えば、時系列で隣接するフレームからそれぞれ検知される人矩形710の重複度合い(または近接度合い)が最も高い人矩形710を決定する。そして、決定された人矩形710同士を同じ人50の人矩形710と判断する。トラッキングには、上述したDeepSORTを用いてもよい。
行動認識部117は、推定部114により推定される関節点720に基づいて、追従対象と判定された対象者500の行動を認識する。行動認識部117は、例えば、関節点720から対象者500の立位の姿勢が検知された状態から、短時間に臥位の姿勢が検知された場合、「転倒」の行動を認識し得る。対象者500の行動は、ニューラルネットワークの学習済みモデルを用いて認識されてもよい。当該学習済みモデルは、時系列で隣接する複数の撮影画像からそれぞれ推定される、複数の関節点720に基づいて行動が推定されるように学習されたモデルである。対象者500の行動は、関節点720と物体(例えば、ベッド70)との相対的位置関係を用いて認識されてもよい。例えば、撮影画像700にベッド70の外で、かつベッド70から比較的近い範囲の関節点720から臥位の姿勢が検知された場合、「転落」の行動が認識され得る。
なお、制御部110は、行動認識部117により認識される、対象者500の行動から、対象者500に関するイベントを検知し得る。イベントとは、対象者500に関する状態や状況の変化であって、例えば、起床、離床、転倒、および転落等の介助者等に発報(報知)を行うべき事象である。制御部110は、イベントを検知した場合は、イベントの内容を通知するイベント通知を携帯端末300や、管理者の固定端末(図示せず)等の外部装置へ送信してもよい。
見守りシステム10の動作について説明する。
図9は、見守りシステム10の動作を示すフローチャートである。本フローチャートは、情報処理装置100の制御部110によりプログラムに従い実行され得る。
制御部110は、人感センサー143により距離画像800を取得する(S101)。
制御部110は、距離画像800から人50を検知する(S102)。
制御部110は、検知した人50がカメラ141の撮影範囲に入るようにカメラ141の撮影方向を変更する(S103)。
制御部110は、カメラ141による撮影画像700から人50を検知する(S104)。
制御部110は、検知された人50が1人かどうか判断する(S105)。制御部110は、検知された人50が1人であると判断したときは(S105:YES)、検知された1人の人50を追従対象と判定する(S107)。
制御部110は、検知された人50が1人ではなく複数人であると判断したときは(S105:NO)、検知された人50それぞれの移動速度を算出する。そして、移動速度が一番遅い人50を(S106:YES)、追従対象と判定する(S107)。制御部110は、移動速度が一番遅い人50でない人50を(S106:NO)、追従対象でないと判定する(S107)。
制御部110は、追従対象と判定した人50を追従するように、駆動機構142により、カメラ141の撮影方向を制御する(S109)。
制御部110は、追従対象と判定した人50の関節点720等に基づいて、当該人50の行動を認識する。
(第2実施形態)
本発明の第2実施形態について説明する。本実施形態が第1実施形態と異なる点は次の点である。第1実施形態においては、人50の移動速度等に基づいて追従対象かどうか判定する。一方、本実施形態においては、人50の顔、または人50の装着物の認証により追従対象かどうか判定する。これ以外の点においては、本実施形態は第1実施形態と同様であるため、重複する説明は省略する。
本発明の第2実施形態について説明する。本実施形態が第1実施形態と異なる点は次の点である。第1実施形態においては、人50の移動速度等に基づいて追従対象かどうか判定する。一方、本実施形態においては、人50の顔、または人50の装着物の認証により追従対象かどうか判定する。これ以外の点においては、本実施形態は第1実施形態と同様であるため、重複する説明は省略する。
制御部110の機能を、図4を参照して説明する。
認識部113は、撮影画像700から人50および人50の顔を認識(検知)する。撮影画像700に複数の人50の画像が含まれている場合は、認識部113は、当該複数の人50およびその顔を認識し得る。具体的には、認識部113は、撮影画像700から人矩形710を検知する。認識部113は、人矩形710に含まれる人50の顔を、当該顔を含む領域である顔領域711(図10を参照)として検知する。具体的には、例えば、認識部113は、人矩形710から顔領域711を検知するための辞書(パラメーター)が反映されたニューラルネットワークの学習済みモデルを用いる。認識部113は、当該学習済みモデルにより、人矩形710から顔領域711を検知し得る。学習済みモデルとして、例えば、公知のモデルであるRegion Proposal Network(RPN)を用い得る。認識部113は、顔領域711を、撮影画像700と、当該顔領域711の対向する2つの頂点の座標との組合せとして出力し得る。
図10は、顔領域711を示す模式図である。
図10の例においては、撮影画像700に人50が2人含まれており、それぞれの顔領域711が検知されている。図7においては、人矩形710が破線の矩形として示されている。
判定部115は、認識部113により認識される人50の顔の認証により、追従対象かどうか判定する。判定部115は、具体的には、例えば、次のように人50の顔の認証をする。対象者500の顔の画像を予め記憶部130に記憶させることで登録する。判定部115は、公知の顔認証技術を用い得る。判定部115は、登録された顔の画像と、顔領域711に含まれる顔の画像とを比較する。そして、判定部115は、顔領域711に含まれる顔の画像と特徴が一致する顔の画像が登録されているか判断する。判定部115は、顔領域711に含まれる顔の画像と特徴が一致する顔の画像が登録されていると判断したときは、当該顔領域711に対応する人50を追従対象と判定する。具体的には、判定部115は、当該顔領域711を含む人矩形710に対応する人50を追従対象と判定する。
判定部115は、人矩形710に含まれる人50の装着物の認証により、追従対象かどうか判定してもよい。装着物には、服に付与されたマーカー等が含まれる。判定部115は、具体的には、例えば、次のように装着物の認証をする。対象者500が装着する所定の装着物の画像を予め記憶部130に記憶させることで登録する。判定部115は、ニューラルネットワークを用いた公知の機械学習技術を用い得る。判定部115は、登録された装着物の画像と、人矩形710に含まれる装着物の画像とを比較する。そして、判定部115は、人矩形710に含まれる装着物の画像と一致する装着物の画像が登録されているか判断する。判定部115は、一致する装着物の画像が登録されていると判断したときは、当該装着物を含む人矩形710に対応する人50を追従対象と判定する。
見守りシステム10の動作について説明する。
図11は、見守りシステム10の動作を示すフローチャートである。本フローチャートは、情報処理装置100の制御部110によりプログラムに従い実行され得る。
図11のフローチャートのステップS201~S204は、第1実施形態において説明した、図9のフローチャートのステップS101~S104と同様である。従って、ステップS201~S204についての説明は省略する。また、ステップS209~S210は、第1実施形態において説明した、図9のフローチャートのステップS109~S110と同様である。従って、ステップS209~S210についての説明は省略する。
制御部110は、撮影画像700において検知された人50の顔を認識する(S205)。
制御部110は、認識した顔が、登録された顔の画像と合致するかどうか判断することで、認識した顔を認証する(S206)。制御部110は、認識した顔が、登録された顔の画像と合致すると判断したときは、当該認識した顔に対応する人50を追従対象と判定する(S207)。制御部110は、認識した顔が、登録された顔の画像のいずれとも合致しないと判断したときは、当該認識した顔に対応する人50が追従対象でないと判定する(S208)。
(第3実施形態)
本発明の第3実施形態について説明する。本実施形態が第1実施形態と異なる点は次の点である。第1実施形態においては、人50の移動速度等に基づいて追従対象かどうか判定する。一方、本実施形態においては、撮影画像700から認識される人50と物体との相対的位置に基づいて、当該人50が追従対象かどうか判定する。これ以外の点においては、本実施形態は第1実施形態と同様であるため、重複する説明は省略する。
本発明の第3実施形態について説明する。本実施形態が第1実施形態と異なる点は次の点である。第1実施形態においては、人50の移動速度等に基づいて追従対象かどうか判定する。一方、本実施形態においては、撮影画像700から認識される人50と物体との相対的位置に基づいて、当該人50が追従対象かどうか判定する。これ以外の点においては、本実施形態は第1実施形態と同様であるため、重複する説明は省略する。
制御部110の機能を、図4を参照して説明する。
認識部113は、撮影画像700から人50および物体を認識(検知)する。撮影画像700に複数の人50および複数の物体の画像が含まれている場合は、認識部113は、当該複数の人50および物体のすべてを認識し得る。物体には、対象者500が使用する物体が含まれる。具体的には、物体には、例えば、ベッド70、および車椅子が含まれる。以下、説明を簡単にするために、物体がベッド70である場合を例に説明する。
認識部113は、撮影画像700に含まれる人50およびベッド70を、それぞれ人矩形710および物体矩形として検知し得る。具体的には、認識部113は、撮影画像700上で物体(オブジェクト)が存在する領域を検知する。認識部113は、検知した領域に含まれる物体のカテゴリーを推定することで、人50およびベッド70を検知する。物体が存在する領域は、撮影画像700上で物体が含まれる候補矩形として検知される。検知された候補矩形のうち、物体のカテゴリーが人50であると推定された候補矩形を、人矩形710として検知することで、人50を検知する。検知された候補矩形のうち、物体のカテゴリーがベッド70であると推定された候補矩形を、ベッド領域として検知することで、ベッド70を検知する。なお、ベッド領域は、撮影画像700内の所定の領域として予め登録されてもよい。
判定部115は、認識部113により認識される人50とベッド70との相対的位置に基づいて、当該人50が追従対象かどうか判定する。具体的には、判定部115は、人矩形710とベッド領域が重なっているときに、人矩形710に対応する人50を追従対象と判定する。これは、ベッド70上に存在する人50は対象者500である可能性が高いからである。人矩形710とベッド領域が重なっていることは、ベッド70上に人50が存在することを示している。
見守りシステム10の動作について説明する。
図12は、見守りシステム10の動作を示すフローチャートである。本フローチャートは、情報処理装置100の制御部110によりプログラムに従い実行され得る。
図12のフローチャートのステップS301~S304は、第1実施形態において説明した、図9のフローチャートのステップS101~S104と同様である。従って、ステップS301~S304についての説明は省略する。また、ステップS309~S310は、第1実施形態において説明した、図9のフローチャートのステップS109~S110と同様である。従って、ステップS309~S310についての説明は省略する。
制御部110は、撮影画像700において、人50およびベッド70を検知する(S304)。
制御部110は、検知された人50が1人かどうか判断する(S305)。制御部110は、検知された人50が1人であると判断したときは(S305:YES)、検知された1人の人50を追従対象と判定する(S307)。
制御部110は、検知された人50が1人ではなく複数人であると判断したときは(S305:NO)、当該人50がベッド70上で検知されたかどうか判断する(S306)。制御部110は、検知された人50がベッド70上で検知されたと判断したときは(S306:YES)、当該50を追従対象と判定する(S307)。制御部110は、検知された人50がベッド70上で検知されていないと判断したときは(S306:NO)、当該50は追従対象でないと判定する(S308)。
(第4実施形態)
本発明の第4実施形態について説明する。
本発明の第4実施形態について説明する。
本実施形態では、追従対象を判定した後、所定の条件を満たしたときに、再度、カメラ141の撮影方向を変更させて追従対象の判定をする。所定の条件には、例えば次のものがある。(1)判定部115により追従対象と判定された人50が撮影画像700において認識部113により認識されなくなったこと。(2)判定部115により追従対象と判定された人50が撮影画像700において認識部113により認識されなくなってから所定時間経過したこと。(3)判定部115により追従対象と判定された人50が撮影画像700において認識部113により認識されなくなる。その後、人感センサー143により人50が検知されたこと。
図13は、判定部115により追従対象と判定された人50が撮影画像700において認識部113により認識されなくなった状況を示す説明図である。図13において矢印は時間の経過を示している。また、破線によりカメラ141の撮影範囲が示されている。
図13において、対象者500はベッド70で臥位の姿勢の状態にある。一方、対象者500以外の人50であるスタッフ50sは立位の姿勢で、出口に向かって歩き始めているという行動をしている。
図13の上段の図は、対象者500以外の人50であるスタッフ50sが誤って追従対象と判定された状況を示している。中段の図は、誤って、スタッフ50sを追従するように、カメラ141の撮影方向が変更されている状況を示している。画像の乱れや、オクルージョン等が発生することがあるため、追従対象の誤判定が生じる可能性はないとは言えない。下段の図は、対象者500の居室からスタッフ50sが出た状況を示している。これにより、カメラ141の撮影範囲から、カメラ141が誤って追従していたスタッフ50sが消える。下段の図に示す状況になると、撮影画像700から人50が認識されない状態になる。すなわち、判定部115により追従対象と判定された人50が撮影画像700において認識部113により認識されなくなっている。この状態のままカメラ141の撮影方向が変更されないとすると、追従されるべき対象者500の見守りがされない。
そこで、本実施形態では、次の制御をする。判定部115により追従対象と判定された人50が撮影画像700において認識部113により認識されなくなる。このとき、制御部110は、再度、カメラ141の撮影方向を変更させて追従対象の判定をする。そして、制御部110は、追従対象と判定された人50をカメラ141の撮影方向を変更させることで追従させる。
制御部110は、次の制御をしてもよい。判定部115により追従対象と判定された人50が撮影画像700において認識部113により認識されなくなる。その後所定時間経過したときに、制御部110は、再度、カメラ141の撮影方向を変更させて追従対象の判定をしてもよい。そして、制御部110は、追従対象と判定された人50をカメラ141の撮影方向を変更させることで追従させてもよい。所定時間は、追従対象が正しく判定されている時間の割合等の観点から実験等により適当に設定され得る。
制御部110は、次の制御をしてもよい。判定部115により追従対象と判定された人50が撮影画像700において認識部113により認識されなくなる。その後、制御部110は、人50が人感センサー143により人が検知されたときに、再度、カメラ141の撮影方向を変更させて追従対象の判定をし得る。そして、追従対象と判定された人50をカメラ141の撮影方向を変更させることで追従させ得る。
図14は、追従されていた人50が認識されなくなった後、人感センサー143により検知されている別の人50が追跡対象と判定された状況を示す説明図である。図14においては、追従されていた人50が認識部113により認識されなくなる。その後、人感センサー143により検知されている別の人50が、再度、カメラ141の撮影方向が変更されて追従対象と判定されている。
図14の例においては、制御部110は、再度、カメラ141の撮影方向を変更させて、対象者500を正しく追従対象と判定している。
図15は、追従されていた人50が認識されなくなった後、人感センサー143により人50が検知されていない状況を示す説明図である。図15においては、追従されていた人50が認識部113により認識されなくなる。その後、人感センサー143により人50が検知されていない。
図15の例においては、制御部110は、人感センサー143により人50が検知されていないため、居室の出入り口の方向にカメラ141の撮影方向を固定している。次に居室に入ってくる人50は追従対象である対象者500である可能性が高い。従って、追従対象である人50を速やかに追従できる。
実施形態は、以下の効果を奏する。
人感センサーによる人の検知情報に基づき、撮影部の撮影方向を変更する駆動部を備える。そして、撮影部の画像から認識される人の特徴から当該人が追従対象かどうか判定し、追従対象と判定した人を追従するように撮影部の撮影方向を駆動部に変更させる。これにより、撮影部による見守り対象の補捉精度を向上できる。
また、認識される人の移動速度に基づいて、追従対象かどうか判定する。これにより、簡単かつ効果的に撮影部による見守り対象の補捉精度を向上できる。
また、認識される人を、顔または装着物の認証により、追従対象かどうか判定する。これにより、撮影部による見守り対象の補捉精度をより向上できる。
また、撮影部の画像から認識される人の関節点を推定し、関節点に基づいて追従対象かどうか判定する。これにより、撮影部による見守り対象の補捉精度をより向上できる。
また、撮影部により撮影される画像から物体をさらに認識する。そして、当該画像から認識される人と、認識される物体との相対的位置に基づいて、当該人が前記追従対象かどうか判定する。これにより、より柔軟に、撮影部による見守り対象の補捉精度をより向上できる。
また、所定の条件を満たしたときに、再度、撮影部の撮影方向を変更させて、追従対象と判定された人を追従させる。これにより、追従対象が追従されない状態の発生を抑制できる。
さらに、上記所定の条件を、(1)追従対象と判定された人が画像において認識されなくなったこととする。または、(2)追従対象と判定された人が画像において認識されなくなってから所定時間経過したこととする。または、(3)追従対象と判定された人が画像において認識されなくなった後、人感センサーにより人が検知されたこととする。これにより、簡単かつ効果的に、追従対象が追従されない状態の発生を抑制できる。
以上に説明した、見守り装置、制御方法、および制御プログラムの構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのである。従って、見守り装置、制御方法、および制御プログラムは、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な見守り装置、制御方法、および制御プログラムの構成を排除するものではない。
例えば、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、上述したシステムにおける各種処理を行う手段および方法は、専用のハードウェア回路よっても実現することが可能である。上述したシステムにおける各種処理を行う手段および方法は、プログラムされたコンピューターによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその情報処理装置等の装置のソフトウエアに組み込まれてもよい。
10 見守りシステム、
50 人、
50s 介助者、
70 ベッド、
100 情報処理装置、
110 制御部、
111 位置検知部、
112 駆動部、
113 認識部、
114 推定部、
115 判定部、
116 追従制御部、
117 行動認識部、
120 通信部、
130 記憶部、
140 カメラユニット、
141 カメラ、
142 駆動機構、
143 人感センサー、
200 通信ネットワーク、
210 アクセスポイント、
300 携帯端末、
500 対象者、
700 撮影画像、
710 人矩形、
711 顔領域、
720 関節点。
50 人、
50s 介助者、
70 ベッド、
100 情報処理装置、
110 制御部、
111 位置検知部、
112 駆動部、
113 認識部、
114 推定部、
115 判定部、
116 追従制御部、
117 行動認識部、
120 通信部、
130 記憶部、
140 カメラユニット、
141 カメラ、
142 駆動機構、
143 人感センサー、
200 通信ネットワーク、
210 アクセスポイント、
300 携帯端末、
500 対象者、
700 撮影画像、
710 人矩形、
711 顔領域、
720 関節点。
Claims (15)
- 人の画像を撮影する撮影部と、
人の位置を検知する人感センサーと、
前記人感センサーの検知情報に基づき、前記撮影部の撮影方向を変更する駆動部と、
前記撮影部により撮影される前記画像から人を認識する認識部と、
前記認識部により認識される人の特徴に基づいて、前記認識部により認識される人が追従対象かどうか判定する判定部と、
前記判定部により前記追従対象と判定された人を追従するように、前記撮影部の撮影方向を前記駆動部に変更させる制御部と、
を有する見守り装置。 - 前記判定部は、前記認識部により認識される人の移動速度に基づいて、前記追従対象かどうか判定する、請求項1に記載の見守り装置。
- 前記判定部は、前記認識部により認識される人を、顔または装着物の認証により、前記追従対象かどうか判定する、請求項1に記載の見守り装置。
- 前記認識部により認識される人の関節点を推定する推定部を有し、
前記判定部は、前記推定部により推定される前記関節点に基づいて前記追従対象かどうか判定する、請求項1に記載の見守り装置。 - 前記認識部は、前記撮影部により撮影される前記画像から人以外の物体をさらに認識し、
前記判定部は、前記認識部により認識される人と、前記認識部により認識される前記物体との相対的位置に基づいて、当該人が前記追従対象かどうか判定する、請求項1に記載の見守り装置。 - 前記制御部は、所定の条件を満たしたときに、再度、前記駆動部に、前記撮影部の前記撮影方向を変更させて、前記判定部により前記追従対象と判定された人を追従させる、請求項1~5のいずれか一項に記載の見守り装置。
- 前記所定の条件は、前記判定部により前記追従対象と判定された人が前記画像において前記認識部により認識されなくなったこと、前記判定部により前記追従対象と判定された人が前記画像において前記認識部により認識されなくなってから所定時間経過したこと、または、前記判定部により前記追従対象と判定された人が前記画像において前記認識部により認識されなくなった後、前記人感センサーにより人が検知されたことである、請求項6に記載の見守り装置。
- 人の画像を撮影する撮影部と、
人の位置を検知する人感センサーと、
前記撮影部の撮影方向を変更する駆動部と、を有する見守り装置の制御方法であって、
前記人感センサーの検知情報に基づき、前記撮影部の撮影方向を変更させるステップ(a)と、
前記撮影部により撮影される前記画像から人を認識するステップ(b)と、
前記ステップ(b)において認識される人の特徴に基づいて、認識される人が追従対象かどうか判定するステップ(c)と、
前記ステップ(c)において前記追従対象と判定された人を追従するように、前記撮影部の撮影方向を前記駆動部に変更させるステップ(d)と、
を有する制御方法。 - 前記ステップ(c)においては、前記ステップ(b)において認識される人の移動速度に基づいて、前記追従対象かどうか判定する、請求項8に記載の制御方法。
- 前記ステップ(c)においては、前記ステップ(b)において認識される人を、顔または装着物の認証により、前記追従対象かどうか判定する、請求項8に記載の制御方法。
- 前記ステップ(b)において認識される人の関節点を推定するステップ(e)を有し、
前記ステップ(c)においては、前記ステップ(e)において推定される前記関節点に基づいて前記追従対象かどうか判定する、請求項8に記載の制御方法。 - 前記ステップ(b)においては、前記撮影部により撮影される前記画像から人以外の物体をさらに認識し、
前記ステップ(c)においては、前記ステップ(b)において認識される人と、前記ステップ(b)において認識される前記物体との相対的位置に基づいて、当該人が前記追従対象かどうか判定する、請求項8に記載の制御方法。 - 所定の条件を満たしたときに、再度、前記駆動部に、前記撮影部の前記撮影方向を変更させて、前記追従対象と判定された人を追従させるステップ(f)を有する、請求項8に記載の制御方法。
- 前記所定の条件は、前記ステップ(c)において前記追従対象と判定された人が前記画像において認識されなくなったこと、前記ステップ(c)において前記追従対象と判定された人が前記画像において認識されなくなってから所定時間経過したこと、または、前記ステップ(c)において前記追従対象と判定された人が前記画像において認識されなくなった後、前記人感センサーにより人が検知されたことである、請求項13に記載の制御方法。
- 請求項8~14のいずれか一項に記載の制御方法をコンピューターに実行させるための制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023075981A JP2024160736A (ja) | 2023-05-02 | 2023-05-02 | 見守り装置、制御方法、および制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023075981A JP2024160736A (ja) | 2023-05-02 | 2023-05-02 | 見守り装置、制御方法、および制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024160736A true JP2024160736A (ja) | 2024-11-15 |
Family
ID=93455427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023075981A Pending JP2024160736A (ja) | 2023-05-02 | 2023-05-02 | 見守り装置、制御方法、および制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024160736A (ja) |
-
2023
- 2023-05-02 JP JP2023075981A patent/JP2024160736A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12347202B2 (en) | System and method for monitoring clinical activities | |
US11879960B2 (en) | System and method for monitoring clinical activities | |
CN111507176B (zh) | 姿势估计装置、行动估计装置、记录介质、姿势估计方法 | |
US10095930B2 (en) | System and method for home health care monitoring | |
US7106885B2 (en) | Method and apparatus for subject physical position and security determination | |
JP6666488B2 (ja) | 画像抽出装置 | |
Huang et al. | Multimodal sleeping posture classification | |
JP7185805B2 (ja) | 転倒リスク評価システム | |
JP2019020993A (ja) | 見守り支援システム及びその制御方法 | |
JP7314939B2 (ja) | 画像認識プログラム、画像認識装置、学習プログラム、および学習装置 | |
JP7500929B2 (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
JP7243725B2 (ja) | 対象物体検出プログラム、および対象物体検出装置 | |
JP2024160736A (ja) | 見守り装置、制御方法、および制御プログラム | |
JP2020134971A (ja) | 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置 | |
JP7435609B2 (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
JP7351339B2 (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
JP7707958B2 (ja) | 補正システム、補正方法、および補正プログラム | |
JP7388440B2 (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
JP2024162612A (ja) | 見守り装置、および見守りシステム | |
EP4394725A1 (en) | Method and system for monitoring bedridden and bed-resting persons | |
JPH04318697A (ja) | 監視装置 | |
Foroughi et al. | Distinguishing fall activities using human shape characteristics | |
JP2025021925A (ja) | 見守りシステム、見守り方法、および見守りプログラム | |
JP2025007561A (ja) | 見守りシステム、見守り方法、および見守りプログラム | |
JP2021065617A (ja) | 画像処理装置および画像処理プログラム |