[go: up one dir, main page]

JP6810726B2 - 食事モニタリング方法、プログラム及び食事モニタリング装置 - Google Patents

食事モニタリング方法、プログラム及び食事モニタリング装置 Download PDF

Info

Publication number
JP6810726B2
JP6810726B2 JP2018191869A JP2018191869A JP6810726B2 JP 6810726 B2 JP6810726 B2 JP 6810726B2 JP 2018191869 A JP2018191869 A JP 2018191869A JP 2018191869 A JP2018191869 A JP 2018191869A JP 6810726 B2 JP6810726 B2 JP 6810726B2
Authority
JP
Japan
Prior art keywords
mastication
detection device
measured value
meal
determination algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018191869A
Other languages
English (en)
Other versions
JP2020058609A (ja
Inventor
基樹 谷村
基樹 谷村
鎌田 大介
大介 鎌田
裕希 寺邊
裕希 寺邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018191869A priority Critical patent/JP6810726B2/ja
Priority to CN201910829571.9A priority patent/CN111012354B/zh
Priority to US16/558,944 priority patent/US11510610B2/en
Publication of JP2020058609A publication Critical patent/JP2020058609A/ja
Application granted granted Critical
Publication of JP6810726B2 publication Critical patent/JP6810726B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4205Evaluating swallowing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1107Measuring contraction of parts of the body, e.g. organ or muscle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4833Assessment of subject's compliance to treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6815Ear
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • A61B5/228Measuring muscular strength of masticatory organs, e.g. detecting dental force

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Otolaryngology (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Power Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)

Description

本発明は、食事モニタリング方法、プログラム及び食事モニタリング装置に関する。
生活習慣の改善、病気の早期発見、体調管理などの観点からウェアラブルセンサが注目されている。
例えば、咀嚼の回数を計測することができるウェアラブルセンサが知られている(例えば、特許文献1〜3参照)。このセンサでは、測距センサを用いてセンサと顎との間の距離を測定することにより顎の動きを検出し咀嚼回数を計測している。
食事の際の咀嚼回数が少ないと、肥満を引き起こす場合や、消化不良を引き起こす場合がある。このため、ウェアラブルセンサにより咀嚼回数を数値化することにより、容易に咀嚼回数を確認することができ、十分な咀嚼回数で食事をすることができる。また、咀嚼回数を管理することができるため、健康管理に利用することができる。
特開2015−208634号公報 特開2016−140478号公報 WO2018/042702A1
咀嚼の回数を計測する従来の計測器では、共通の判定アルゴリズムを用いてセンサの計測値の変化について咀嚼判定を行っているが、人体の情報をセンシングしている以上、ユーザー毎に咀嚼の際の動きの大きさ、顔の形状などが異なり、咀嚼判定の精度が高い人と低い人が発生してしまう。すなわち、個人差に起因して咀嚼判定の精度にばらつきが生じてしまう。
本発明は、このような事情に鑑みてなされたものであり、個人差に起因する咀嚼判定の精度のばらつきを小さくすることができる食事モニタリング方法を提供する。
本発明は、顎の動きを検出するように設けられたセンサ部を備える検出装置を装着した人が食事をする際の前記センサ部の計測値の経時変化から咀嚼判定アルゴリズムを用いて咀嚼の有無を判定する食事モニタリング方法であって、前記検出装置を装着した人の咀嚼動作又は口開閉動作に対応した前記センサ部の計測値の変化に基づき前記咀嚼判定アルゴリズムを調整するステップと、調整済みの前記咀嚼判定アルゴリズムを用いて食事中における前記センサ部の計測値の経時変化から咀嚼の有無を判定し咀嚼回数を計測するステップとを備える食事モニタリング方法を提供する。
本発明の食事モニタリング方法では、ユーザーに合わせて調整した咀嚼判定アルゴリズムを用いるため、個人差に起因する咀嚼判定の精度のばらつきを小さくすることができる。
本発明の一実施形態の食事モニタリング装置に含まれる検出装置の概略斜視図である。 本発明の一実施形態の食事モニタリング装置に含まれる検出装置が装着された状態の概略図である。 センサ部を用いて顎の動きを検出する際の光経路の説明図である。 本発明の一実施形態の食事モニタリング装置の構成を示すブロック図である。 食事中におけるセンサ部の計測値の変化を示すグラフである。 本発明の一実施形態の食事モニタリング方法のフローチャートである。 (a)〜(f)はキャリブレーションにおいて表示部に表示するガイド画面である。 口開閉動作に対応した計測値の変化の説明図である。 咀嚼動作に対応した計測値の変化の説明図である。 本発明の一実施形態の食事モニタリング方法のフローチャートである。 本発明の一実施形態の食事モニタリング方法のフローチャートである。
本発明の食事モニタリング方法は、顎の動きを検出するように設けられたセンサ部を備える検出装置を装着した人が食事をする際の前記センサ部の計測値の経時変化から咀嚼判定アルゴリズムを用いて咀嚼の有無を判定する食事モニタリング方法であって、前記検出装置を装着した人の咀嚼動作又は口開閉動作に対応した前記センサ部の計測値の変化に基づき前記咀嚼判定アルゴリズムを調整するステップと、調整済みの前記咀嚼判定アルゴリズムを用いて食事中における前記センサ部の計測値の経時変化から咀嚼の有無を判定し咀嚼回数を計測するステップとを備えることを特徴とする。
本発明の食事モニタリング方法において、咀嚼判定アルゴリズムを調整するステップは、検出装置を装着した人の右側咀嚼動作及び左側咀嚼動作のそれぞれについて咀嚼判定アルゴリズムを調整するステップであることが好ましい。このことにより、食事中のユーザーの右側咀嚼及び左側咀嚼を検出することができる。また、右側咀嚼の回数及び左側咀嚼の回数をユーザーに知らせることにより、偏側咀嚼習慣の解消につながる。
本発明の食事モニタリング方法は、検出装置を装着した人の口開閉動作に対応したセンサ部の計測値の変化を統計データと比較するステップをさらに備えることが好ましい。このことにより、顎関節症などの可能性を発見することができる。
検出装置は加速度センサを備えることが好ましく、本発明の食事モニタリング方法は、検出装置を装着した人の姿勢に対応した加速度センサの計測値に基づき姿勢判定アルゴリズムを調整するステップと、調整済みの姿勢判定アルゴリズムを用いて加速度センサの計測値から検出装置を装着した人の食事中の姿勢を判定するステップとをさらに備えることが好ましい。このことにより、食事中にユーザーの姿勢が変わったことを検出することができ、センサ部の計測値を補正することが可能となり、咀嚼判定の精度を向上させることができる。
本発明は、本発明の食事モニタリング方法をコンピューターに実行させるためのプログラムも提供する。
本発明は、前記検出装置と、前記検出装置と通信可能に設けられた情報機器とを備え、前記情報機器は第1制御部を有し、第1制御部は本発明の食事モニタリング方法を実行できるように設けられた食事モニタリング装置も提供する。
本発明は、検出装置を備え、検出装置は第2制御部を有し、第2制御部は本発明の食事モニタリング方法を実行できるように設けられた食事モニタリング装置も提供する。
本発明の食事モニタリング装置に含まれる検出装置は、一方の端にフック部を有し他方の端に前記センサ部を有するL字形状を有することが好ましく、かつ、前記L字形状の角部に配置された電池を有することが好ましい。
以下、複数の実施形態を参照して本発明をより詳細に説明する。図面や以下の記述中で示す構成は、例示であって、本発明の範囲は、図面や以下の記述中で示すものに限定されない。
第1実施形態
図1は本実施形態の食事モニタリング装置に含まれる検出装置の概略斜視図であり、図2は検出装置が装着された状態の概略図である。図3はセンサ部を用いて顎の動きを検出する際の光経路の説明図であり、図4は食事モニタリング装置のブロック図である。
本実施形態の食事モニタリング方法は、顎の動きを検出するように設けられたセンサ部3を備える検出装置2を装着した人が食事をする際のセンサ部3の計測値の経時変化から咀嚼判定アルゴリズムを用いて咀嚼の有無を判定する食事モニタリング方法である。本実施形態の食事モニタリング方法は、検出装置2を装着した人の咀嚼動作又は口開閉動作に対応したセンサ部3の計測値の変化に基づき咀嚼判定アルゴリズムを調整するステップと、調整済みの咀嚼判定アルゴリズムを用いて食事中におけるセンサ部3の計測値の経時変化から咀嚼の有無を判定し咀嚼回数を計測するステップとを備える。
また、本実施形態のプログラムは、本実施形態の食事モニタリング方法をコンピューターに実行させるように作成されている。コンピューターは、例えば、マイクロコントローラ、スマートフォン、パーソナルコンピューター、モバイルコンピューター、スマートウォッチ、携帯電話などである。
本実施形態の食事モニタリング装置は、検出装置2と、検出装置2と通信可能に設けられた情報機器10とを備える。情報機器10は、本実施形態の食事モニタリング方法を実行できるように設けられる。情報機器10は、例えば、携帯端末(スマートフォン、モバイルコンピューター、スマートウォッチ、携帯電話など)やパーソナルコンピューターなどである。
検出装置2は、顎の動きを連続的に検出するように設けられたセンサ部3を備える装置である。センサ部3は、例えば、反射型フォトインタラプタ(反射型フォトセンサ)、赤外線センサ、イメージセンサなどの光学センサ、マイクロ波センサなどである。また、センサ部3は、加速度センサなどを備える接触式センサであってもよい。ここでは、センサ部3として反射型フォトインタラプタを備える検出装置2について説明する。
検出装置2は、耳装着型装置であってもよい。本実施の形態では、耳装着型装置を用いて説明する。検出装置2は、例えば、一方の端にフック部15を有し他方の端にセンサ部3を有するL字形状を有することができる。このフック部15を耳介付け根上部に引っ掛けることにより、検出装置2を耳裏に装着することができ、センサ部3により下顎骨の表面の皮膚20の動きを検出することが可能になる。例えば、図1に示したような検出装置2を図2のように耳に装着することができる。
また、検出装置2の電池16は、L字形状の角部に配置することができる。電池16は、一次電池であってもよいし、二次電池(充電式電池)であってもよい。
センサ部3は、発光部4と光電変換部5とを備える。
センサ部3により顎の動きを検出する際、発光部3の発光は、図3(a)のように皮膚20に向けて照射される。照射された光は、皮膚20で透過、散乱又は反射される。そして、皮膚20で反射された光の一部が光電変換部5に入射し、光電変換され光電流が生じる。咀嚼や口の開閉に伴い図3(a)→図3(b)のように皮膚20が動き、発光部4及び光電変換部5と皮膚20との間の距離D1、D2が変化する。また、皮膚20への光の入射角度が変化する。このため、皮膚20における光の透過、散乱、反射が変化する。この結果、光電変換部5に入射する光量が変化し、光電変換部5で生じる光電流の大きさが変化する。光電変換部5で生じる光電流の大きさは検出装置2を装着した人の咀嚼に伴う皮膚20の動きの大きさ、検出装置2を装着した人の顔の形状などにより変わるため、光電変換部5で生じる光電流の大きさ及び変化には個人差がある。
例えば、検出装置2により咀嚼に伴う皮膚20の動きを検出する場合、発光部4及び光電変換部5と皮膚20との間の距離Dは、D1→D2→D1→D2→D1→D2のように周期的に変化する。また、皮膚20への光の入射角度も周期的に変化する。このため、咀嚼に伴う光電変換部5で生じる光電流の大きさも周期的に変化し、センサ部3のセンサ出力も周期的に変化する。
センサ部3は、光電変換部5で生じる光電流の大きさをセンサ出力として連続的に出力する。センサ出力は光電流を増幅した信号であってもよい。センサ部3のセンサ出力値は、通信部7aから連続的に発信され情報機器10の通信部7cにより受信される。そして、このセンサ出力値は、情報機器10の制御部6bの記憶部11に保存される。また、センサ出力値は、制御部6bにより増幅され、フィルタ処理がなされることにより計測値に変換されてもよい。フィルタ処理は、例えば、ローパスフィルタ、ハイパスフィルタ、バンドパスフィルタなどである。
通信部7a、7cの通信方式は、例えば、有線LAN方式、無線LAN方式、Bluetooth(登録商標)、ZigBee(登録商標)、LPWAなどである。
制御部6bは、例えば、CPU、RAM、ストレージなどから構成される。
咀嚼に伴うセンサ部3のセンサ出力は周期的に変化するため、センサ部3の計測値の経時変化を表す曲線は、咀嚼に伴い上下に振動する振動曲線となる。例えば、咀嚼に伴うセンサ部3の計測値の経時変化は図5のようになる。
制御部6bは、食事中のセンサ部3の計測値の経時変化から咀嚼判定アルゴリズムを用いて咀嚼の有無を判定し咀嚼回数などを算出する。咀嚼判定アルゴリズムは、計測値の変化が咀嚼であるか否かを判定するためのアルゴリズムである。
上述したように、咀嚼に伴い光電変換部5で生じる光電流の大きさは周期的に変化する。このため、計測値も咀嚼に伴い周期的に変化する。しかし、会話、発声、あくび、くしゃみ、咳、開口動作などでも下顎が動くため、センサ部3の計測値は上下振動する。このため、咀嚼回数を計測するためには、センサ部3の計測値の上下振動が咀嚼に起因するものであるか否かを判定する必要がある。咀嚼判定アルゴリズムは、この判定に用いられるアルゴリズムである。
本実施形態の食事モニタリング方法では、キャリブレーションにより咀嚼判定アルゴリズムを調整して、調整済みの咀嚼判定アルゴリズムを用いて計測値の経時変化から咀嚼の有無を判定し咀嚼回数を計測する。共通の咀嚼判定アルゴリズムが制御部6bの記憶部11に保存されており、制御部6bは、この咀嚼判定アルゴリズムを調整し、調整済みの咀嚼判定アルゴリズムを作成する。キャリブレーションは、食事毎に行ってもよく、定期的(例えば、一ヶ月に1回)に行ってもよい。図6は本実施形態の食事モニタリング方法のフローチャートである。
まず、ユーザーは、スイッチ18を押して検出装置2を起動させ、検出装置2を耳に装着する。検出装置2を起動させると、通信部7aから信号が情報機器10に送信され情報機器10で食事モニタリング用のアプリケーションが起動し、表示部12に食事モニタリング用の画面が表示される。
次に、ユーザーは表示部12に表示されたキャリブレーションボタンを押してキャリブレーションを開始させる。キャリブレーションを開始させると、まず、口開閉動作のガイド画面が表示部12に表示される。例えば、図7(a)に示したようなガイド画面を表示させる。このガイド画面では、「あ」の口の顔が表示され、この顔の下には3つのカウントアップランプが表示され、左側のランプから1秒ごとに1つずつ点いていく。この3秒間の間、ユーザーに「あ」の口をするようにガイドする。
その後、図7(b)に示したようなガイド画面に切り替わる。このガイド画面では、「い」の口の顔が表示され、この顔の下には3つのカウントアップランプが表示され、左側のランプから1秒ごとに1つずつ点いていく。この3秒間の間、ユーザーに「い」の口をするようにガイドする。このような「あ」の口のガイドと「い」の口のガイドを2回繰り返す。
また、図7(a)、図7(b)に示すように文字情報として「「あ」と「い」の口で3秒固定してください。2回繰り返します」と表示される。なお、3秒は線で囲われて、強調表示されている。強調表示は文字の色やフォントなどを変えてもよい。
また、図7(a)に示すように、「あ」の口の顔は画面左側に表示されており、「い」の口の顔は画面右側に表示されている。このようにすることで、「あ」の口と「い」の口とが切り替わったことがわかりやすくなる。
このようなガイド画面に従い、検出装置2を装着したユーザーが「あ」の口と「い」の口とを繰り返すと、センサ部3のセンサ出力から算出される計測値は例えば図8のように変化する。この場合、ユーザーが「あ」の口をすると計測値は大きくなり、ユーザーが「い」の口をすると計測値は小さくなる。このユーザーが咀嚼をする際、上下の歯が離れると計測値は大きくなり、上下の歯が噛み合うと計測値は小さくなることがわかる。この場合、食事中の咀嚼に対応する計測値の振動曲線の谷部において咀嚼をカウントするように咀嚼判定アルゴリズムを調整する。この調整済みの咀嚼判定アルゴリズムを用いると、例えば、図5に示したグラフの振動曲線の黒丸で咀嚼をカウントする。
なお、咀嚼判定アルゴリズムの調整は、キャリブレーションの最後にまとめて行うことができる。
また、異なるユーザーが検出装置2を装着し「あ」の口と「い」の口とを繰り返すと、ユーザーが「あ」の口をすると計測値は小さくなり、ユーザーが「い」の口をすると計測値は大きくなる場合がある。この場合、ユーザーが咀嚼をする際、上下の歯が離れると計測値は小さくなり、上下の歯が噛み合うと計測値は大きくなる。この場合、食事中の咀嚼に対応する計測値の振動曲線の山部において咀嚼をカウントするように咀嚼判定アルゴリズムを調整する。
次に、右側咀嚼動作のガイド画面が表示部12に表示される。例えば、図7(c)に示したようなガイド画面を表示させる。図7(c)に示すように文字情報として「右側→で10回噛んでください」と表示される。なお、「右側→」は線で囲われて、強調表示されている。強調表示は文字の色やフォントなどを変えてもよい。また、右向き矢印を組み合わせることで、視覚的にわかりやすくなっている。このガイド画面により、ユーザーに右側で10回噛むようにガイドする。
その後、左側咀嚼動作のガイド画面が表示部12に表示される。例えば、図7(d)に示したようなガイド画面を表示させる。図7(d)に示すように文字情報として「左側←で10回噛んでください」と表示される。なお、「左側←」は線で囲われて、強調表示されている。強調表示は文字の色やフォントなどを変えてもよい。また、左向き矢印を組み合わせることで、視覚的にわかりやすくなっている。このガイド画面により、ユーザーに左側で10回噛むようにガイドする。これらのガイド画面では、噛み合せるタイミングは指定しない。
右とは南を向いた時、西にあたる方であり、左とは南を向いた時、東にあたる方である。
このようなガイド画面に従い、検出装置2を右耳に装着したユーザーが10回の右側咀嚼と10回の左側咀嚼を行うと、センサ部3のセンサ出力から算出される計測値は例えば図9のように変化する。この場合、右側咀嚼に対応した計測値の振動のテンポと、左側咀嚼に対応した計測値の振動のテンポはほぼ同じであるが、左側咀嚼に対応した計測値の振動の振幅は、右側咀嚼に対応した計測値の振動の振幅よりも大きい。この場合、振幅の大きい振動を左側咀嚼としてカウントし、振幅の小さい振動を右側咀嚼としてカウントするように咀嚼判定アルゴリズムを調整する。このことより、右側咀嚼と左側咀嚼の特徴量を用いて、それぞれの咀嚼を正確にカウント及び判別することができ、ユーザーは右側咀嚼と左側咀嚼のバランスを知ることができる。
なお、検出装置2を左耳に装着した場合は、右側咀嚼に対応した計測値の振幅が、左側咀嚼に対応した計測値の振動の振幅よりも大きくなるので、振幅の大きい振動を右側咀嚼としてカウントし、振幅の小さい振動を左側咀嚼としてカウントするように咀嚼判定アルゴリズムを調整する。
このように、検出装置2を装着していないほうの耳側の咀嚼(以下、非装着側咀嚼という)の計測値の振幅は、検出装置2を装着したほうの耳側の咀嚼(以下、装着側咀嚼という)の計測値の振幅よりも大きくなる。
右と左の咀嚼で書いたが、口の両側に摂食物を入れてキャリブレーションを行えば、その特徴量を根拠として両側で噛む咀嚼と左右の咀嚼を正確にカウント及び判別することができる。
本実施形態では、左右の咀嚼をキャリブレーションデータとして扱い、左右の咀嚼をそれぞれカウントすることが出来るが、キャリブレーションデータを口腔に関する様々な事象とすることで、その事象の区間や割合を推定することが出来る。推定することが出来る事象は例えば、摂食物の違いであり、肉を食べた時と野菜を食べた時の咀嚼情報を学習することで、実際の食事で何を食べているかを推定でき、通知部(表示部12)からアドバイスすることにより行動変容を促すことが可能である。咀嚼は摂食物の物性(水分量、付着度、粘度、硬さ、凝集性)や量などにより異なるが、キャリブレーション情報を増やすことで、様々な摂食物に対して、咀嚼を正確にカウント出来ることや摂食物推定精度の向上に繋がる。
また、咳、会話、嚥下、笑い、あくび、頷きなどをキャリブレーションデータとして扱うことで、咀嚼以外の区間を推定することができ、前述の動作中は咀嚼判定を行わないことによる咀嚼誤検出の低減や、前述の動作自体を通知部からユーザーに通知し行動変容や各種診断に活用することが可能である。
また、右側咀嚼及び左側咀嚼に対応した計測値の振動のテンポ、振幅の最大値、最小値、平均値などを算出する。算出した最大値、最小値、平均値などに基づき、右側咀嚼及び左側咀嚼に対応した計測値の振動のパターンから大きく外れた振動を咀嚼としてカウントしないように咀嚼判定アルゴリズムを調整する。このことにより、会話、発声、あくび、くしゃみ、咳、開口動作などを咀嚼としてカウントすることを抑制することができ、咀嚼回数を正確にカウントすることができる。この調整済みの咀嚼判定アルゴリズムを用いると、例えば、図5に示したグラフの振動曲線の矢印で示す振動を咀嚼としてカウントしない。
本実施形態では、これでキャリブレーションを終了する。
このようなキャリブレーションを行うことで、ユーザーに合わせて調整した咀嚼判定アルゴリズムを作成でき、高い精度で咀嚼の有無を判定することができる。よって、個人差に起因する咀嚼判定の精度のばらつきを小さくすることができる。
次に、ユーザーが食事を開始する際に、情報機器10の表示部12に表示された「食事開始」のボタンを押すと、調整済みの咀嚼判定アルゴリズムを用いて計測値の振動曲線から咀嚼の有無を判定し咀嚼回数を計測する。
食事中において、表示部12に右側咀嚼の回数、左側咀嚼の回数、右左の合計の咀嚼回数をカウント表示する。このことにより、ユーザーは、一口あたりの咀嚼回数、左右のバランスなどを知ることができ、咀嚼に気をつけて食事をすることができる。この結果、行動変容につながる可能性がある。
次に、食事が終わると、ユーザーは情報機器10の表示部12に表示された「食事終了」のボタンを押す。このボタンを押すと、食事における右側咀嚼の回数、左側咀嚼の回数、右左の合計の咀嚼回数、前回の食事との比較、食事の仕方の点数、食事の仕方についてのアドバイスなどを表示部12に表示させる。
第2実施形態
第2実施形態では、キャリブレーションにおいてゆっくりと口を開閉させる第1口開閉動作のガイド画面を情報機器10の表示部12に表示させる。図10は、第2実施形態の食事モニタリング方法のフローチャートである。第2実施形態では、第1実施形態で説明した口開閉動作(第2口開閉動作)、右側咀嚼動作、左側咀嚼動作についてのキャリブレーションも第1実施形態と同様に行う。ここでは、第1口開閉動作についてのキャリブレーション及びその関連事項について説明する。
第1口開閉動作のガイド画面が表示部12に表示される。例えば、図7(e)に示したようなガイド画面を表示させる。このガイド画面では、顔が表示され、この顔の下には6つのカウントアップランプが表示され、左側のランプから1秒ごとに1つずつ点いていく。また、文字情報として「テンポに合わせて口をゆっくりと開閉してください」と表示される。カウントアップランプがカウントする最初の3秒間では、表示部12の顔の吹き出しには「ゆっくりと開く」と表示され、表示部12に表示された顔の口がゆっくりと開いていく。カウントアップランプがカウントする残りの3秒間では、表示部12の顔の吹き出しには「ゆっくりと閉じる」と表示され、表示部12に表示された顔の口がゆっくりと閉じていく。
なお、口がゆっくり開いていく表示は、最初の3秒間の間でなめらかに開くように表示させてもよいし、カウントアップランプのランプの点灯に合わせて段階的切り替えるようにしてもよい。また、口がゆっくり閉じていく表示は、最初の3秒間の間でなめらかに閉じるように表示させてもよいし、カウントアップランプのランプの点灯に合わせて段階的に切り替えるようにしてもよい。
このようなガイド画面に従い、検出装置2を装着したユーザーがゆっくりと口を開閉させると、センサ部3のセンサ出力から算出される計測値の経時変化曲線は、ユーザーの口の開閉の仕方に応じた波形となる。例えば、口の開閉がスムーズに行われる場合には、計測値の経時変化曲線はスムーズに上下動する曲線となり、口の開閉がスムーズに行われない場合には、計測値の経時変化曲線は、スムーズに上下動する曲線とはならない。特に、ユーザーが顎関節症である場合、計測値の経時変化曲線は独特の波形となる。
次に、第1口開閉動作に対応する計測値の経時変化曲線の波形を、統計データと比較する。統計データは、例えば、顎関節症を有する人の第1口開閉動作に対応する計測値の経時変化曲線の波形の傾向データである。このような統計データと比較することにより、ユーザーが顎関節症の可能性があるかないかを判定することができる。判定の結果、顎関節症の可能性があると判定された場合には、情報機器10の表示部12に顎関節症の可能性があることを表示する。このことにより、顎関節症の可能性を発見できる。
統計データは、情報機器10の記憶部11に保存されていてもよく、情報機器10が通信部7bを介してサーバー13からダウンロードしてもよい。また、キャリブレーションにおいて計測した計測値の経時変化曲線の波形をサーバー13にアップロードし、サーバー13において統計データと比較してもよい。
また、サーバー13において、人工知能を利用して計測値の経時変化曲線の波形と統計データとを比較してもよい。このことにより、顎関節症以外の病気のおそれも検出することが可能になる。
その他の構成は第1実施形態と同様である。また、第1実施形態についての記載は矛盾がない限り第2実施形態についても当てはまる。
第3実施形態
第3実施形態では、キャリブレーションにおいて検出装置2を装着したユーザーに背筋が伸びた姿勢をしてもらうガイド画面を情報機器10の表示部12に表示させる。図11は、第3実施形態の食事モニタリング方法のフローチャートである。第3実施形態では、第1及び第2実施形態で説明した口開閉動作(第2口開閉動作)、第1口開閉動作、右側咀嚼動作、左側咀嚼動作についてのキャリブレーションも第2実施形態と同様に行う。ここでは、ユーザーに背筋が伸びた姿勢をしてもらうキャリブレーション及びその関連事項について説明する。
第3実施形態では、検出装置2は加速度センサ8を備える。また、検出装置2は、3軸加速度センサを備えることができる。
加速度センサ8は、センサ出力を連続的に出力する。このセンサ出力値は、通信部7aから連続的に発信され情報機器10の通信部7cにより受信される。そして、このセンサ出力値は、情報機器10の制御部6bの記憶部11に保存される。また、センサ出力値は、制御部6bにより増幅され、フィルタ処理がなされることにより計測値に変換されてもよい。フィルタ処理は、例えば、ローパスフィルタ、ハイパスフィルタ、バンドパスフィルタなどである。
加速度センサ8の計測値を制御部6bにより解析することにより、検出装置2の水平状態の検出、重力方向の検出などを行うことができ、検出装置2を装着したユーザーの姿勢を検出することができる。
キャリブレーションでは、ユーザーに背筋が伸びた姿勢をしてもらうガイド画面を情報機器10の表示部12に表示させる。例えば、図7(f)に示したようなガイド画面を表示させる。このガイド画面では、背筋を伸ばした人と目線を表す矢印が表示され、この人の下には5つのカウントアップランプが表示され、左側のランプから1秒ごとに1つずつ点いていく。また、文字情報として「背筋を伸ばして正面を見て5秒静止してください」と表示される。なお、5秒は線で囲われて、強調表示されている。強調表示は文字の色やフォントなどを変えてもよい。
このようなガイド画面に従い、検出装置2を装着したユーザーが背筋を伸ばして5秒間静止すると、加速度センサ8の計測値は安定し、この計測値を解析することにより検出される重力方向がユーザーが背筋を伸ばして静止した状態に対応する重力方向となる。制御部6bは、この重力方向が基準方向となるように姿勢判定アルゴリズムを調整する。共通の姿勢判定アルゴリズムが記憶部11に保存されており、制御部6bはこの姿勢判定アルゴリズムを調整して調整済み姿勢判定アルゴリズムを作成する。
そして、食事中において調整済みの姿勢判定アルゴリズムを用いて加速度センサ8の計測値からユーザーの姿勢を判定する。
例えば、食事中にユーザーの背筋が曲がったり、下を向いたり、顔を横に傾けたりすると、加速度センサ8の計測値から検出される重力方向は変化する。従って、調整済みの姿勢判定アルゴリズムを用いて加速度センサ8の計測値から検出される重力方向と基準方向とを比較することにより、ユーザーの姿勢を判定することができる。
食事中にユーザーの姿勢が変わると、皮膚20の明るさ、皮膚20の動き方、検出装置2の装着位置などが変化し、センサ部3の計測値が変化する場合がある。
本実施形態では、姿勢判定アルゴリズムを用いて判定したユーザーの姿勢に基づき、センサ部3の計測値の補正又は咀嚼判定アルゴリズムの補正を行う。このことにより、調整済みの咀嚼判定アルゴリズムを用いる咀嚼判定の精度を向上させることができる。
また、加速度センサ8を用いて食事中のユーザーの姿勢がわるくなったことを検出した際、表示部12に姿勢が悪くなったことを表示してもよい。例えば、「背筋が曲がっています」、「姿勢が右に傾いています」、「姿勢が左に傾いています」などと表示部12に表示することができる。このことにより、ユーザーが自分の姿勢を客観的に認識することができる。
その他の構成は第1又は第2実施形態と同様である。また、第1又は第2実施形態についての記載は矛盾がない限り第3実施形態についても当てはまる。
第4実施形態
第1〜第3実施形態では、情報機器10においてデータ処理を行っていたが、第4実施形態では、検出装置2が制御部6aを備え、この制御部6aがデータ処理を行う。また、第1〜第3実施形態では、情報機器10の表示部12にガイド画面を表示してユーザーの動作ガイドを行っていたが、第4実施形態では、検出装置2がスピーカー22を備え、このスピーカー22が音声によりユーザーの動作ガイドをおこなう。
第4実施形態では、検出装置2が食事モニタリング装置8となる。
検出装置2が備える制御部6aは、例えば、CPU、メモリ(記憶部)、タイマー、入出力ポートなどを有するマイクロコントローラを含むことができる。制御部6aに含まれる記憶部は、マスクROM、EPROM、EEPROM、フラッシュメモリなどのROMと、FeRAM、SRAM、DRAMなどのRAMを含むことができる。
その他の構成は第1〜第3実施形態と同様である。また、第1〜第3実施形態における情報機器10の制御部6bについての記載は、制御部6bを制御部6aと置き換えて第4実施形態に適用できる。また、第1〜第3実施形態における情報機器10の表示部12についての記載は、表示部12の役割を検出装置2のスピーカー22の役割に置き換えて第4実施形態に適用できる。
以上、本発明の実施形態につき説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実施することができる。また、本発明の実施形態のうちいくつか或いはすべてを組み合わせて用いてもよい。
2:検出装置 3:センサ部 4:発光部 5:光電変換部 6a、6b:制御部 7a〜7c:通信部 8:加速度センサ 10:情報機器 11:記憶部 12:表示部 13:サーバー 15:フック部 16:電池 18:スイッチ 20:皮膚 22:スピーカー 30:食事モニタリング装置

Claims (8)

  1. 顎の動きを検出するように設けられたセンサ部を備える検出装置を装着した人が食事をする際の前記センサ部の計測値の経時変化から咀嚼判定アルゴリズムを用いて咀嚼の有無を判定する食事モニタリング方法であって、
    前記検出装置を装着した人の咀嚼動作又は口開閉動作に対応した前記センサ部の計測値の変化に基づき前記咀嚼判定アルゴリズムを調整するステップと、
    調整済みの前記咀嚼判定アルゴリズムを用いて食事中における前記センサ部の計測値の経時変化から咀嚼の有無を判定し咀嚼回数を計測するステップとを備え
    前記咀嚼判定アルゴリズムを調整するステップは、前記センサ部の計測値の振動曲線の谷部及び山部のうちどちらか一方を選択して咀嚼をカウントするように調整するステップである食事モニタリング方法。
  2. 顎の動きを検出するように設けられたセンサ部を備える検出装置を装着した人が食事をする際の前記センサ部の計測値の経時変化から咀嚼判定アルゴリズムを用いて咀嚼の有無を判定する食事モニタリング方法であって、
    前記検出装置を装着した人の右側咀嚼動作に対応した前記センサ部の計測値の振幅と、左側咀嚼動作に対応した前記センサ部の計測値の振幅とに基づき、右側咀嚼と左側咀嚼とを判別するための咀嚼判定アルゴリズムを調整するステップと、
    調整済みの前記咀嚼判定アルゴリズムを用いて食事中における前記センサ部の計測値の経時変化から右側咀嚼の有無及び左側咀嚼の有無を判定し咀嚼回数を計測するステップとを備える食事モニタリング方法。
  3. 前記検出装置を装着した人の口開閉動作に対応した前記センサ部の計測値の変化を統計データと比較するステップをさらに備える請求項1又は2に記載の食事モニタリング方法。
  4. 前記検出装置は加速度センサを備え、
    前記食事モニタリング方法は、前記検出装置を装着した人の姿勢に対応した前記加速度センサの計測値に基づき姿勢判定アルゴリズムを調整するステップと、調整済みの前記姿勢判定アルゴリズムを用いて前記加速度センサの計測値から前記検出装置を装着した人の食事中の姿勢を判定するステップとをさらに備える請求項1〜3のいずれか1つに記載の食事モニタリング方法。
  5. 請求項1〜4のいずれか1つに記載の食事モニタリング方法をコンピューターに実行させるためのプログラム。
  6. 前記検出装置と、前記検出装置と通信可能に設けられた情報機器とを備え、
    前記情報機器は、第1制御部を有し、
    第1制御部は、請求項1〜4のいずれか1つに記載の食事モニタリング方法を実行できるように設けられた食事モニタリング装置。
  7. 前記検出装置を備え、
    前記検出装置は、第2制御部を有し、
    第2制御部は、請求項1〜4のいずれか1つに記載の食事モニタリング方法を実行できるように設けられた食事モニタリング装置。
  8. 前記検出装置は、一方の端にフック部を有し他方の端に前記センサ部を有するL字形状を有し、かつ、前記L字形状の角部に配置された電池を有する請求項6又は7に記載の食事モニタリング装置。
JP2018191869A 2018-10-10 2018-10-10 食事モニタリング方法、プログラム及び食事モニタリング装置 Active JP6810726B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018191869A JP6810726B2 (ja) 2018-10-10 2018-10-10 食事モニタリング方法、プログラム及び食事モニタリング装置
CN201910829571.9A CN111012354B (zh) 2018-10-10 2019-09-03 进食监控方法、存储介质以及进食监控装置
US16/558,944 US11510610B2 (en) 2018-10-10 2019-09-03 Eating monitoring method, program, and eating monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191869A JP6810726B2 (ja) 2018-10-10 2018-10-10 食事モニタリング方法、プログラム及び食事モニタリング装置

Publications (2)

Publication Number Publication Date
JP2020058609A JP2020058609A (ja) 2020-04-16
JP6810726B2 true JP6810726B2 (ja) 2021-01-06

Family

ID=70161275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191869A Active JP6810726B2 (ja) 2018-10-10 2018-10-10 食事モニタリング方法、プログラム及び食事モニタリング装置

Country Status (3)

Country Link
US (1) US11510610B2 (ja)
JP (1) JP6810726B2 (ja)
CN (1) CN111012354B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114190074A (zh) * 2020-07-13 2022-03-15 华为技术有限公司 监管饮食行为的方法和装置
CN113017621B (zh) * 2021-04-22 2023-11-21 恒玄科技(上海)股份有限公司 一种可穿戴设备
CN114764946B (zh) * 2021-09-18 2023-08-11 北京甲板智慧科技有限公司 基于时序标准化的动作计数方法、系统和智能终端
WO2023127504A1 (ja) * 2021-12-27 2023-07-06 国立大学法人静岡大学 評価装置、評価方法、及び評価プログラム
TWI798002B (zh) * 2022-02-23 2023-04-01 弘光科技大學 口腔進食能力評估系統
WO2023224575A1 (en) * 2022-05-17 2023-11-23 Ubamm Sağlik Arge Yazilim Ve Uluslararasi Pazarlama Anoni̇m Şi̇rketi̇ Method and system for automated assistance to a subject to build healthy chewing habits to facilitate adherence to healthy food intake routine
CN115844426A (zh) * 2023-02-28 2023-03-28 深圳市心流科技有限公司 基于肌电信号的进食监测方法、进食监测设备和存储介质
KR102691893B1 (ko) * 2023-06-15 2024-08-05 최지훈 저작운동 카운팅 장치

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3914480B2 (ja) * 2002-07-30 2007-05-16 浜松ホトニクス株式会社 咀嚼モニタ装置
JP2005349176A (ja) * 2004-05-14 2005-12-22 Rise Corp 顎運動解析方法及び顎運動解析システム
WO2006033104A1 (en) * 2004-09-22 2006-03-30 Shalon Ventures Research, Llc Systems and methods for monitoring and modifying behavior
WO2008149341A2 (en) * 2007-06-08 2008-12-11 Svip 4 Llc Device for monitoring and modifying eating behavior
JP5939531B2 (ja) * 2010-11-17 2016-06-22 国立大学法人九州工業大学 咀嚼動作検出装置
RU2504330C2 (ru) * 2011-03-24 2014-01-20 Магомед Хабибович Магомедов Устройство слежения за жевательными движениями (варианты) и наушник
JPWO2014010165A1 (ja) * 2012-07-10 2016-06-20 パナソニックIpマネジメント株式会社 補聴器
CN102920461A (zh) * 2012-09-13 2013-02-13 中国计量学院 一种进食习惯监测装置
JP5995904B2 (ja) * 2014-04-30 2016-09-21 シャープ株式会社 人体装着型計測装置
JP5784180B1 (ja) * 2014-04-30 2015-09-24 シャープ株式会社 人体装着型計測装置及び計測方法
JP6576045B2 (ja) 2015-01-30 2019-09-18 シャープ株式会社 生体装着型計測装置及び計測方法
WO2016117477A1 (ja) * 2015-01-22 2016-07-28 シャープ株式会社 生体装着型計測装置、食事支援装置、食事支援システム、コンピュータプログラム、計測方法及び食事支援方法
US20170270820A1 (en) * 2016-03-18 2017-09-21 Icon Health & Fitness, Inc. Eating Feedback System
JP6761702B2 (ja) * 2016-08-30 2020-09-30 株式会社吉田製作所 食生活管理装置
JPWO2018042702A1 (ja) * 2016-09-01 2019-06-24 国立大学法人 新潟大学 生体装着型検出装置及び顎運動計測方法
US10736566B2 (en) * 2017-02-13 2020-08-11 The Board Of Trustees Of The University Of Alabama Food intake monitor
CN108605860B (zh) * 2018-04-27 2020-09-22 中国农业科学院农业信息研究所 牲畜咀嚼检测装置及智能牧场管理系统

Also Published As

Publication number Publication date
CN111012354A (zh) 2020-04-17
US11510610B2 (en) 2022-11-29
JP2020058609A (ja) 2020-04-16
CN111012354B (zh) 2022-09-13
US20200113512A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP6810726B2 (ja) 食事モニタリング方法、プログラム及び食事モニタリング装置
JP6839162B2 (ja) 食事摂取の監視及び調節を行うための食器
US11564623B2 (en) Food intake monitor
Fontana et al. Automatic ingestion monitor: a novel wearable device for monitoring of ingestive behavior
US10542910B2 (en) Wearable measurement device and measurement method
JP7503762B2 (ja) 集中度計測装置、集中度計測方法、及び、プログラム
US20170042468A1 (en) Wearable measurement device
JP5800119B1 (ja) 健康度判定装置および健康度判定システム
JP7648877B2 (ja) 咀嚼改善提案システム、及び咀嚼改善提案プログラム
CN107145722A (zh) 一种应用于穿戴设备的提醒方法及穿戴设备
KR101647883B1 (ko) 액션 트레머 진단을 위한 손 떨림 측정 장치 및 방법
CN114846558A (zh) 咀嚼辅助系统
WO2023000599A1 (zh) 基于骨传导的进食监测方法、装置、终端设备及介质
JP7113344B2 (ja) 制御方法
CN115335913B (zh) 控制方法
US20220202059A1 (en) Method for controlling food printer
JP2016064078A (ja) 食事時間推定装置、食事時間推定方法、および制御プログラム
CN118401169A (zh) 用户的跌倒风险评估
EP4529481A1 (en) Time before sound sleep facilitating sleep quality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201211

R150 Certificate of patent or registration of utility model

Ref document number: 6810726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150