JP7108986B2 - 視認性評価システム - Google Patents
視認性評価システム Download PDFInfo
- Publication number
- JP7108986B2 JP7108986B2 JP2018248398A JP2018248398A JP7108986B2 JP 7108986 B2 JP7108986 B2 JP 7108986B2 JP 2018248398 A JP2018248398 A JP 2018248398A JP 2018248398 A JP2018248398 A JP 2018248398A JP 7108986 B2 JP7108986 B2 JP 7108986B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- visibility
- posture
- biomechanical
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 62
- 230000033001 locomotion Effects 0.000 claims description 173
- 230000000007 visual effect Effects 0.000 claims description 118
- 210000005252 bulbus oculi Anatomy 0.000 claims description 98
- 230000004424 eye movement Effects 0.000 claims description 89
- 210000003128 head Anatomy 0.000 claims description 74
- 230000004434 saccadic eye movement Effects 0.000 claims description 60
- 230000004462 vestibulo-ocular reflex Effects 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 44
- 230000008569 process Effects 0.000 claims description 41
- 238000012790 confirmation Methods 0.000 claims description 30
- 238000004088 simulation Methods 0.000 claims description 28
- 210000001508 eye Anatomy 0.000 claims description 27
- 230000009471 action Effects 0.000 claims description 20
- 230000011514 reflex Effects 0.000 claims description 15
- 230000004886 head movement Effects 0.000 claims description 12
- 210000000887 face Anatomy 0.000 claims description 3
- 230000003094 perturbing effect Effects 0.000 claims description 2
- 210000002027 skeletal muscle Anatomy 0.000 claims 1
- 230000036544 posture Effects 0.000 description 62
- 239000013598 vector Substances 0.000 description 40
- 230000001133 acceleration Effects 0.000 description 33
- 230000006870 function Effects 0.000 description 27
- 238000012545 processing Methods 0.000 description 19
- 230000002842 otolith Effects 0.000 description 16
- 238000012546 transfer Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 15
- 210000001265 otolithic membrane Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000013461 design Methods 0.000 description 11
- 210000002480 semicircular canal Anatomy 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 10
- 241000356847 Otolithes Species 0.000 description 9
- 230000001953 sensory effect Effects 0.000 description 9
- 239000007787 solid Substances 0.000 description 9
- 230000008878 coupling Effects 0.000 description 8
- 238000010168 coupling process Methods 0.000 description 8
- 238000005859 coupling reaction Methods 0.000 description 8
- 230000001720 vestibular Effects 0.000 description 8
- 210000003169 central nervous system Anatomy 0.000 description 7
- 210000003205 muscle Anatomy 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000010354 integration Effects 0.000 description 6
- 101100240606 Caenorhabditis elegans scc-2 gene Proteins 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000013178 mathematical model Methods 0.000 description 4
- 238000011158 quantitative evaluation Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 210000000697 sensory organ Anatomy 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 230000003767 neural control Effects 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004465 reflex eye movement Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 210000000115 thoracic cavity Anatomy 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 230000026683 transduction Effects 0.000 description 2
- 238000010361 transduction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000283986 Lepus Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 210000003109 clavicle Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004461 rapid eye movement Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000021542 voluntary musculoskeletal movement Effects 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Description
3DCADによるオブジェクトのための視認性評価システムであって、
前記オブジェクトの視認目標点が定義された仮想3D空間にて前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
前記生体力学モデルに対応する人体モデルおよび前記オブジェクトが定義された仮想3D空間にて前記生体力学モデルの視線に対応する前記人体モデルの視野画像から前記視認目標点に対する視認度を算出するための視野判断モデルと、
前記生体力学モデルと前記視野判断モデルを連成させる統括制御部であって、
前記生体力学モデルに摂動を与えるステップ、
前記摂動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ、および、
前記摂動に伴う前記生体力学モデルの負担度を算出するステップ
を含む摂動プロセスを実行し、最小負担度かつ最大視認度となる挙動にて前記生体力学モデルの姿勢を生成する摂動/挙動プロセスの反復操作を行う統括制御部と、
を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視認性評価システムにある。
前記挙動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ、および、
該視認度を閾値と比較するステップを含み、
前記視認度が前記閾値以上となった場合に前記摂動/挙動プロセスの反復操作を終了するように構成されているので、確認動作の目的達成によるシミュレーションの終了をシステムにおいて自律的に行える利点がある。
図1は、本発明実施形態に係る視認性評価システム1を示すブロック図である。本実施形態の評価システム1は、車両のコクピット前部に配設されるインストルメントパネルの3DCADデータを評価対象データ2とし、図2および図3に示すように、生体力学モデル10を利用して視認目標点20を視認するための確認動作のシミュレーションを行い、その容易性を含めた視認性を評価するものである。
視野判断モデル50は、3D座標系(仮想データ空間)に、視認目標点20を有する評価対象データ2、生体力学モデル(筋骨格モデル3、眼球運動モデル4)に対応する人体モデル53、および、カメラ55を定義し、生体力学モデルで生成される身体運動および眼球運動(身体姿勢および眼球姿勢)を、人体モデル53およびカメラ55に反映し、その状態における視認目標点20の視認度を取得するものである。
[R,G,B,A]=[0~1.0,0,0,1.0]
の範囲で表されることになる。
生体力学モデル10は、筋骨格モデル3と眼球運動モデル4から構成されており、基本的に筋骨格モデル3において身体運動が生成され、身体運動に連成して眼球運動が惹起される。そこで、先ず、筋骨格モデル3において視認目標点20の確認動作のための身体運動を生成する流れを説明する。
筋骨格モデル3は、様々な身体運動を再現するうえで生体力学的に妥当であり、かつ、簡便で計算コストが低く抑えられていることが好ましい。そこで、身体各部位に運動代表点を設定し、各運動代表点の運動軌道を定義できるようにしている。例えば、視認目標点20の確認動作のための身体運動であることから、頭部31の眼球座標(左右の眼球5の中間座標または頭部31の中心座標でもよい)を運動代表点として定義する。
身体運動において、理想的な軌道が与えられた場合、この運動を実現するための運動指令を、身体ダイナミクスの逆モデルに相当するモジュールによって求める計算理論が提案されている(Wang, et al., 2001)。本実施形態においても、身体ダイナミクスの逆モデルを考慮することで運動指令(関節駆動モーメント)を生成するようにしている。
上述した逆モデルベースの運動指令生成モジュール12により、軌道計画に従いかつ筋負担の小さい運動生成が可能となる。しかしながら、筋骨格モデル3は多自由度で複雑である。また、逆モデルベースの計算と力学的に矛盾をきたす可能性のある意志力を用いているため、軌道計画と生体力学的に妥当な運動の両立はこれだけでは困難である。
以上の運動制御モデルにより求められた関節駆動モーメントnrealを筋骨格モデル3に与え、順動力学計算を行うことで、身体動作を生成する。筋骨格モデル3は、既存の歩行シミュレーションモデル(Hase and Yamazaki, 2002)を拡張し、図4(a)に示すように、全身で20リンク、43関節自由度を持つ3次元モデルとしている。
身体とシート6とは基本的に面接触する。身体の皮膚組織は非線形な粘弾性特性を有し、さらに、シート6には、シートクッション61、シートバック62の何れにもクッション材が設けられ、粘弾性特性を有している。これらの特性を精密にモデル化するためには有限要素法などの計算方法が望ましいが、計算コストが大きく、また多数の物理特性値が必要となる。
生体力学モデル10には、図6に示されるように、前庭動眼反射モデル(VOR)41、追跡眼球運動モデル(Smooth Pursuit)42、サッカードモデル(Saccade)43の3つのモデルで構成された眼球運動モデル4が組み込まれており、それぞれが補完しあって眼球5を動かしている。以下、各眼球運動モデルについて図面を参照しながら説明する。
前庭動眼反射とは、頭部31または身体30が運動している際に、視線5bの方向を一定に保つ働きをする反射性の眼球運動である。すなわち、頭部31が回転すると、回転をキャンセルするように、回転方向と逆方向へ眼球5がスムーズに動く。前庭動眼反射のモデリングには既知のモデルを採用できる。本実施形態では、図7に示すようなMerfeldとHaslwanterらの前庭動眼反射モデル41を採用した。
このフェーズは、頭部31への物理刺激つまり前庭系に対しての入力フェーズである。頭部31の運動は、次式(4.1)で示される並進加速度αと、次式(4.2)で示される角速度ωで表され、何れも3次元のベクトルであり、これら2つが前庭動眼反射モデルへの入力となる。
このフェーズは、頭部運動をセンシングする耳石器官の伝達特性Sotoと半規管の伝達特性Ssccを表している。
このフェーズは、中枢神経系が感覚器官(耳石と半規管)から伝達された感覚情報を知覚情報へ処理するフェーズであり、身体と感覚器官の内部モデルが含まれていると仮定している。これら内部モデルの感覚情報の推定値と実際の感覚情報との誤差をフィードバックすることで、認識している情報と実際の情報の差を小さくする構造になっている。
これらのループを経て、並進加速度と角速度の推定値α^、ω^をそれぞれ算出する。
このフェーズでは、知覚された並進加速度α^と角速度ω^を用いて、前庭動眼反射の眼球への運動指令ωVORを算出する。前庭動眼反射VORの運動指令ωVORは、回転成分の要素である回転VORと並進成分の要素である並進VORで構成されており、両者を加算することで算出される。
追跡眼球運動は、ゆっくりと移動する視覚対象に視点を追従させているときに生じる滑らかな眼球運動である。運動を起こす刺激は、動いている対象物の速度であり、対象物と眼球運動速度を一致させることにより、対象物を網膜上に保持する随意性の運動である。速い動きには追従することができず、50deg/sほどまでしか滑らかに追従できないが、指標の軌跡が予測できるような場合は、90deg/s程度まで追従させることができる。
ここでは、実際の追跡眼球運動による眼球角速度(Eの時間微分)と、追跡眼球運動による眼球角速度の遠心性コピーである追跡眼球運動指令がそれぞれフィードバックされてくる。ターゲットの角速度と眼球角速度の誤差信号とフィードバックされてきた追跡眼球運動指令によって、中枢神経系への目標角速度のコピー、すなわち、ターゲットの角速度の知覚情報が再形成される。数字で示すブロックはそれぞれその数字(msec)の時間遅れを表している係数であり、τ1、P2もそれぞれ時間遅れを表している係数である。
これらのブロック421,422による処理を経て、ターゲットの角速度の知覚情報は目標眼球角速度となる。
ここは運動前野回路を表している。目標眼球角速度が入力され、現時刻での眼球角速度の運動指令を出力する。眼球角速度の運動指令はフィードバックされ、目標眼球角速度との比較が行われ、誤差信号を形成し、眼球角速度の運動指令を目標値へ近づける働きを担う。ここで、誤差信号は、目標眼球角速度の変化に比例し、したがって、目標眼球角加速度にも比例することを意味する。この誤差信号は、ブロック423(AS;Acceleration Saturation)を経て目標眼球角加速度となる。ブロック423(AS)は加速度飽和を処理する部分であり、閾値より大きい場合と小さい場合に分けて次式(4.44)で表される。
PMCで算出された眼球角速度の運動指令は、時間遅れ定数P1およびブロック425(VS;Velocity Saturation)を経て、遅れを伴った眼球角速度の運動指令となる。しかし、ブロック425(VS)は90deg/s未満では影響がない。実際に追跡眼球運動においては90deg/sを超える眼球角速度は考え難い。したがって、ブロック425(VS)の処理は行っていない。遅れを伴った眼球角速度の運動指令は遠心性コピーとしてCNSにフィードバックされると同時に、ブロック426(Plant)を経て眼球角速度となる。ブロック426(Plant)の伝達関数は、ブロック421(Plant)に係る式(4.32)にゲインを掛けたものである。
サッカードは、随意的に対象物を見ようとして注視点を移動させる際にみられる急速な眼球運動である。サッカードは,一旦眼球運動が起こると、そのサッカードが終わるまで随意的に停止することができないという特徴がある。運動の速度は眼球の回転角度に依存しており、随意的に調節できず、持続時間は振幅に比例して増加する。また、最大速度も運動の振幅に比例して増出して700deg/s程度にまで達するが、10~20度の振幅では350~500deg/s程度である。
このサッカードモデル43は、眼球座標系で記述されたターゲット位置Te、すなわち視線誤差を入力とし、これを眼球座標系とターゲットの姿勢が一致するように変化させる。その変化則は、ターゲット位置Teと眼球座標系で記述した空間に対する眼球5の角速度ベクトルωeseとの外積で、次式(4.55)の微分方程式で表される。なお、ωeseは、そのままの形ではなく、この変数を利用可能な形に変換する。
眼球には有効眼球運動範囲(EOMR)があり、サッカードにおいてもその影響を考慮する必要がある。可動限界を超えるところにターゲットが位置している場合、眼球を飽和状態とする、すなわち、目標眼球姿勢をEOMR内にしなければならない。これらのプロセスは次式で示される3ステップで行われる。
前庭動眼反射(VOR)は反射性の眼球運動であるので、サッカードによる眼球運動へも影響が及ぶ。すなわち、サッカードが生じる際には、前庭動眼反射(VOR)も共に発動しているが、何らかの信号によりシャットアウトされ、サッカードによる眼球運動が支配的になるという特性を持っている。ここでは現時点での頭部座標系における眼球の誤差信号により前庭動眼反射(VOR)がシャットアウトされると仮定している。
ブロック436においてVORの干渉信号は次式(4.71)で処理される。
上述した3つの眼球運動は、その指標(ターゲット)や頭部運動などの条件によって適切に選択され、補間し合いながら指標を正確に視認するための最適な眼球運動がなされる。したがって、眼球運動モデル4を構築する上でもこれらの眼球運動モデルを統合し、最終的な眼球運動が生成されるようにし、その上で筋骨格モデル3と総合する。
Sac_trg == ON && Sac_flg == OFF
である。Sac_trgはサッカードの入力トリガ、つまり頭部座標系における視標角速度ベクトルのノルムがあるしきい値を超えたときにONになるトリガである。対して、Sac_flgはサッカードによる眼球各速度指令が1.0(deg/s)以上、つまりサッカード発生中にONになるフラグである。
追跡眼球運動はターゲットの滑らかな動きを追従する運動であるため、パルス入力のようなものには対応できない。追跡眼球運動で対応できないような入力はサッカードがはたらくのだが、サッカードがはたらいているときに追跡眼球運動モデル42への入力、もしくは追跡眼球運動モデル42からの出力を0にしてしまうと、サッカードが終わった後も不安定な挙動を示してしまう。
頭部の運動に対する眼球運動の補間は、前庭動眼反射モデル41によって行われるが、これにより追跡眼球運動モデル42の入力となる頭部座標系におけるターゲットの角速度は、頭部運動の影響を受ける。
上記のように前庭動眼反射モデル41の出力を減算することによって、本来追跡眼球運動で追跡すべき視標角速度の低周波成分が明確になるため、この信号に対してローパスフィルタ46をかけることによって、高周波成分を除去した入力信号のみが追跡眼球運動モデル42に入力されることになる。
以上のような処理を行うことによって、頭部が振動した状態やサッカードがはたらいた状態でも各眼球運動モデルが補完しあって視標を追従できるが、フィルタ処理などの影響で位相ずれやオーバーシュートが起きる場合がある。追跡眼球運動モデル42は速度誤差に基づいて制御を行うので,位置誤差に対しては反応できない。
図11のブロック線図において、眼球運動モデル4からの出力は、大きく分けて、眼球の角速度ωeyeと頭部への角速度指令ωhaがある。以下、それぞれの出力に基づいた眼球運動と身体運動との連成メカニズムについて説明する。
追跡眼球運動モデル42とサッカードモデル43から出力される頭部31への角速度指令は加算され、頭部31の眼球運動に伴う能動的な角速度指令ωhaとして、筋骨格モデル3の頭部31に入力される。したがって、この運動指令ωhaを目標値とし、意志力として逆モデルの計算に取り込むことで、眼球運動に伴う能動的な頭部運動を生成できる。
次に、眼球運動モデル4から眼球5に出力される角速度ωeyeは、その大きさがそのまま眼球運動の運動負荷に相当する。したがって、筋骨格モデル3の式(3.7)に示した眼球運動負荷feyeを次式(6.2)のように定義することができる。
以上述べたように、本発明に係る評価システム1は、生体力学モデル10を利用して評価対象データ2における視認目標点20の確認動作のシミュレーションを行い、確認動作の容易性(負担度)を考慮した視認性を評価するものであり、図12は、実施形態に係る評価システム1の処理フローを示すフローチャートである。
2 評価対象データ(インストルメントパネル)
3 筋骨格モデル(身体モデル)
4 眼球運動モデル
5 眼球
6 支持構造(シート)
7 支持構造(ハンドル)
8 データベース
10 生体力学モデル
11 統括制御部
12 逆モデルベースの運動指令生成モジュール
13 順モデルベースの運動制御モジュール
15 視認度
16 負担度
17 易視認性総合評価部
20 視認目標点
21 グラデーション球
30 身体
31 頭部
41 前庭動眼反射モデル
42 追跡眼球運動モデル
43 サッカードモデル
50 視野判断モデル
53 人体モデル
55 カメラ
Claims (13)
- 3DCADによるオブジェクトのための視認性評価システムであって、
前記オブジェクトの視認目標点が定義された仮想3D空間にて前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
前記生体力学モデルに対応する人体モデルおよび前記オブジェクトが定義された仮想3D空間にて前記生体力学モデルの視線に対応する前記人体モデルの視野画像から前記視認目標点に対する視認度を算出するための視野判断モデルと、
前記生体力学モデルと前記視野判断モデルを連成させる統括制御部であって、
前記生体力学モデルに摂動を与えるステップ、
前記摂動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ、および、
前記摂動に伴う前記生体力学モデルの負担度を算出するステップ
を含む摂動プロセスを実行し、最小負担度かつ最大視認度となる挙動にて前記生体力学モデルの姿勢を生成する摂動/挙動プロセスの反復操作を行う統括制御部と、
を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視覚性評価システム。 - 前記統括制御部の前記摂動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップは、前記摂動による前記生体力学モデルの姿勢データを記録するサブステップ、および、前記姿勢データを前記視野判断モデルが取得して前記人体モデルに反映させるサブステップを含む、請求項1記載の視認性評価システム。
- 前記統括制御部の前記挙動プロセスは、
前記挙動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップ、
前記姿勢を反映した前記人体モデルの視野画像から算出される前記視認目標点に対する視認度を前記視野判断モデルから取得するステップ、および、
該視認度を閾値と比較するステップを含み、
前記視認度が前記閾値以上となった場合に前記摂動/挙動プロセスの反復操作を終了するように構成されている、請求項1または2記載の視認性評価システム。 - 前記統括制御部の前記挙動による前記生体力学モデルの姿勢を前記人体モデルに反映させるステップは、前記挙動による前記生体力学モデルの姿勢データを記録するサブステップ、および、前記姿勢データを前記視野判断モデルが取得して前記人体モデルに反映させるサブステップを含む、請求項3記載の視認性評価システム。
- 前記統括制御部の前記摂動を与えるステップは、
前記視認目標点と現在姿勢との差異に応じて前記生体力学モデルに作用する意志力を仮定して関節駆動モーメントを算出する逆モデルベース運動指令生成ステップと、
前記関節駆動モーメントに摂動を与え、前記生体力学モデルの単位時間後の姿勢を推定し、各推定姿勢にて前記負担度を算出する順モデルベース運動制御ステップと、
をさらに含む、請求項1~4の何れか一項記載の視認性評価システム。 - 前記統括制御部の前記負担度を算出するステップは、前記関節駆動モーメントの摂動に対応する運動規範ポテンシャルとして前記負担度を算出することを含み、
前記最小負担度かつ最大視認度となる挙動は、前記運動規範ポテンシャルに前記視認度の逆数を加算した連成運動規範ポテンシャルを最小化する前記生体力学モデルの状態変数に基づいて決定される、請求項5記載の視認性評価システム。 - 前記生体力学モデルは、人体の骨格、関節、および骨格筋をモデリングした筋骨格モデルと、前記筋骨格モデルにおける頭部運動に連成して眼球姿勢を決定する眼球運動モデルとを含み、前記眼球姿勢によって前記視線が与えられるように構成されている、請求項1~6の何れか一項記載の視認性評価システム。
- 前記眼球運動モデルは、前庭動眼反射モデルとサッカードモデルを含み、前記視認目標点と前記眼球姿勢による前記視線との差異に応じて前記サッカードモデルから眼球運動指令とともに出力される頭部運動指令は、前記逆モデルベース運動指令生成ステップにおいて前記関節駆動モーメントを算出するための前記意志力の少なくとも一部となるように構成されている、請求項5または6を引用する請求項7記載の視認性評価システム。
- 前記眼球運動モデルにおいて、前記筋骨格モデルの身体運動に対する受動的な頭部運動により前庭動眼反射モデルから出力される運動指令による眼球運動負荷、および、前記サッカードモデルから出力される運動指令による眼球運動負荷は、前記負担度に加算されるが、前記サッカードモデルからの運動指令による能動的な頭部運動は、前記サッカードモデルから前庭動眼反射モデルに伝達される運動指令の遠心性コピーにより、前庭動眼反射モデルへの入力から除外されるように構成されている、請求項8記載の視認性評価システム。
- 前記摂動プロセスが前記生体力学モデルの状態変数の数だけ試行されるように構成されている、請求項1~9の何れか一項記載の視認性評価システム。
- 前記オブジェクトは、前記仮想3D空間として定義された車両の運転席前方に配設されるインストルメントパネルの3DCADデータであり、前記生体力学モデルは、前記運転席に着座した運転者として定義され、前記生体力学モデルおよび前記視野判断モデルは、前記インストルメントパネルに設置された前記視認目標点に対する確認動作のシミュレーションを行うように適合されている、請求項1~10の何れか一項記載の視認性評価システム。
- 前記生体力学モデルは、前記シミュレーションを開始する初期姿勢において、前記頭部は車両前方を向き、前記眼球の視線は水平前方に向けられ、前記視認目標点との差異に応じて前記サッカードモデルから出力される頭部運動指令に基づいて、前記逆モデルベース運動指令生成ステップにおける前記意志力が取得されるように構成されている、請求項5を引用する請求項11記載の視認性評価システム。
- 前記眼球運動モデルは、前記視認目標点の連続移動に視線を追従させる追跡眼運動モデルをさらに含み、前記追跡眼運動モデルは、前記サッカードモデルの動作時に前記視認目標点の離散的な移動に係る入力信号の高周波成分を除去するローパスフィルタを備えている、請求項11または12記載の視認性評価システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018248398A JP7108986B2 (ja) | 2018-12-28 | 2018-12-28 | 視認性評価システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018248398A JP7108986B2 (ja) | 2018-12-28 | 2018-12-28 | 視認性評価システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020107279A JP2020107279A (ja) | 2020-07-09 |
JP7108986B2 true JP7108986B2 (ja) | 2022-07-29 |
Family
ID=71449249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018248398A Active JP7108986B2 (ja) | 2018-12-28 | 2018-12-28 | 視認性評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7108986B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160077A (ja) | 1999-12-02 | 2001-06-12 | Osaka Gas Co Ltd | 行動シミュレーション装置及び空間評価装置 |
JP2007183792A (ja) | 2006-01-06 | 2007-07-19 | Fujitsu Ltd | 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム |
JP2008079737A (ja) | 2006-09-26 | 2008-04-10 | Toyota Motor Corp | 集中度評価装置及びこれを用いた車両用表示装置 |
JP2010044736A (ja) | 2008-07-18 | 2010-02-25 | Panasonic Electric Works Co Ltd | 製品設計評価装置 |
JP2013009825A (ja) | 2011-06-29 | 2013-01-17 | Denso Corp | 視認負荷量推定装置、運転支援装置、および視認負荷量推定プログラム |
JP2014113225A (ja) | 2012-12-07 | 2014-06-26 | Hiroshima Univ | 人体運動評価装置、方法、およびプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5590268A (en) * | 1993-03-31 | 1996-12-31 | Kabushiki Kaisha Toshiba | System and method for evaluating a workspace represented by a three-dimensional model |
JPH07271289A (ja) * | 1994-03-30 | 1995-10-20 | Mazda Motor Corp | シミュレーション装置 |
JP3391648B2 (ja) * | 1997-02-27 | 2003-03-31 | 富士通株式会社 | 機器操作性評価支援装置 |
-
2018
- 2018-12-28 JP JP2018248398A patent/JP7108986B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160077A (ja) | 1999-12-02 | 2001-06-12 | Osaka Gas Co Ltd | 行動シミュレーション装置及び空間評価装置 |
JP2007183792A (ja) | 2006-01-06 | 2007-07-19 | Fujitsu Ltd | 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム |
JP2008079737A (ja) | 2006-09-26 | 2008-04-10 | Toyota Motor Corp | 集中度評価装置及びこれを用いた車両用表示装置 |
JP2010044736A (ja) | 2008-07-18 | 2010-02-25 | Panasonic Electric Works Co Ltd | 製品設計評価装置 |
JP2013009825A (ja) | 2011-06-29 | 2013-01-17 | Denso Corp | 視認負荷量推定装置、運転支援装置、および視認負荷量推定プログラム |
JP2014113225A (ja) | 2012-12-07 | 2014-06-26 | Hiroshima Univ | 人体運動評価装置、方法、およびプログラム |
Non-Patent Citations (2)
Title |
---|
大日方五郎 外1名,身体運動支援のためのシステム制御情報技術,システム/制御/情報,システム制御情報学会,2002年07月15日,第46巻,第7号,pp. 369-376 |
工藤義弘 外5名,眼球運動モデルと全身運動生成モデルとの統合,人間工学 [online],一般社団法人日本人間工学会,2015年06月13日,第51巻,特別号,pp. 302-303,[検索日 2022.06.07], インターネット,URL:https://www.jstage.jst.go.jp/article/jje/51/Supplement/51_S302/_article/-char/ja/ |
Also Published As
Publication number | Publication date |
---|---|
JP2020107279A (ja) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7333111B2 (en) | Joint component framework for modeling complex joint behavior | |
Nakada et al. | Deep learning of biomimetic sensorimotor control for biomechanical human animation | |
Geravand et al. | Human sit-to-stand transfer modeling towards intuitive and biologically-inspired robot assistance | |
JP6046801B2 (ja) | 操作タスクの実行における姿勢及び動作のリアルタイム検出 | |
JP7120572B2 (ja) | 視認性評価システム | |
JP7646214B2 (ja) | 生体力学的モデルアニメーションのためのバイオメトリック感覚運動制御の深層学習 | |
Klar et al. | Simulating interaction movements via model predictive control | |
Nasr et al. | Scalable musculoskeletal model for dynamic simulations of upper body movement | |
JP7108986B2 (ja) | 視認性評価システム | |
JP7107529B2 (ja) | 視認性評価システム | |
Gielen | Review of models for the generation of multi-joint movements in 3-D | |
Page et al. | Representation of planar motion of complex joints by means of rolling pairs. Application to neck motion | |
Moore et al. | Robotic grasping and manipulation through human visuomotor learning | |
Togo et al. | Uncontrolled manifold reference feedback control of multi-joint robot arms | |
Habra et al. | Gaze stabilization of a humanoid robot based on virtual linkage | |
JP2024016492A (ja) | 視認性評価システム | |
JP2024016491A (ja) | 視認性評価システム | |
Pineda Rico | The WAM arm: modelling, control and its application in a HMI based on gaze tracking | |
JP2024016493A (ja) | 視認性評価システム | |
Prasertmanakit et al. | Central Nervous System (CNS) Based Motion Control | |
関塚良太 | Development of Operation Training System and Improvement of Operation Interface for Improving Operators' Skills of Hydraulic Excavators | |
Nakada et al. | Deep learning of neuromuscular and visuomotor control of a biomimetic simulated humanoid | |
Tomić | Dual-arm robotic manupulation inspired by human skills | |
Matsumoto et al. | Verification of Necessity of Equivalent Gravity in Telexistence With Scale Conversion for Utilization of Humanoid Small Robot. | |
Yu et al. | Joint angle synergy-based humanoid robot motion generation with fascia-inspired nonlinear constraints |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190110 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7108986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |