JP6500139B1 - Visual support device - Google Patents
Visual support device Download PDFInfo
- Publication number
- JP6500139B1 JP6500139B1 JP2018036321A JP2018036321A JP6500139B1 JP 6500139 B1 JP6500139 B1 JP 6500139B1 JP 2018036321 A JP2018036321 A JP 2018036321A JP 2018036321 A JP2018036321 A JP 2018036321A JP 6500139 B1 JP6500139 B1 JP 6500139B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- unit
- notification
- support information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】個々のユーザの事情を踏まえた支援情報の通知を行う
【解決手段】視覚支援装置(100)は、ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部(130)と、前記ユーザが視認している場景を表す画像データを取得する撮像部(110)と、前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部(120)と、該生成された支援情報を通知する通知部(140)とを有する
【選択図】図3[PROBLEMS] To provide support information notification in consideration of the circumstances of individual users. SOLUTION: A visual support device (100) has conditions specific to a user regarding notification of support information for supporting user's visual recognition. Based on the storage unit (130) stored, the imaging unit (110) that acquires image data representing the scene that the user is viewing, the image data acquired by the imaging unit, and the conditions, 3 includes a generation unit (120) that generates support information and a notification unit (140) that notifies the generated support information.
Description
本発明は、視覚を補助する装置に関する。 The present invention relates to an apparatus for assisting vision.
目の不自由な人に対して、カメラによって場景を認識して障害物の存在を検知すると、音声等によってリアルタイムに知らせることで、行動を支援する視覚補助装置が知られている(特許文献1)。 There is known a visual assistance device that assists a visually impaired person in real time by voice or the like when the presence of an obstacle is detected by recognizing a scene with a camera (Patent Document 1). ).
例えば、上述のような視覚補助装置を用いて危険物を複数検出した場合、それら全てを一度に通知するとユーザが戸惑う場合がある。また、ユーザの障害の程度、今いる場所がユーザにとってよく分かっているのかどうかなど、ユーザの状況や事情によっては、通知が必要ではないということある。そのような場合にまで逐一通知を行うと、ユーザが煩わしいと感じることもある。このように、従来の技術においては、通知が画一的であり、支援情報の通知に際し、個々のユーザの事情が考慮されなかった。
本発明は、個々のユーザの事情を踏まえた支援情報の通知を行うことを目的とする。
For example, when a plurality of dangerous objects are detected using the visual assistance device as described above, the user may be confused if all of them are notified at once. Further, depending on the situation and circumstances of the user, such as the extent of the user's failure and whether the user is familiar with the current location, notification may not be necessary. If notifications are made one by one in such a case, the user may feel annoying. As described above, in the conventional technique, the notification is uniform, and the circumstances of individual users are not taken into consideration when the support information is notified.
An object of this invention is to notify the support information based on the situation of each user.
本発明は、一の態様において、ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、前記ユーザが視認している場景を表す画像データを取得する撮像部と、前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、該生成された支援情報を前記ユーザに通知する通知部と、前記支援情報の通知に対してなされた前記ユーザの反応を表すリアクション情報を取得する手段とを備え、前記生成部は、前記取得したリアクション情報にさらに基づいて、前記支援情報を生成する視覚支援装置を提供する。 In one aspect, the present invention relates to a storage unit that stores a condition specific to a user regarding notification of support information for supporting the user's visual recognition, and image data representing a scene that the user is viewing. An imaging unit to be acquired, a generation unit that generates support information based on the image data acquired by the imaging unit and the condition, a notification unit that notifies the user of the generated support information , Means for acquiring reaction information representing a reaction of the user made in response to the notification of support information, and the generation unit further includes a visual support device that generates the support information based on the acquired reaction information. provide.
本発明によれば、個々のユーザの状況に適合する支援情報が通知される。 According to the present invention, support information suitable for each user's situation is notified.
<実施例1>
図1は視覚支援装置100の外観の一例である。
視覚支援装置100は、通常のメガネのようにユーザが装着するものであって、フレーム20と、投影装置21と、マイク24と、スピーカ25と、カメラ22と、投影面23と、スイッチ26とを含む。ここで、フレーム20や投影面23の形状や機能は任意であって、通常のメガネの機能を有していてもよい。例えば、投影面23は通常のメガネレンズとして機能してもよいし、そうでなくてもよい。投影装置21、カメラ22、投影面23、スピーカ25は、フレーム20に内蔵された電源(図示せず)から供給される電力によって動作する。スイッチ26はユーザによって操作される。また、フレーム20には、制御部のほか、後述の各種機能を実現するためのユニット(図示せず)が内蔵されている。なお、視覚支援装置100には電源を設けず、別途設けられユーザによって携行されるバッテリユニットから給電を行ってもよい。
<Example 1>
FIG. 1 is an example of the appearance of the
The
図2Aは視覚支援装置100のハードウェア構成の一例を示す図である。
視覚支援装置100は、プロセッサ201、メモリ202、カメラ22、マイク204、操作スイッチ205、センサ206、計時装置207、投影装置208、スピーカ25、および振動モータ210を含む。プロセッサ201は、1以上の汎用または専用プロセッサであって、例えば、CPU、音声処理プロセッサ、および画像処理プロセッサを含む。メモリ202は、半導体メモリ等の記憶デバイスである。カメラ22は、レンズや受光素子などの光学素子や、フォーカスや露出などの撮影制御回路等からなる撮像機構である。なお、カメラ22を複数設けてもよい。例えば、視覚支援装置100は、通常のメガネとメガネを頭に巻き付けて固定するためのベルト部とを備え、図1のように前方を撮像するためのカメラに加え、後方を撮像するためのカメラを、ベルト上における後頭部に相当する位置に設ける。このように、通常の視野よりも広い範囲(理想的には周囲360度)の場景を取得することで、後方や横方向から無音の電気自動車や自転車等が接近してくる場合であっても、ユーザに通知することができる。マイク204は、コンデンサマイクや信号処理回路からなる集音機構である。操作スイッチ205は、ユーザによって操作されるスイッチである。
FIG. 2A is a diagram illustrating an example of a hardware configuration of the
The
センサ206は、加速度センサ、方位センサ、照度センサなど、視覚支援装置100の状態や視覚支援装置100の周囲の環境を検出するための1以上のセンサである。計時装置207はタイマなどの計時手段である。投影装置208は、半導体レーザ等や駆動回路等からなり、投影面23に文字や画像を投影する機構である。スピーカ25は、スピーカであって、ユーザに情報を音声によって通知する。振動モータ210は、小型モータなどのバイブレータであって、支援情報の通知手段として機能する。通信部211はWiFi等の無線通信モジュールであって、外部の装置との間でデータの送受信を行う。位置取得部212は、GPS受信モジュールなど、視覚支援装置100の位置を計測するための機構である。
The
図2Bは視覚支援装置100の機能ブロック図である。
視覚支援装置100は、通知部140と、反応取得部150と、音声入力部160と、生成部120と、モード切替部170と、記憶部130と、生成部120と、撮像部110とを含む。
FIG. 2B is a functional block diagram of the
The
撮像部110はカメラ22によって実現され、ユーザが視認している場景を表す画像データを、所定のフレームレートで断続的に取得する。なお、カメラの特性や人間の目の機構や各ユーザの視覚能力によって、厳密にいえば、取得した映像がユーザが視認している世界と同一ではないが、取得した画像データ一般的に視覚能力を有する人間が認識しているであろう場景を反映しているといえる。
The
モード切替部170は、操作スイッチ205によって実現され、支援情報に関する条件の切替えを受付ける。例えば、生成部120において予め動作モードを複数登録しておき
、ユーザはモード切替部170を用いて動作モードの指定ないし指定の変更を行う。動作モードとは、支援情報の通知に関する制御の態様を指定するものであって、例えば、支援情報を通知する頻度や通知内容の量によって規定される。よって、動作モードに応じて、生成部120にて生成される支援情報に関する制御内容が異なることになる。例えば、通知頻度が「高」、「中」、「小」の3つの動作モードを予め設定しておき、適用したい一つのモードをユーザに指定させることが考えられる。あるいは、ユーザが屋内にいる場合に通知制御パラメータが最適化された「屋内モード」、ユーザの夜間での移動において通知制御パラメータが最適化された「夜間モード」といって、現在の位置や時刻その他のユーザの置かれている状況に応じて動作モードを切替えることができてもよい。なお、条件の切替えは使用中いつでも行うことができる。
The
音声入力部160はマイク204によって実現され、ユーザの声や周囲の音を取得する。
The
反応取得部150は、マイク204、操作スイッチ205、およびセンサ206のうちいずれか一つ以上によって実現され、支援情報の通知に対するユーザの反応を表すリアクション情報を取得する。また、反応取得部150は、現在のユーザの動作の状態を取得する。動作の状態とは、例えば、ユーザが歩行などの動作を行っている最中なのか否か、あるいは体勢(着席している、横になっているなど)の情報を含む。
The
位置特定部190は位置取得部212によって実現され、視覚支援装置100の位置を特定する。なお、記憶部130に地図情報や施設についての情報を記憶しておき、位置特定部190は、現在位置に基づいて、ユーザが現在おかれている状況(屋外にいるのか屋内にいるのか、屋外の場合は登録された施設内部にいるのか道路上にいるのか、屋内の場合はオフィスや自宅などの登録された施設)にいるのか否か、を特定してもよい。
The
計時部180は計時装置207によって実現され、現在時刻を取得する。
The
生成部120は、計時部180および位置特定部190から取得した情報に基づいて、撮像部110にて画像が取得されたときにおける、所定のエリア(例えば予め登録された施設内)における滞在時間を算出してもよい。生成部120は、さらに反応取得部150から取得した情報に基づいてユーザの行動を決定してもよい。ユーザの行動とは、例えば、横になって休息しているのか、歩行中なのか、運動中なのかといった情報である。こうして、位置や場所や行動などの情報はユーザ固有情報T3に蓄積される。
Based on the information acquired from the
通知部140は、音声出力部141と表示部142と振動発生部143とを含み、生成部120の制御の下、生成部120にて生成された支援情報をユーザに通知する。
音声出力部141はスピーカ25によって実現され、支援情報を音声によって通知する。具体的には、支援情報がテキストデータとして生成され、このテキストデータを音声合成処理によって読み上げる。
表示部142は投影装置208によって実現され、支援情報を映像によって通知する。振動発生部143は振動モータ210によって実現され、支援情報を振動によって通知する。
なお、音声出力部141、表示部142、振動発生部143のいずれか一つまたは2つを省略してもよい。例えば、全盲のユーザを想定しているのであれば、表示部142の機能を省略してもよい。
The
The
The
Note that one or two of the
記憶部130はメモリ202によって実現され、OSなど生成部120を制御するためのプログラムが記憶されるほか、ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される。具体的には、条件テーブルT1、補正テーブル
T2、およびユーザ固有情報T3が格納され、これらに各ユーザに応じた情報が記憶される。
The
ユーザ固有情報T3には、各ユーザに固有の情報が記憶される。ユーザ固有の情報には、例えば、ユーザと所定の関係を有する人物(たとえば親族や友人)を特定するための情報(顔画像や顔の特徴量など)が含まれる。また、ユーザの身体能力に関する情報など、ユーザ自身の状態に関する情報が記憶されてもよい。具体的には、ユーザの体調、身体能力(視力、近視、遠視、老眼、障害の内容・程度、聴力、味覚、触覚、嗅覚、障害、運動能力など)である。また、ユーザ固有情報T3にはユーザの行動履歴(歩行経路、滞在場所、滞在時間など)が含まれていてもよい。このユーザの行動履歴には、通知を受け取ったユーザの反応を表す情報が含まれていてもよい。 Information unique to each user is stored in the user-specific information T3. The user-specific information includes, for example, information (such as a face image or facial feature amount) for specifying a person (eg, a relative or friend) having a predetermined relationship with the user. Further, information related to the user's own state such as information related to the user's physical ability may be stored. Specifically, it is a user's physical condition and physical ability (sight, myopia, hyperopia, presbyopia, content / degree of disability, hearing, taste, touch, smell, disability, motor ability, etc.). Further, the user specific information T3 may include a user's behavior history (walking route, staying place, staying time, etc.). The user's action history may include information indicating the reaction of the user who has received the notification.
図3は条件テーブルT1に記憶される情報の具体例を示す。この例では、通知条件に対応付けて支援情報の通知制御の内容が記述されている。通知条件は、検出内容と状況とに大別される。検出内容とは、画像解析の結果抽出された物体(車、建物、標識などの人工物、人や樹木などの自然物など)の種類である。なお、水たまりがあるという事実、木の枝が目の前に倒れ掛かっているというような事実など、物体の存在以外の事象を示すものであってもよい。以下では、説明の便宜上、画像から抽出されユーザへ通知すべき対象のものを、有体物・無対物を問わず、「対象物」ということにする。同図における詳細とは、当該対象物の詳細な情報を示す。例えば、様態(時間変化)やその物体の属性等の情報である。状況には、例えば画像を取得した時間、場所、撮影場所の明るさなど、画像を取得した時の状況を示す情報が含まれる。 FIG. 3 shows a specific example of information stored in the condition table T1. In this example, the content of notification control of support information is described in association with the notification condition. Notification conditions are roughly classified into detection contents and status. The detected content is the type of an object (artificial object such as a car, a building, a sign, or a natural object such as a person or a tree) extracted as a result of image analysis. It may also indicate an event other than the presence of an object, such as the fact that there is a puddle or the fact that a tree branch is falling down in front of you. Hereinafter, for convenience of explanation, an object to be extracted from an image and to be notified to a user is referred to as “object” regardless of whether it is a tangible object or an objectless object. The details in the figure indicate detailed information of the object. For example, it is information such as an aspect (time change) and an attribute of the object. The situation includes information indicating the situation when the image is acquired, such as the time when the image was acquired, the location, and the brightness of the shooting location.
通知制御内容を構成する要素として、同図の例では、要否、優先度、タイミング、通知方法が含まれる。要否とは、検出した各対象物に対して通知を行うか否かを規定する。優先度とは、通知を行う際の優先度を規定する。一般的に、生命に危険が及ぶ可能性が高い対象物については高い優先度が設定される。タイミングとは、通知の実行および/または終了のタイミングを規定する。通知方法とは、通知部140が有する機能のうちどれを使用するかを規定する。
The elements constituting the notification control contents include necessity, priority, timing, and notification method in the example of FIG. Necessity defines whether or not to notify each detected object. The priority defines the priority at the time of notification. Generally, a high priority is set for an object that is highly likely to be life threatening. Timing defines the timing of execution and / or termination of notification. The notification method defines which function of the
同図の例では、例えば、車両が検出された場合において、その車両が走行中であるがユーザには向かってきていない状況であり、その検出が屋外で発生したものである場合、その他の状況(時間帯や周囲の明るさ)を問わず通知が必要であり、通知の優先度区分は「2」(2番目に高い)であり、音声、文字および振動という手段を用いて、その対象の車両が検出されている間ずっと通知を出し続ける、という制御内容が規定されている。
通知が必要な対象物を複数検出した場合、優先度がより高い対象物がより優先して通知される。優先して通知されるとは、例えば、より時間的に先に通知する、同時に通知するが他の対象物よりもより注意を引く態様(文字サイズや音量が大きいなど)で表示するという意味である。
In the example of the figure, for example, when a vehicle is detected, the vehicle is running but not facing the user, and when the detection occurs outdoors, other situations Notification is required regardless of (time zone or ambient brightness), and the priority classification of notification is “2” (second highest), and the target of the target is determined by means of voice, text, and vibration. The control content is defined such that notifications continue to be issued while the vehicle is detected.
When a plurality of objects requiring notification are detected, an object with a higher priority is notified with higher priority. “Preferential notification” means, for example, that the notification is given earlier in time, the notification is given at the same time, but it is displayed in a mode that draws more attention than other objects (such as the character size or volume is high). is there.
通知制御内容の一以上の各項目は、ユーザ固有情報T3の内容に基づいて生成され、またはユーザによって書き換えることができるようになっている。この結果、通知制御の内容は、ユーザの好みやユーザの事情などが反映されるようになっている。また、ユーザ固有情報T3の内容が更新されるか通知に対するユーザの反応が得られた後、随時または定期的に、生成部120によって自動的に書き換えてられもよい。この場合、ユーザが視覚支援装置100を使用する期間に応じて内容が変化することになる。
One or more items of the notification control content are generated based on the content of the user specific information T3, or can be rewritten by the user. As a result, the contents of notification control reflect user preferences, user circumstances, and the like. Moreover, after the content of the user specific information T3 is updated or the user's reaction to the notification is obtained, the
なお、記憶部130には、ユーザ固有の情報以外の情報が記憶されてもよい。例えば、記憶部130には代表的な障害物の種類(車両、交通標識、段差など)とその危険度(通知の重要度)が登録される。
The
図4は補正テーブルT2に記憶される情報の例を示す。補正テーブルT2には、ユーザの反応(リアクション)と優先度の補正内容とが対応付けて記憶される。生成部120は、補正テーブルT2を参照し、所定のリアクションを検出すると、条件テーブルT1を書き換える。例えば、同図の例では、通知した支援情報の通知に対するユーザの反応として、例えばスイッチ等を操作して通知をOFFにしたという反応が記憶された場合、この支援情報について優先度を一段階下げる。このように優先度を変更する理由は、ユーザの反応には、その通知の要否や重要性に関するユーザの判断が反映されていると推測できるからである。また、ある支援情報の通知に応じてユーザが通知の頻度を変更した場合においても、当該支援情報の優先度を補正する。
FIG. 4 shows an example of information stored in the correction table T2. In the correction table T2, the user's reaction (reaction) and the correction content of the priority are stored in association with each other. The
ユーザの反応(立ち止まる、顔の向きを変えるなど)を反応取得部150が検出した場合、その支援情報の対象物に反応しており、ユーザにとってその通知が必要であると可能性が高いと推測されるから、優先度が高くなるように補正する。
When the
このように、支援情報に対するユーザの反応(無反応という反応も含む)に応じて条件テーブルT1の内容を更新することで、次回以降に、同一または似たような状況に遭遇した場合の通知制御内容がよりユーザの意図に沿った妥当なものとなる可能性が高まる。 In this way, by updating the contents of the condition table T1 according to the user's response to the support information (including a response of no response), notification control when the same or similar situation is encountered after the next time The possibility that the contents are more appropriate according to the user's intention is increased.
生成部120は、プロセッサ201によって実現され、撮像部110にて取得された画像データに対して、所定の間隔で画像解析を繰り返し実行し、予め設定された対象物や対象物が存在するか否かを判定する。そして、生成部120は、撮像部110にて取得された画像データと記憶部130に記憶されたユーザに固有の条件とに基づいて、支援情報を生成する。
具体的には、生成部120は、画像解析の結果、1以上の特定の対象物ないし対象物を複数抽出した場合、ユーザ固有情報T3を参照して、各対象物ないし対象物について通知の要否や優先度を決定する。そして、1以上の対象や対象物のなかから1以上の対象物を選択し、該選択された1以上の対象物に関する支援情報を生成する。
The
Specifically, when a plurality of one or more specific objects or objects are extracted as a result of the image analysis, the
ここで、抽出されるべき対象物とは、典型的には、車両や歩行者、電柱、街路などの物体、縁石、側溝、路面の凹凸その他の周囲の地形などユーザの移動の障害となりうる物体である。このほか、交通標識、道路に描かれたマーク、横断歩道、踏切、屋外の部屋の間取り等、ユーザの安全な移動(歩行や乗り物運転時)に寄与する対象が含まれていてもよい。 Here, the objects to be extracted are typically objects such as objects such as vehicles, pedestrians, utility poles, streets, curbs, gutters, road surface irregularities, and other surrounding topography. It is. In addition, a target that contributes to the safe movement of the user (when walking or driving a vehicle) such as a traffic sign, a mark drawn on a road, a pedestrian crossing, a railroad crossing, and a floor plan of an outdoor room may be included.
生成部120は、反応取得部150にて取得されたリアクション情報をさらに用いて、支援情報を生成してもよい。また、生成部120は、所定値以上の危険度の障害物が前記画像データから抽出された場合に、支援情報を生成してもよい。また、生成部120は、画像データにおいて人物が検出された場合に、当該人物情報に基づいて支援情報を決定してもよい。
The
前記条件は、前記ユーザの位置に関する情報を用いて規定されてもよい。また、前記条件は、滞在時間に関する情報を用いて規定されてもよい。また、前記条件は、前記ユーザの行動に関する情報を用いて規定されてもよい。 The condition may be defined using information related to the position of the user. In addition, the condition may be defined using information related to stay time. The condition may be defined using information related to the user's behavior.
また、動作モードが指定されている場合は、当該動作モードが規定する条件をさらに加味して、支援情報を生成する。例えば、動作モードとして「通知頻度「低」」が指定され、この動作モードが「優先度が2以下の対象物においては、通知しない」というルールを規定するものであれば、優先度「1」が設定された対象物のみが通知の対象となる。 Further, when the operation mode is designated, the support information is generated in consideration of the conditions specified by the operation mode. For example, if “notification frequency“ low ”” is designated as the operation mode and this operation mode prescribes a rule of “not notify for an object with a priority of 2 or less”, the priority “1”. Only objects for which is set are subject to notification.
制御内容は、図3に示したうに、条件に対応する制御内容を定義したテーブル形式で用意される必要はない。例えば、制御アルゴリズムを機械学習の手法を用いて決定してもよい。
具体的には、抽出された対象物や、画像特徴量等によって表すことができる撮像時の状況(換言するとユーザが遭遇した状況)や、実行された通知に対して得られたユーザの反応を、訓練データとして学習器に入力することによって、通知が必要な対象物と通知が不必要な対象物とを分類する分類器や通知の重要性ないし必要性を決定するための回帰モデル(学習済モデル)を生成する。
As shown in FIG. 3, the control contents need not be prepared in a table format in which the control contents corresponding to the conditions are defined. For example, the control algorithm may be determined using a machine learning technique.
Specifically, the situation at the time of imaging (in other words, the situation encountered by the user) that can be represented by the extracted object, the image feature amount, etc., and the user's reaction obtained for the executed notification are shown. , By inputting it into the learning device as training data, a classifier that classifies the objects that need to be notified and the objects that do not need to be notified, or a regression model to determine the importance or necessity of the notification (learned Model).
ここで、ユーザの反応とは、反応取得部150から供給された、通知に対して振り向いたか否か、通知したにも関わらず直後に躓くなど体のバランスを崩してしまったか否か、通知によって立ち止まったり歩行の進路を変えたりしたか否か、人物の存在を通知した後に発話や挙手を行ったか否か等、ユーザの身体的反応(無反応の場合も含む)など、通知の妥当性やユーザの行動への影響度を推測するために用いられ得る情報である。
なお、ユーザの反応に変えてもしくは加えて、ユーザ情報に含まれるユーザの行動を示す情報(例えば歩行経路や活動の時間帯等)を蓄積しておき、この蓄積したユーザ情報を上記学習器に入力させてもよい。
Here, the user's reaction is whether or not he / she has turned around for the notification supplied from the
In addition to or in addition to the user's reaction, information (for example, a walking route or an activity time zone) indicating user behavior included in the user information is accumulated, and the accumulated user information is stored in the learning device. You may enter.
学習モデルを生成する機械学習の手法としては、例えばDeep Neural Network(DNN、深層学習)を用いることができる。具体的には、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)などが適用可能である。 As a machine learning method for generating a learning model, for example, Deep Neural Network (DNN, deep learning) can be used. Specifically, CNN (Conversion Neural Network), RNN (Recurrent Natural Network), etc. are applicable.
学習を行うタイミングについては、視覚支援装置100を使用する前に実行してもよいし、使用後においてユーザが遭遇した状況・対象物や通知に対するユーザの反応についての情報が得られるたびに実行してもよい。
前者の場合、例えば、ユーザが捉える視界を模擬した画像データを用意し、この画像データに対して、通知の要否、通知の優先度、タイミング等の通知に関する条件についての質問をユーザに対して行い、ユーザから得た回答に基づいて学習させることができる。こうして学習済みモデルが生成された後、ユーザに視覚支援装置100使用させる。
後者の場合、視覚支援装置100の使用開始時点においては、未学習状態のアルゴリズムを用いることになるが、ユーザの反応や行動パターンについての情報が蓄積されるにつれ、学習が進むことになる。
The learning timing may be executed before using the
In the former case, for example, image data simulating the field of view captured by the user is prepared, and the user is asked questions regarding the conditions regarding notification such as necessity of notification, priority of notification, timing, etc. And learning based on answers obtained from the user. After the learned model is generated in this way, the
In the latter case, an unlearned algorithm is used at the start of use of the
要するに、視覚支援装置100は、取得した複数の画像データと、各画像データに対応して得られた複数のリアクション情報とに基づいて、支援情報の通知に関する条件を学習する学習器と、取得された画像データに対応する支援情報をこの学習器を用いて生成する機能を有していればよい。
In short, the
また、図2Aで示したハードウェア構成または図2Bで示した機能構成の一部は、視覚支援装置100とは別途設けられた装置によって実現されてもよい。例えば、通知部を視覚支援装置100には設けず、ユーザが携行するスマートフォン等の携帯型情報処理端末が有する通知機能を利用してもよい。具体的には、視覚支援装置100と携帯型情報処理端末と間で無線通信を行い、視覚支援装置100から携帯型情報処理端末に通知の実行要求および通知内容を送信する。
In addition, the hardware configuration illustrated in FIG. 2A or a part of the functional configuration illustrated in FIG. 2B may be realized by an apparatus provided separately from the
また、図2Aおよび図2Bで示したハードウェア構成ないし機能構成に、他の機能を加えてもよい。例えば、視覚支援装置100に移動を案内する機能を設ける。具体的には、記憶部130に地図情報を記憶し、位置取得部212およびセンサ206にてそれぞれ取得された現在位置および向きユーザの向きについての情報と、音声入力部160にて取得
された、移動目的の位置や施設名の情報と、地図情報に基づいて、ユーザが進むべきルートや方角、目的地までの距離といった、ユーザの移動を支援する情報を生成してユーザに通知してもよい。
他の例として、ユーザを認証する機能を設けてもよい。具体的には、視覚支援装置100において声紋や指紋などのユーザ固有の生体情報を取得する手段を設け、予め登録された情報と一致するか判定する。認証を実行するタイミングは、例えば視覚支援装置100の起動時である。
Further, other functions may be added to the hardware configuration or functional configuration shown in FIGS. 2A and 2B. For example, a function for guiding the movement to the
As another example, a function of authenticating a user may be provided. Specifically, the
図5は、視覚支援装置100の動作の一例を示す。視覚支援装置100は、予め、現在時刻や場所の取得、周囲の状況やユーザの状態についてのセンシング、動作モードの指定の受付けなどを行い、通知条件として規定された情報を決定しておく(S500)。
撮像した画像が所定フレーム分蓄積されると、生成部120は蓄積された画像を解析する(S510)。
生成部120は、解析の結果、対象物を検出した場合、通知要否の判定を行う(S521)。生成部120は、通知が必要であれば(S521;YES)、通知内容を生成する(S522)。ここで、通知対象が複数あった場合は、各通知の順番や態様がさらに決定される。通知部140は、タイミング情報に従って通知を実行する(S530)。タイミング情報が存在しない場合、即座に通知を実行する。
生成部120は、ユーザからのリアクションを取得した場合(S540:YES)、当該リアクションを示す情報を記憶部130に書き込むとともに、必要に応じて当該リアクションの情報に基づいて通知条件を更新する(S550)。なお、通知が不必要な場合(S521;NO)あるいはリアクションが取得されない場合(S540;NO)、S500の処理に戻る。
FIG. 5 shows an example of the operation of the
When the captured images are accumulated for a predetermined frame, the
As a result of the analysis, the
When the
図6は、取得した画像に基づいて生成される通知の具体例を示す。
いま、D1で示す画像が撮像されたとする。この画像を解析した結果、自動車である対象物OB1、樹木である対象物OB2、障害物の一種である段差として対象物OB3、障害物の一種である看板として対象物OB4の存在が検出されたとする。また、加えて各対象物間の位置関係およびユーザのとの位置関係が特定され、さらに対象物OB1については動く方向が検出されたとする。
いま仮に、ともに視覚支援装置100のユーザであるユーザAとユーザBとが、屋外において、この画像で示される状況に遭遇したとする。この例では、ユーザAに対しては、対象物OB1に対応する支援情報として、向かってくる車に注意喚起を促すメッセージが最初に通知され、続いて、対象物OB3に対応する支援情報として、前方の看板への注意喚起を促すメッセージが通知され、続いて段差への注意喚起を促すメッセージが通知される。
FIG. 6 shows a specific example of the notification generated based on the acquired image.
Assume that an image indicated by D1 is captured. As a result of analyzing this image, the presence of the object OB1 that is a car, the object OB2 that is a tree, the object OB3 as a step that is a kind of obstacle, and the object OB4 as a signboard that is a kind of obstacle is detected. To do. In addition, it is assumed that the positional relationship between the objects and the positional relationship with the user are specified, and that the moving direction of the object OB1 is detected.
Suppose now that user A and user B, who are both users of the
このような通知制御が行われるのは、例えば、ユーザAは視力がかなり悪いという情報がユーザ固有情報T3に書き込まれており、この情報に基づいて、条件テーブルT1において動く物体に対して高い通知優先度が与えられており、静止している障害物は優先度が低いが通知は必要であるという制御内容となっている場合である。また、この例では、対象物OB4が通知要と判定されているにも関わらず通知が実行されていない理由は、例えば、ユーザが混乱しないように、一度に通知できる数の上限が3と設定されており、現状ではユーザの位置から樹木まで遠いためにその優先度は他の3つの対象物よりも低いと判定されているといった場合である。 Such notification control is performed because, for example, information indicating that the user A has considerably poor eyesight is written in the user specific information T3, and based on this information, a high notification is given to the moving object in the condition table T1. This is a case where priority is given and the control content is that a stationary obstacle has a low priority but notification is required. In this example, the reason why the notification is not executed even though it is determined that the object OB4 is required to be notified is that, for example, the upper limit of the number that can be notified at one time is set to 3 so that the user is not confused. This is a case where the priority is determined to be lower than the other three objects because the user is far from the position of the tree at present.
一方、ユーザBに対しては、対象物OB3に対応する支援情報のみが通知されている。このような状況は、例えば、ユーザBは視力には問題ないが歩行に能力に支障があるという情報がユーザ固有情報T3に記憶されており、この結果、歩行に関係する対象物OB3のみが通知要である一方、対象物OB1、対象物OB4、対象物OB2については通知不
要と生成部120において判断されたような場合に生じることが考えられる。
On the other hand, only the support information corresponding to the object OB3 is notified to the user B. In such a situation, for example, information indicating that the user B has no problem with visual acuity but has a problem with walking ability is stored in the user-specific information T3. As a result, only the object OB3 related to walking is notified. On the other hand, it can be considered that the object OB1, the object OB4, and the object OB2 may occur when the
図7は、生成される通知の他の例を示す。D2は、ユーザがオフィスなどの屋内の廊下において撮像された場合において取得される画像の例である。いま、ともに視覚支援装置100のユーザであるユーザCとユーザDとがこの状況に遭遇したとする。生成部120は、対象物として対象物OB21、対象物OB22を検出する。加えて、顔認証処理によって、対象物OB21はCの友人として登録されている人物Xであり、対象物OB22はユーザCの友人でもユーザDの友人でもない人物であると判定する。
FIG. 7 shows another example of the generated notification. D2 is an example of an image acquired when the user is captured in an indoor corridor such as an office. Now, it is assumed that user C and user D, who are both users of the
ユーザCに対しては、知り合いの人物Xの出現が知らされている。これにより、ユーザCはXに挨拶などの応対を行うことができる。このような状況は、例えば、ユーザCは現在の場所については完全に把握しており案内情報は希望していないという事情があり、この事情に沿って、場所に関する支援情報は通知されないないしはその通知の優先度が低くなるような設定となっている場合に現れる。 The user C is informed of the appearance of an acquaintance person X. Thereby, the user C can respond to X with greetings. In such a situation, for example, the user C has a complete understanding of the current location and does not want the guidance information. In accordance with this situation, the support information related to the location is not notified or is notified. Appears when the priority is set to be low.
一方、ユーザDに対しては、まず自分が廊下にいるという状況の説明が行われ、続いて前方から人が向かっているという注意喚起が行われている。このような状況は、例えば、ユーザDにとっては屋内ではまず現在位置の把握が最優先事項であり、このユーザDの要望に沿った設定が記憶部130でなされている場合に生じる。
On the other hand, the user D is first explained about the situation that he / she is in the hallway, and then alerted that the person is heading from the front. Such a situation occurs, for example, when the current position is the highest priority indoors for the user D, and the setting according to the request of the user D is made in the
あるいは、撮像結果から人物のみを検出する設定を記憶部130に登録しておき、ユーザは待ち合せ場所等において、多数の人のなかから待ち人(予め記憶部130に登録されている)を探したい場合に、モード切替部170を操作してこの設定を有効にするといった視覚支援装置100の使用方法も考えられる。
Alternatively, a setting for detecting only a person from the imaging result is registered in the
このように、仮に同一の状況に遭遇したとしても、支援情報の取捨選択の方法がユーザによって異なり、結果として、ユーザが異なれば提供される支援情報が異なりうる。 As described above, even if the same situation is encountered, the support information selection method varies depending on the user, and as a result, the support information provided may differ depending on the user.
本実施例によれば、ユーザの事情、都合、ニーズ、好み、現在おかれている状況など、ユーザ固有の情報を考慮して、通知の要否、内容、タイミング、順序の少なくともいずれか一つが決定される。この結果、ユーザにとって無駄な通知が行われ、その結果、ユーザが煩わしさを感じる状況が減ることが期待される。また、逆に煩わしさの緩和を追求するあまり、本来必要な通知が行われないとった状況が発生する可能性も低くなる。
また、通知に対するユーザの反応および/またはユーザの行動履歴に基づいて通知制御内容を変化させることができるので、視覚支援装置100を使用すればするほど、ユーザへ提供する支援が最適化される。
According to the present embodiment, in consideration of user-specific information such as user circumstances, convenience, needs, preferences, current situation, at least one of notification necessity, contents, timing, and order is It is determined. As a result, useless notification is performed for the user, and as a result, the situation where the user feels bothersome is expected to be reduced. On the other hand, too much pursuit of annoyance is less likely to cause a situation where a necessary notification is not performed.
Moreover, since the notification control content can be changed based on the user's reaction to the notification and / or the user's action history, the support provided to the user is optimized as the
上記実施例は、本来通常の人が持っている視覚能力が低下したユーザの視覚能力を補い、日常生活を支援することを主な目的とするものであるが、本来持っている視覚能力以上の能力の発揮が求められているような場面に適用してもよい。
例えば、遠方の物体を認識する動作モードを設けておき、遠方の物体を認識が要求される場面に遭遇した場合は、ユーザが当該モードに手動で切替えるか、または画像解析によって知覚には物体が存在しないことを認識した結果、生成部120が自動的に切替えるかすることにより、遠方にある物体を支援情報として通知させる、といった視覚支援装置100の使用方法が考えられる。あるいは、予め目的地を指定した「ナビゲーションモード」と、特定の目的地点が存在せずに自由に散歩をするような「フリーモード」を設けておき、両者のモードにおいて支援情報の内容やタイミング、頻度等を異ならせてもよい。また、「ナビゲーションモード」においては、上述した支援情報の提供に加えて、地図情報と現在位置とに基づいて目的地までのルートを音声によって案内する一方、「フリーモード」においては、上述した支援情報の提供に加え、近くのレストラン情報や公園の存在情
報等、直接歩行には関係ないが、ユーザーの趣味嗜好に即した情報が通知されるように設定することもできる。例えば、飲食店その他の商業施設や公共施設他の情報がユーザーが200メートル以内に近づくと通知される。
その他、特殊な作業や運動などを行う場合など活動シーンに応じた視覚支援情報を提供すべく、視覚支援装置100を使用してもよい。
すなわち、本発明は、いわゆる健常者以外の、あらゆる人間に使用することが可能である。換言すると、本発明における「支援」とは、低下または欠如している視認能力を補うという意味に限定されない。
The above embodiment is mainly intended to supplement the visual ability of a user who has reduced the visual ability originally possessed by a normal person, and to support daily life. You may apply to the scene where the display of ability is required.
For example, when an operation mode for recognizing a distant object is provided, and a scene that requires recognition of a distant object is encountered, the user manually switches to that mode, or the object is not detected for perception by image analysis. As a result of recognizing that it does not exist, a method of using the
In addition, the
That is, the present invention can be used for all humans other than so-called healthy persons. In other words, the “support” in the present invention is not limited to the meaning of compensating for the reduced or lacking visual ability.
視覚支援装置100は、メガネ型のほか、耳に装着するイヤホン型、首からぶら下げるブローチ型、腰に装着するタイプなどであってもよい。すなわち、いわゆる健常者が見ているであろう場景が正確に反映された画像を取得する必要はない。例えばブローチ型では首または胸部から見た視点の画像が取得されることになるが、対象物を検出するという目的においては特段問題がない。また、視覚支援装置100は、あえて通常の視点とは異なる視点からの映像を取得してもよい。例えば、視覚支援装置100をスマートフォンのような携帯情報端末の形状に設計し、視覚支援装置100を手から離れた位置で指示するための器具(いわゆる自撮り棒)を取り付ける。あるいは、この視覚支援装置100を飛行体(ドローン等)に取付け、空中を移動して撮影してもよい。こうすることで、人物や障害物の検出・判定が容易となる場合がある。
In addition to the glasses type, the
通知方法として、音声による通知と投影面への画像表示とを組み合わせてもよい。例えば、障害物を検出した場合は警告音を鳴らすとともに投影面に警告の内容を表示する。 As a notification method, voice notification and image display on the projection surface may be combined. For example, when an obstacle is detected, a warning sound is emitted and the content of the warning is displayed on the projection plane.
撮影された画像から状況を特定する方法や認識対象について、上記実施例は一例にすぎない。例えば、物体の種類その他の詳細を特定せずに、何らかの障害物であることのみを生成部120が認識してもよい。
また、取得した画像に映っている範囲の全てを対象物の抽出範囲と設定する必要もない。例えば、画像のうち所定のエリア(例えば、画面中央部(視野の中心部)、画面下半分(地面を中心として視野範囲)、あるいは所定の視野角に対応するエリア)内を、対象物を抽出する範囲と設定することが考えられる。具体的には、視野のうち対象物を検出した位置を条件テーブルT1の通知条件に加えておけばよい。
The above embodiment is merely an example of a method for identifying a situation from a photographed image and a recognition target. For example, the
Further, it is not necessary to set the entire range shown in the acquired image as the object extraction range. For example, an object is extracted from a predetermined area (for example, the center of the screen (the center of the field of view), the lower half of the screen (the field of view around the ground), or the area corresponding to the predetermined field of view)) of the image. It is conceivable to set the range. Specifically, the position where the object is detected in the visual field may be added to the notification condition of the condition table T1.
このように対象物の抽出範囲を絞ることで、画像処理の処理速度が向上し、結果として通知のリアルタイム性が向上する。
また、対象物の抽出範囲をユーザが選択できるようにしてもよい。例えば、動作モードに応じて異なる対象物の抽出範囲を規定しておくことが考えられる。例えば多数の人がいる街中にいる場合、検出した全ての人についての情報を通知するとユーザが混乱してしまう虞があるので、街中に出た場合は画面中心付近(ユーザのほほ真正面)を抽出範囲と設定した動作モードに切替える。このように情報を絞ることによって、少なくとも前方から来る人と正面衝突するという事故が起きる可能性は減り、多数の通知によって混乱することが起きる虞も低くなる。
By narrowing down the object extraction range in this way, the processing speed of image processing is improved, and as a result, the real-time property of notification is improved.
In addition, the user may be allowed to select an extraction range of the object. For example, it may be possible to define different object extraction ranges depending on the operation mode. For example, if you are in a city with many people, you may get confused if you notify the information about all detected people, so if you go out in the city, extract the area near the center of the screen (the front of the user) Switch to range and set operation mode. By narrowing down the information in this way, the possibility of an accident of a frontal collision with a person coming from at least the front is reduced, and the possibility of being confused by a large number of notifications is reduced.
場景を示す情報を取得する方法として、上述した可視光画像に替えてもしくは加えて、音波やミリ波その他の電磁波を用いて検知ないし撮像されたデータに基づいて、場景が反映された画像を取得してもよい。例えば、視覚支援装置100に赤外線カメラやミリ波レーダを設け、夜間の場合は、可視光カメラをオフにして赤外線カメラまたはミリ波レーダを起動し、赤外線カメラまたはミリ波レーダによって測定されたデータを画像化する。
As a method of acquiring information indicating a scene, an image reflecting the scene is acquired based on data detected or imaged using sound waves, millimeter waves, or other electromagnetic waves instead of or in addition to the visible light image described above. May be. For example, the
<実施例2>
ある位置において視覚支援装置100のユーザが実際に遭遇した場景に関する情報であ
って、他のユーザにとってその位置において視覚の支援となる情報(一例としては、各ユーザに通知を行った通知事実やその通知の内容自体)を、複数のユーザで共有してもよい。具体的には、図8に示すように、複数の視覚支援装置100(100-1、100-2、100-3)とサーバ300とを900を介して接続する。
<Example 2>
Information related to the scene that the user of the
サーバ300は、汎用のサーバであって、記憶部310と通信部320と制御部330を含む。記憶部310はハードディスク等の記憶装置であって、サーバ300の制御プログラムのほか、後述する、視覚支援装置100から収集した共有情報を記憶する。通信部320は、インターネット900を介して各視覚支援装置100と情報の授受を行うためのネットワークインタフェースである。制御部330はプロセッサであって、サーバ300を制御する。
The
生成部120は、生成された支援情報を通知部140に供給するとともに、当該支援情報他のユーザとの間で共有すべきかを判定する。生成部120は、共有すべきであると判定した支援情報については、該生成された支援情報に基づいて共有情報を生成する。
The
共有情報は、支援情報に基づいて生成されるのではなく、ユーザが内容を決定し、視覚支援装置100に入力してもよい。具体的には、通知を行われたときあるいはユーザによる所定の操作が行われことを契機として、音声入力部160によって録音が開始され、所定の期間内になされたユーザの発話を取得する。生成部120は取得した発話データに対してテキストデータ化するなどの加工処理を施し、サーバ300へ送信する。なお、生成部120は、通知をした際あるいはユーザが所定の行動や発話を行ったことを検出した場合に、「いまの情報を投稿しますか?」といった音声メッセージを通知部140を介して通知して、ユーザに情報の投稿を促すまたは確認を求めるというプロセスを実行してもよい。
The shared information is not generated based on the support information, but may be determined by the user and input to the
また、共有情報の投稿タイミングに関し、支援情報の通知の受信の有無および通知を受けた位置やタイミングとは関係なく、ユーザが共有すべき情報と考える情報については、任意のタイミングや場所にて受付けてもよい。この場合、共有情報に対応付けるべき位置情報についてもユーザが入力する。ここで、現在の視覚支援装置100の位置とは異なる位置に関する共有情報を入力したい場合は、ユーザは、例えば視覚支援装置100において地図情報の表示や検索するアプリを実行し、地図上の位置を指定することで、該指定された位置に対応する座標を当該アプリから取得する。
生成された共有情報は、位置特定部190にて特定されたそのときの位置とともに、通信部211の機能を用いて、サーバ300へ送信される。
In addition, regarding the posting timing of shared information, regardless of whether or not support information notification is received and the position and timing at which the notification is received, information that is considered to be shared by the user is accepted at any timing or location. May be. In this case, the user inputs position information to be associated with the shared information. Here, when it is desired to input shared information related to a position different from the current position of the
The generated shared information is transmitted to the
図9は、各視覚支援装置100によって登録され、記憶部310に記憶された共有情報テーブルT4の例である。共有情報テーブルT4は、位置情報に対応付けて共有情報が記憶される。位置情報は、緯度経度等の座標形式、行政によって定められる住所の形式、建物のランドマーク情報を用いて記述されてもよい。要するに、位置情報は、視覚支援装置100において、自端末の位置が、位置情報に記憶された位置に相当する位置であるか否かが決定できる形式であればよい。
FIG. 9 is an example of the shared information table T4 registered by each
共有情報は、障害物の存在や、その障害物の危険性の程度(登録ユーザの主観的情報でも構わない)その他の詳細な情報、障害物に対する対処行動について記述される。条件テーブルT1などを用いて視覚支援装置100が検知できる情報よりも詳細な情報であることが好ましい。例えば、撮像部110による画像解析によって段差が存在することは検知できても、その段差がどの程度危険なものなのか、あるいはどのように行動すればよいのか(迂回すればいいのか、注意して乗り越えるべきなのかなど)についてまでは判定することは困難なことも多いが、他人の実体験に基づく情報を通知することで、よりきめ細か
な支援が可能となる。
The shared information describes the presence of an obstacle, the degree of danger of the obstacle (may be subjective information of the registered user), and other detailed information, and the coping action for the obstacle. It is preferable that the information is more detailed than information that can be detected by the
視覚支援装置100は、定期的にまたは視覚支援装置100の位置の変化が所定の基準を満たすと、視覚支援装置100の現在位置をキーとしてサーバ300に照会し、現在位置に対応する共有情報が格納されていないかを確認し、そのような共有情報が格納されている場合はサーバ300から取得する。視覚支援装置100は、取得した共有情報に基づく情報を、音声、文字、および画像の少なくともいずれかの方法でユーザに通知する。ここで、支援情報に危険性の程度に関する情報が含まれている場合は、危険性の程度に応じて表示態様を異ならせてもよい。
なお、共有情報のユーザへの通知のタイミングは、上述した支援情報と別途独立に行ってもよいし、常に支援情報とあわせて通知してもよい。共有情報の通知は支援情報の通知を前提とする場合、支援情報および共有情報に応じて、通知の内容、タイミング、態様を決定してもよい。例えば、その位置においてその支援情報に関連する共有情報が存在した場合に当該支援情報の優先度を上げて通知してもよいし、他の通知すべき支援情報よりも目立つ態様で、通知してもよい。
The
Note that the notification timing of the shared information to the user may be performed separately from the above-described support information, or may be notified together with the support information at all times. When notification of shared information is based on notification of support information, the content, timing, and mode of notification may be determined according to the support information and the shared information. For example, when there is shared information related to the support information at that position, the priority of the support information may be raised and notified in a manner that stands out from the other support information to be notified. Also good.
ここで、共有すべき情報は、実行された全ての通知であってもよいし、そのうちの一部であってもよい。共有すべきか否かの判定は、各視覚支援装置100にて行われてもよいし、サーバ300にて行われてもよい。視覚支援装置100にて共有すべきか否かの判定を行う場合、例えば、その通知の優先度が所定値以上である情報のみを共有対象とする。あるいは、情報が通知されたユーザに対し、その情報を共有するかどうかを決定させてもよい。
サーバ300にて共有すべきか否かの判定を行う場合、信頼性担保の観点から、例えば同一ないし関連する情報については所定数以上の視覚支援装置100からの登録があった場合に、共有情報テーブルT4に登録する。また、同一または実質的同一の位置に関連付けれた複数の共有情報を取得した場合、サーバ300は取得した共有情報を編集するあるいは取得したタイミングを用いて、情報の上書きその他の加工編集処理を行ってもよい。また、加工編集の内容、ある位置に対応して受信した共有情報の数、タイミング、頻度等に基づいて、ユーザに通知する内容を変化させてもよい。このように、投稿された情報や投稿者の属性に基づいて、ユーザへ通知される共有情報の内容は動的に変化し得る。
また、共有すべき情報は、ユーザが移動する際における安全性ないし危険性に関係するものである必要は必ずしもなく、場景に対するユーザの感想や印象などの主観的情報を含んでいてもよい。要するに、ある位置における場景に関する場景情報であればよい。換言すると、共有情報は他のユーザによって投稿されたアクティブ・フットプリント(足跡)情報である。
Here, the information to be shared may be all the notifications that have been executed or a part of them. The determination as to whether or not to share may be performed by each
When determining whether or not to be shared by the
In addition, the information to be shared does not necessarily have to be related to safety or danger when the user moves, and may include subjective information such as the user's impression and impression of the scene. In short, it may be scene information regarding the scene at a certain position. In other words, the shared information is active footprint information posted by other users.
要するに、各視覚支援装置100は、視覚支援装置のユーザがある位置において遭遇し、当該位置において他のユーザの視認を支援するための情報をサーバ300へ送信する送信部と、サーバ300から、視覚支援装置の位置に対応する前記情報を受信する受信部を備え、サーバ300は、第1の視覚支援装置から、当該第1の視覚支援装置のユーザがある位置において遭遇し、当該位置において他のユーザの視認を支援するための情報を収集する受信部と、第2の視覚支援装置の位置に対応する前記情報を、当該第2の視覚支援装置へ送信する送信部とを有していればよい。
In short, each
図10は、本実施例に係る動作例を示す。この例では、視覚支援装置100−1において、支援情報の通知を受けたことを契機として共有情報の登録を実行し、視覚支援装置100−2において、支援情報の通知とは別途独立に、よる共有情報の通知を実行する。 FIG. 10 shows an operation example according to the present embodiment. In this example, the visual support device 100-1 executes registration of shared information upon receiving the support information notification, and the visual support device 100-2 is independent from the support information notification. Execute sharing information notification.
通知部140にて通知が実行された場合(S530)、生成部120は、当該通知された情報に関連した情報を共有情報として登録すべきかを判定する(S601)。登録すべ
きでないと判定した場合、特段処理は行わない。登録すべきと判定した場合、通知した内容と位置情報とをセットにして、登録要求をサーバ300へ送信する(S602)。
サーバ300は、登録要求を受信すると(S603)、共有情報テーブルT4にレコードを追加する。なお、登録要求に係る共有情報と同等の情報が既に登録されていると判断した場合は、その情報が新たに投稿されたという情報のみを記憶してもよい。
When the notification is executed by the notification unit 140 (S530), the
When receiving the registration request (S603), the
視覚支援装置100−2は、定期的に自端末の位置情報をサーバ300へ通知し、現在位置に対応する共有情報がないかを照会する(S604)。現在位置に対応するとは、例えば、共有情報に紐付けられている位置情報が視覚支援装置100−2の現在位置から所定の距離内にある場所を示している場合である。照会を受けた共有情報が存在する場合、サーバ300はその共有情報を視覚支援装置100−2へ送信する(S605)。共有情報を受信した視覚支援装置100−2は、その共有情報を位置に視覚支援装置100−2が位置しているかを判定し、位置していた場合は、該受信した共有情報に基づく情報を生成して、視覚支援装置100−2のユーザへ通知する(S606)。
The visual assistance device 100-2 periodically notifies the
共有情報に基づく情報とは、共有情報そのものであってもよいし、支援情報を通知している(またはこれから通知しようとしている)場合は、その支援情報と共有情報とに基づいて生成される新たな情報である。あるいは、記憶部130に記憶されているユーザ属性と共有情報とに基づいて情報が生成されてもよい。例えば、共有情報には、段差が存在し、足の不自由なユーザにとっての危険度は「大」という情報が含まれていた場合において、視覚支援装置100−2のユーザの属性に、足が不自由であるという情報が含まれていた場合は、危険な障害物であることが伝わるように、通知の優先度や警告の程度等を決定する。
The information based on the shared information may be the shared information itself, or if the support information has been notified (or is about to be notified), a new information generated based on the support information and the shared information Information. Alternatively, information may be generated based on user attributes and shared information stored in the
上述したナビゲーションモードにおいて、共有情報が存在する場合、案内情報に共有情報を含ませてもよい。例えば、ナビゲーションモードに設定して、出発する前に目的地をユーザが音声入力すると、視覚支援装置100は、当該目的地までの経路を全体の経路についての情報であって、当該経路上にあるもしくは当該経路に近接する位置に関連付けられた共有情報をサーバ300から取得し、音声によってユーザに提示する。例えば、「家を出て左方向に約100メートル直進した所で信号を左折し、500メートル行った所で駅の階段を上ります。この階段にはフットプリント(共有情報)が有ります。その内容は、縁が滑りやすいから注意」というものです。このように、共有情報を用いて、目的地までの経路や場景についてのイメージを膨らませてもらうことで、視覚が不自由なユーザに対して安心感を与えることができる。
In the navigation mode described above, when shared information exists, the shared information may be included in the guidance information. For example, when the user sets the navigation mode and the user inputs a destination voice before departure, the
要するに、本発明に係る情報処理装置において、ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件を記憶しておき、前記ユーザが視認している場景を表す画像データを取得するステップと、該取得された画像データと前記条件とに基づいて支援情報を生成するステップと、該生成された支援情報を通知するステップが実行されればよい。上記各ステップを実行するプログラムは情報処理装置に予め記憶されていてもよいし、ネットワークを介してダウンロードされてもよい。 In short, in the information processing apparatus according to the present invention, conditions specific to the user regarding the notification of the support information for supporting the user's visual recognition are stored, and image data representing the scene being visually recognized by the user is stored. The step of acquiring, the step of generating support information based on the acquired image data and the condition, and the step of notifying the generated support information may be executed. A program for executing the above steps may be stored in advance in the information processing apparatus, or may be downloaded via a network.
100、100−1、100−2、100−3・・・視覚支援装置、20・・・フレーム、21・・・投影装置、22・・・カメラ、23・・・投影面、24・・・マイク、25・・・スピーカ、26・・・スイッチ、140・・・通知部、150・・・反応取得部、160・・・音声入力部、120・・・生成部、170・・・モード切替部、130・・・記憶部、110・・・撮像部、180・・・計時部、190・・・位置特定部、201・・・プロセッサ、202・・・メモリ、204・・・マイク、205・・・操作スイッチ、206・・・センサ、207・・・計時装置、208・・・投影装置、210・・・
振動モータ、211・・・通信部、212・・・位置取得部、141・・・音声出力部、142・・・表示部、143・・・振動発生部、300・・・サーバ、310・・・記憶部、320・・・通信部、330・・・制御部、T1・・・条件テーブル、T2・・・補正テーブル、T3・・・ユーザ固有情報、OB・・・対象物、T4・・・共有情報テーブル
100, 100-1, 100-2, 100-3 ... Vision support device, 20 ... Frame, 21 ... Projection device, 22 ... Camera, 23 ... Projection plane, 24 ... Microphone, 25 ... speaker, 26 ... switch, 140 ... notification unit, 150 ... reaction acquisition unit, 160 ... voice input unit, 120 ... generation unit, 170 ... mode switching , 130 ... storage unit, 110 ... imaging unit, 180 ... timing unit, 190 ... position specifying unit, 201 ... processor, 202 ... memory, 204 ... microphone, 205 ... Operation switch, 206 ... Sensor, 207 ... Time measuring device, 208 ... Projection device, 210 ...
Vibration motor, 211 ... communication unit, 212 ... position acquisition unit, 141 ... sound output unit, 142 ... display unit, 143 ... vibration generation unit, 300 ... server, 310 ...
Claims (13)
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と、
前記支援情報の通知に対してなされた前記ユーザの反応を表すリアクション情報を取得する手段と
を備え、
前記生成部は、前記取得したリアクション情報にさらに基づいて、前記支援情報を生成する
視覚支援装置。 A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means for obtaining reaction information representing a reaction of the user made to the notification of the support information;
With
The generation unit is a visual support device that generates the support information based on the acquired reaction information .
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と、
現在時刻を取得する手段と
を備え、
前記条件は通知のタイミングに関する情報を用いて規定される、
視覚支援装置。 A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means to get the current time
With
The condition is defined using information about the timing of notification,
Visual support device.
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と、
自装置の位置を取得する手段と
を備え、
前記条件は、前記ユーザの位置に関する情報を用いて規定される、
視覚支援装置。 A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means for acquiring the position of the own device;
With
The condition is defined using information about the user's location,
Visual support device.
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と、
前記ユーザの滞在時間を取得する手段と
を備え、
前記条件は、滞在時間に関する情報を用いて規定される、
視覚支援装置。 A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means for obtaining a stay time of the user;
With
The condition is defined using information on stay time,
Visual support device.
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と、
前記ユーザの行動を特定する手段と
を備え、
前記条件は、前記ユーザの行動に関する情報を用いて規定される、
視覚支援装置。 A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means for identifying the user's behavior;
With
The condition is defined using information about the user's behavior,
Visual support device.
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
を備え、
前記条件は、前記ユーザの身体能力に関する情報を用いて規定される、
の視覚支援装置。 A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information;
With
The condition is defined using information on the physical ability of the user.
Visual support device.
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
前記ユーザによる前記条件の切替えを受付ける切替部と
を備える視覚支援装置。 A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information;
A switching unit for accepting switching of the condition by the user;
A visual support device comprising:
請求項1ないし7のいずれか一項に記載の視覚支援装置。 The generating unit selects one or more objects based on the condition from a plurality of objects detected from the image data, and generates information on the selected one or more objects.
The visual assistance device according to claim 1.
請求項8に記載の視覚支援装置。 The generation unit generates support information representing an object of a type corresponding to the condition among objects included in the image data acquired by the imaging unit.
The visual assistance device according to claim 8 .
前記通知部は、前記画像データにおいて人物が検出された場合に、当該人物情報に基づいて前記支援情報を決定する、
請求項1ないし9のいずれか一項に記載の視覚支援装置。 Person information about a person is registered in the storage unit,
The notification unit determines the support information based on the person information when a person is detected in the image data;
Vision assistance device according to any one of claims 1 to 9.
前記サーバから、前記視覚支援装置の位置に応じた場景情報を受信する受信部と、
を更に備え、
前記通知部は、該受信した場景情報に基づいてユーザに通知を行う
請求項1〜10のいずれか一項に記載の視覚支援装置。 A transmission unit that transmits to the server the scene information about the position and the scene of the position;
A receiving unit that receives scene information according to the position of the visual assistance device from the server;
Further comprising
The notification unit vision assistance device according to any one of claims 1 to 10 for notifying the user based on the received Jokei information.
前記ユーザが視認している場景を表す画像データを取得するステップと、
該取得された画像データと前記条件とに基づいて、支援情報を生成するステップと
該生成された支援情報を前記ユーザに通知するステップと、
前記支援情報の通知に対してなされた前記ユーザの反応を表すリアクション情報を取得するステップと
を実行させるためのプログラムであって、
前記支援情報を生成するステップにおいて、前記取得したリアクション情報がさらに用いられる、
プログラム。 A computer storing conditions specific to the user regarding notification of support information for supporting the user's visual recognition,
Obtaining image data representing a scene viewed by the user;
Generating support information based on the acquired image data and the condition; notifying the user of the generated support information ;
A step of acquiring reaction information representing a reaction of the user made in response to the notification of the support information ,
In the step of generating the support information, the acquired reaction information is further used.
program.
前記第1の視覚支援装置から、当該第1の視覚支援装置のユーザがある位置において遭遇し、当該位置において他のユーザの視認を支援するための情報を収集する受信部と、
前記第2の視覚支援装置の位置に対応する前記情報を、当該第2の視覚支援装置へ送信する送信部と
を有するサーバと
を備える視覚支援システム。 The first visual assistance device and the second visual assistance device according to any one of claims 1 to 11, each used by a different user;
A receiving unit that collects information from the first visual assistance device that the user of the first visual assistance device encounters at a certain position and assists the visual recognition of another user at the position;
Vision assistance system comprising the information corresponding to the position of the second vision assistance device, a server and a transmission unit for transmitting to the second vision assistance device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018036321A JP6500139B1 (en) | 2018-03-01 | 2018-03-01 | Visual support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018036321A JP6500139B1 (en) | 2018-03-01 | 2018-03-01 | Visual support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6500139B1 true JP6500139B1 (en) | 2019-04-10 |
JP2019152953A JP2019152953A (en) | 2019-09-12 |
Family
ID=66092571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018036321A Active JP6500139B1 (en) | 2018-03-01 | 2018-03-01 | Visual support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6500139B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102259332B1 (en) * | 2019-09-06 | 2021-06-01 | 인하대학교 산학협력단 | Object detection and guidance system for people with visual impairment |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6973869B2 (en) * | 2020-02-07 | 2021-12-01 | Necプラットフォームズ株式会社 | Guidance system, guidance method, program |
JP7480627B2 (en) * | 2020-08-03 | 2024-05-10 | オムロン株式会社 | COMMUNICATION SUPPORT DEVICE, COMMUNICATION SUPPORT METHOD, AND PROGRAM |
JP7649478B2 (en) | 2021-11-16 | 2025-03-21 | 中国電力株式会社 | Reading System |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001319288A (en) * | 2000-05-10 | 2001-11-16 | Isamu Miya | System for supporting visually handicapped person |
GB201103200D0 (en) * | 2011-02-24 | 2011-04-13 | Isis Innovation | An optical device for the visually impaired |
JP2015005166A (en) * | 2013-06-21 | 2015-01-08 | 株式会社Nttドコモ | Carried-around item, information gathering system, and information gathering method |
JP2016111393A (en) * | 2014-12-02 | 2016-06-20 | ソニー株式会社 | Information processing device, information processing method, and computer program |
JP6528263B2 (en) * | 2015-01-27 | 2019-06-12 | 国立大学法人 名古屋工業大学 | Head mounted display |
JP6011833B1 (en) * | 2015-09-14 | 2016-10-19 | パナソニックIpマネジメント株式会社 | Wearable camera system and person notification method |
JP6585543B2 (en) * | 2016-04-26 | 2019-10-02 | トヨタ自動車株式会社 | Driver visual information providing device and vehicle driving support system |
-
2018
- 2018-03-01 JP JP2018036321A patent/JP6500139B1/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102259332B1 (en) * | 2019-09-06 | 2021-06-01 | 인하대학교 산학협력단 | Object detection and guidance system for people with visual impairment |
Also Published As
Publication number | Publication date |
---|---|
JP2019152953A (en) | 2019-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9316502B2 (en) | Intelligent mobility aid device and method of navigating and providing assistance to a user thereof | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
US10362429B2 (en) | Systems and methods for generating spatial sound information relevant to real-world environments | |
US9922236B2 (en) | Wearable eyeglasses for providing social and environmental awareness | |
US10248856B2 (en) | Smart necklace with stereo vision and onboard processing | |
JP6500139B1 (en) | Visual support device | |
US10024678B2 (en) | Wearable clip for providing social and environmental awareness | |
US20180172464A1 (en) | In-vehicle device and route information presentation system | |
US10571715B2 (en) | Adaptive visual assistive device | |
Manduchi et al. | (Computer) vision without sight | |
US20130002452A1 (en) | Light-weight, portable, and wireless navigator for determining when a user who is visually-impaired and/or poorly-oriented can safely cross a street, with or without a traffic light, and know his/her exact location at any given time, and given correct and detailed guidance for translocation | |
JP7549588B2 (en) | 3D sound equipment for the blind and visually impaired | |
US10062302B2 (en) | Vision-assist systems for orientation and mobility training | |
JP2005037181A (en) | Navigation device, server, navigation system, and navigation method | |
WO2016181670A1 (en) | Information processing device, information processing method, and program | |
KR101684264B1 (en) | Method and program for the alarm of bus arriving by wearable glass device | |
WO2020188626A1 (en) | Vision assistance device | |
CN108606916A (en) | Intelligent blind guiding device and system | |
JP2014020788A (en) | Navigation system | |
Kandoth et al. | Dhrishti: a visual aiding system for outdoor environment | |
EP3882894B1 (en) | Seeing aid for a visually impaired individual | |
JP6559096B2 (en) | Information output system and information output method | |
KR20160053472A (en) | System, method and application for confirmation of identity by wearable glass device | |
KR20160025203A (en) | System and method for billiard coaching by wearable glass device | |
JP3239665U (en) | Systems to assist visually impaired users |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180301 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180427 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6500139 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |