JP2002125999A - 多感覚情報送信装置及び多感覚情報受信装置 - Google Patents
多感覚情報送信装置及び多感覚情報受信装置Info
- Publication number
- JP2002125999A JP2002125999A JP2000326099A JP2000326099A JP2002125999A JP 2002125999 A JP2002125999 A JP 2002125999A JP 2000326099 A JP2000326099 A JP 2000326099A JP 2000326099 A JP2000326099 A JP 2000326099A JP 2002125999 A JP2002125999 A JP 2002125999A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- state
- sensory
- state information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
報を触覚呈示装置に送信することができ、画像に含まれ
る対象物の状態を多感覚でユーザに伝達することが可能
な多感覚情報送信装置及び多感覚情報受信装置を提供す
ることを目的とする。 【解決手段】 画像に含まれる対象物の状態を多感覚で
ユーザに伝達する多感覚情報伝達システム1に用いられ
る多感覚情報送信装置2及び多感覚情報受信装置3であ
って、多感覚情報送信装置2は、画像に含まれる対象物
の状態情報を生成する状態情報生成部11と、生成した
状態情報を送信する状態情報送信部13〜15とを備
え、多感覚情報受信装置は、画像に含まれる対象物の状
態情報を受信する状態情報受信部16〜18と、受信し
た状態情報に基づいて対象物の状態を抽出し、抽出した
対象物の状態を状態呈示装置20〜22に呈示させるよ
うに制御する制御部19とを備えることにより上記課題
を解決する。
Description
置及び多感覚情報受信装置に係り、特に、画像に含まれ
る対象物の状態を多感覚でユーザに伝達する多感覚情報
送信装置及び多感覚情報受信装置に関する。
に対し、視覚,聴覚以外の感覚を媒体に情報を伝達する
ための研究がなされている。
代行として、画像から輪郭情報を抽出し、触覚受容器に
2次元又は3次元の情報を伝達する「オプタコン」,
「TVSS」(「視覚障害とその代行技術」,市川ほ
か,名古屋大学出版、「生体情報工学」,星宮ほか,共
立出版など)等の情報伝達装置がある。これらの装置
は、光電変換して得られた画像情報から2値化した情報
を抽出し、2次元に配列された触覚刺激素子を駆動して
振動で指や背中に刺激呈示するものである。
三次元情報表示装置」(医療福祉機器技術研究開発成果
報告書)のように、2次元上に配置されたステッピング
モータによる触覚刺激素子がコンピュータで作成された
物体のデータに対応して上下に駆動され、擬似的な3次
元の形状を表すものである。
展により、仮想物体の立体形状を視覚,触覚へ伝達する
研究がなされている。触覚への情報伝達では、例えば
「PHAMTOM」(センサブルテクノロジー社)のよ
うに立体形状やテクスチャー等を指で触れて感じさせる
ものがある。この装置は、コンピュータで作成された立
体の空間的な情報を、機械的な反力で触覚受容器にフィ
ードバックすることで仮想的に立体感を再現している。
は、視覚,聴覚を媒体に情報が伝達されている。したが
って、視覚に障害を有するユーザに対し、聴覚を媒体に
情報を伝達していた。しかしながら、地図や教育番組に
おけるグラフ等の図,又は美術品,教育番組における分
子モデル,地形等の立体情報を触覚で伝達する手段は確
立されておらず、前述のような図又は立体情報を音声の
みで伝達することには限界があった。また、視覚及び聴
覚に障害を有するユーザは触覚だけが唯一の情報入手手
段であり現状では形状などの情報を伝達することができ
ない。
置で利用する立体情報や図形情報をディジタルデータ放
送で送信する方法も考えられる。しかしながら、限られ
た放送の伝送容量では十分な伝送容量を確保することが
難しい。また、2次元,3次元の触覚呈示装置は空間や
平面上の位置情報から立体や図形を触知することができ
るが、視覚に障害を有するユーザが触知だけで立体や図
形の細部を理解することは困難であるという問題があっ
た。
で、画像に含まれる対象物の図形情報又は立体情報を触
覚呈示装置に送信することができ、画像に含まれる対象
物の状態を多感覚でユーザに伝達することが可能な多感
覚情報送信装置及び多感覚情報受信装置を提供すること
を目的とする。
するため、本発明の多感覚情報送信装置は、画像に含ま
れる対象物の状態を多感覚でユーザに伝達する多感覚情
報伝達システムに用いられる多感覚情報送信装置であっ
て、前記画像に含まれる対象物の状態情報を生成する状
態情報生成部と、前記生成した状態情報を送信する状態
情報送信部とを備えることを特徴とする。
情報を生成し、生成した状態情報を画像情報とは別に受
信側に送信することにより、画像に含まれる対象物の状
態を視覚,聴覚,触覚等の多感覚で呈示することができ
る。
記状態情報生成部が、前記画像に含まれる対象物を所定
単位の部分に分割する分割部と、前記分割した部分の位
置及び特徴を部分毎に検出し、前記検出した部分毎の位
置及び特徴に応じて前記状態情報を生成する生成部と、
前記生成した状態情報にアドレス情報を付加する一方、
前記対象物を含む画像情報に前記アドレス情報を付加す
るアドレス情報付加部とを備えることを特徴とする。
まれる対象物を所定単位(例えば、所定面積)に分割
し、分割した部分の位置及び特徴(例えば、形状,固さ
等)に応じて状態情報を生成することにより、受信側で
画像に含まれる対象物の状態を視覚,聴覚,触覚等の多
感覚で呈示することができる。
記状態情報生成部が、前記対象物の所定範囲を指定する
範囲指定部と、前記分割した部分のうち前記指定された
所定範囲に含まれる1以上の部分を検出する検出部と、
前記検出した1以上の部分にタグ情報を付加するタグ情
報付加部とを備えることを特徴とする。
分割した部分のうち所定範囲に含まれる1以上の部分に
タグ情報を付加することにより、部分毎に名称,特徴等
の情報を付加することができる。
多感覚情報受信装置は、画像に含まれる対象物の状態を
多感覚でユーザに伝達する多感覚情報伝達システムに用
いられる多感覚情報受信装置であって、前記画像に含ま
れる対象物の状態情報を受信する状態情報受信部と、前
記受信した状態情報に基づいて前記対象物の状態を抽出
し、前記抽出した対象物の状態を状態呈示装置に呈示さ
せるように制御する制御部とを備えることを特徴とす
る。
情報を画像情報とは別に受信し、受信した状態情報に基
づいて対象物の状態を抽出し、抽出した対象物の状態を
状態呈示装置に呈示させるように制御することにより、
画像に含まれる対象物の状態を多感覚でユーザに伝達す
ることができる。
記制御部が、前記受信した状態情報から前記分割した部
分毎の位置及び特徴を抽出する抽出部と、前記抽出した
部分毎の位置及び特徴に基づいて前記触覚呈示装置に前
記対象物を触覚で呈示させる触覚呈示制御部と、前記触
覚で呈示された対象物のうちユーザが触れた位置を検出
する位置検出部と、前記検出されたユーザが触れた位置
に付加されているタグ情報を抽出し、前記抽出したタグ
情報に基づいて前記ユーザが触れた位置に関する情報を
タグ情報呈示装置に呈示させるタグ情報呈示制御部とを
備えることを特徴とする。
から分割した部分毎の位置及び特徴を抽出し、抽出した
部分毎の位置及び特徴に基づいて前記触覚呈示装置に前
記対象物を触覚で呈示させる。したがって、ユーザは触
覚呈示装置が触覚で呈示した対象物を触れることによ
り、対象物の形状を触知することができる。
出し、ユーザが触れた位置にタグ情報が付加されていれ
ば、タグ情報に基づいて前記ユーザが触れた位置に関す
る情報をタグ情報呈示装置に呈示させることができる。
タグ情報呈示装置は、例えばユーザが触れた位置に関す
る情報を音声又は点字などで出力する構成とすることが
できる。
面に基づいて説明する。図1は、本発明の多感覚情報伝
送システムの一例の概要図を示す。図1の多感覚情報伝
送システム1は、送信部2,受信部3,表示部4を含む
ように構成される。送信部2と受信部3とは、例えばイ
ンターネット等のネットワーク網5,TV放送等の放送
網6を介して接続されている。
成部11,放送番組コンテンツ入力部12,インターネ
ット発信部13,データ放送多重部14,TV送信部1
5を含む。図・立体オブジェクト情報生成部11は、放
送番組で用いられる図,立体の位置,固さ,表面性,形
状などの物理情報を検出し、検出した物理情報に基づい
てオブジェクト情報を生成する。例えば、放送番組で用
いられる図,立体としては、「日曜美術館」等の放送番
組で紹介される美術品などがある。
生成したオブジェクト情報をネットワーク網5を利用し
て送信する場合、そのオブジェクト情報をインターネッ
ト発信部13に供給する。また、図・立体オブジェクト
情報生成部11は、生成したオブジェクト情報を放送網
6を利用して送信する場合、そのオブジェクト情報をデ
ータ放送多重部14に供給する。
ブジェクト情報生成部11から供給されたオブジェクト
情報をネットワーク網5に送信する。一方、データ放送
多重部14は、図・立体オブジェクト情報生成部11か
ら供給されたオブジェクト情報をデータ放送用データに
挿入してTV送信部15に供給する。
力部12から通常の放送番組用データが供給されると共
にデータ放送多重部14からデータ放送用データが供給
され、供給された放送番組用データ及びデータ放送用デ
ータをTV放送波として放送網6に送信する。ネットワ
ーク網5に送信されたオブジェクト情報及び通信網6に
送信されたTV放送波は、受信部3に受信される。
TV受信部17,データ放送受信部18,図・立体オブ
ジェクト情報再生部19を含む。インターネット受信部
16は、ネットワーク網5を介してオブジェクト情報を
受信する。インターネット受信部16は、受信したオブ
ジェクト情報を図・立体オブジェクト情報再生部19に
供給する。
波を受信し、受信したTV放送波から放送番組用データ
及びデータ放送用データを検出する。TV受信部17
は、検出した放送番組用データを後述する放送番組コン
テンツ表示部23に送信すると共に、データ放送用デー
タをデータ放送受信部18に供給する。
タ放送用データから送信部2で挿入されたオブジェクト
情報を検出し、検出したオブジェクト情報を図・立体オ
ブジェクト情報再生部19に供給する。図・立体オブジ
ェクト情報再生部19は、インターネット受信部16,
データ放送受信部18から供給されるオブジェクト情報
を供給され、そのオブジェクト情報に基づいて放送番組
で用いられる図,立体の位置,固さ,表面性,形状など
の物理情報を再生する。図・立体オブジェクト情報再生
部19は、再生した物理情報に基づいて後述する触覚・
力覚呈示装置20,音声・点字出力装置21,画面出力
装置22の処理を制御する。
声・点字出力装置21,画面出力装置22,放送番組コ
ンテンツ表示部23を含む。触覚・力覚呈示装置20
は、図・立体オブジェクト情報再生部19からの制御に
応じて放送番組で用いられる図,立体を触覚で呈示す
る。音声・点字出力装置21は、図・立体オブジェクト
情報再生部19からの制御に応じて放送番組で用いられ
る図,立体に関する情報を音声又は点字で出力する。
トデータ再生部19からの制御に応じて放送番組で用い
られる図,立体を画像で出力する。また、放送番組コン
テンツ表示部23は、TV受信部17から送信される放
送番組用データを受信し、放送番組を表示する。
テム1は、通常の放送番組用データとは別に放送番組で
用いられる図,立体の位置,固さ,表面性,形状などの
物理情報をネットワーク網5,放送網6を用いて伝送す
ることができ、受信側で図,立体の位置,固さ,表面
性,形状などを視覚,触覚,聴覚等の多感覚で呈示する
ことが可能である。
を構成する送信部2,受信部3の詳細について説明す
る。図2は、本発明の送信部の一実施例の構成図を示
す。図2の送信部2は、図・立体オブジェクト情報生成
部11,放送番組コンテンツ入力部12,インターネッ
ト発信部13,データ放送多重部14,TV送信部1
5,符号部38,URL・データアドレス付加部39,
URL付加部40を含むように構成される。また、図・
立体オブジェクト情報生成部11は、2・3次元オブジ
ェクト表面分割部31,オブジェクト空間位置&パラメ
ータ検出部32,タグ情報付加位置指定部33,タグ情
報空間位置検出部34,タグ情報入力部35,2・3次
元オブジェクト/タグ空間位置比較部36及びオブジェ
クト情報生成部37を含む。
は、放送番組で用いられる図,立体(以下、「オブジェ
クト」という)の表面を適切な数に分割した部分(以
下、「ポリゴン」という)に分割し、分割したポリゴン
をオブジェクト空間位置&パラメータ検出部32に供給
する。オブジェクト空間位置&パラメータ検出部32
は、各ポリゴンの空間位置,固さ,表面性,形状等のテ
クスチャ(Texture)を物理情報として検出す
る。
徴などを表すタグ情報を付加する空間位置を指定し、指
定した空間位置をタグ情報空間位置検出部34に供給す
る。タグ情報空間位置検出部34は、指定された空間位
置に含まれるポリゴンを選択し、選択した各ポリゴンの
空間位置を検出する。タグ情報空間位置検出部34は、
選択した各ポリゴンの空間位置をタグ情報入力部35に
供給する。また、タグ情報入力部35は、タグ情報空間
位置検出部34で選択された各ポリゴンにタグ情報を付
加する。
較部36は、オブジェクト空間位置&パラメータ検出部
32から各ポリゴンの空間位置等の物理情報が供給され
ると共に、タグ情報入力部35からタグ情報及びそのタ
グ情報が付加された各ポリゴンの空間位置が供給され
る。
較部36は、オブジェクト空間位置&パラメータ検出部
32で検出した各ポリゴンの空間位置と、タグ情報空間
位置検出部34で選択した各ポリゴンの空間位置との比
較を行い、その比較結果をオブジェクト情報生成部37
に供給する。なお、2・3次元オブジェクト/タグ空間
位置比較部36は、オブジェクト空間位置&パラメータ
検出部32から供給された各ポリゴンの空間位置等の物
理情報、タグ情報入力部35から供給されたタグ情報及
びそのタグ情報が付加された各ポリゴンの空間位置もオ
ブジェクト情報生成部37に供給する。
た比較結果に基づいて、タグ情報空間位置検出部34で
選択した各ポリゴンの空間位置と一致するオブジェクト
の各ポリゴンにタグ情報を付加する。そして、オブジェ
クト情報生成部37は、各ポリゴンの物理情報,タグ情
報等からオブジェクト情報を生成し、符号部38に供給
する。
7から供給されたオブジェクト情報をVRML(Virtua
l Reality Modeling Language)などで符号化し、符号
化したオブジェクト情報(以下、「符号化オブジェクト
情報」という)をURL付加部40,データ放送多重部
14に供給する。URL付加部40は、符号部38から
供給された符号化オブジェクト情報にURL(Unif
orm Resource Locator)を付加
し、URLを付加した符号化オブジェクト情報をインタ
ーネット発信部13に供給する。インターネット発信部
13は、URL付加部40から供給された符号化オブジ
ェクト情報を符号化オブジェクト情報に付加したURL
に基づいて、例えばTCP/IPフォーマットでネット
ワーク網5に配置されたサーバに送信する。
号化オブジェクト情報をネットワーク網5を利用して送
信する場合、URLをデータ放送多重部14に供給し、
符号化オブジェクト情報を放送網6を利用して送信する
場合、符号化オブジェクト情報のインデックス或いはア
ドレスをデータ放送多重部14に供給する。
供給された符号化オブジェクト情報及びURL・データ
アドレス付加部39から供給されたURL,インデック
ス或いはアドレス等をデータ放送用データに挿入してT
V送信部15に供給する。TV送信部15は、放送番組
コンテンツ入力部12から通常の放送番組用データが供
給されると共にデータ放送多重部14からデータ放送用
データが供給され、供給された放送番組用データ及びデ
ータ放送用データをTV放送波として放送網6に送信す
る。
11のオブジェクト情報生成処理について図2〜図5を
参照しつつ詳細に説明する。図3は、オブジェクト情報
生成処理の一例のフローチャートを示す。図4は、ポリ
ゴンに分割されたオブジェクトの一例について説明する
図を示す。図5は、空間位置情報とタグ情報との関係を
説明する一例の図を示す。
42を用いる場合、図・立体オブジェクト情報生成部1
1は図3のフローチャートに示す手順に従ってオブジェ
クト情報を生成する。図3中、ステップS1では、2・
3次元オブジェクト表面分割部31はオブジェクト42
の表面を適切な数のポリゴンに分割する。なお、オブジ
ェクト42の表面に記載された1〜38は、ポリゴンナ
ンバー(ポリゴンNO)を示している。ポリゴンナンバ
ーは、ポリゴン毎に付与される。
み、オブジェクト空間位置&パラメータ検出部32はス
テップS1で分割されたポリゴンの空間位置を例えばレ
ーザによる距離測定手段で検出する。検出されたポリゴ
ンの空間位置は図5の2・3次元オブジェクト空間位置
情報に示すように、(X,Y,Z)座標で表された空間
的な位置情報で記録される。また、ステップS2では、
ポリゴンの空間位置以外の物理情報も検出される。
み、オブジェクト空間位置&パラメータ検出部32は全
ポリゴンの物理情報を取得したか否かを判定する。全ポ
リゴンの物理情報を取得していないと判定すると(S3
においてNO)、ステップS2に進み、オブジェクト空
間位置&パラメータ検出部32は、まだ物理情報を取得
していないポリゴンの物理情報を検出する。
定すると(S3においてYES)、ステップS4に進
み、タグ情報付加位置指定部33はタグ情報を付加する
空間位置を指定する。例えばオブジェクト42の円又は
楕円で囲まれたA部43,B部44に夫々「水平尾
翼」,「胴体」というタグ情報を付加する場合、オブジ
ェクト42のA部43,B部44をレーザによる距離測
定手段でスキャンすることによりタグ情報の付加位置を
指定する。
み、タグ情報空間位置検出部34はステップS4で指定
されたタグ情報付加位置に含まれるポリゴンの空間位置
を検出する。そして、ステップS5に続いてステップS
6に進み、タグ情報入力部35はテキストタグ情報を入
力する。
まれたA部43,B部44に夫々「水平尾翼」,「胴
体」というタグ情報を付加する場合、A部43に含まれ
るポリゴンの空間位置を検出すると共に、「水平尾翼」
というテキストタグ情報を入力する。また、B部44に
含まれるポリゴンの空間位置を検出すると共に、「胴
体」というテキストタグ情報を入力する。
み、ステップS4で指定したタグ情報位置に対する全タ
グ情報の入力が終了したか否かを判定する。ステップS
4で指定したタグ情報位置に対する全タグ情報の入力が
終了していないと判定すると(S7においてNO)、ス
テップS5に進む。また、ステップS4で指定したタグ
情報位置に対する全タグ情報の入力が終了したと判定す
ると(S7においてYES)、ステップS8に進む。
力が終了,言い替えればタグ情報を付加したいと所望す
るタグ情報の位置指定が終了したか否かを判定する。全
タグ情報の位置指定が終了したと判定すると(S8にお
いてYES)、ステップS9に進む。また、全タグ情報
の位置指定が終了していないと判定すると(S8におい
てNO)、ステップS4に進む。
ト/タグ空間位置比較部36はステップS2で検出され
た各ポリゴンの空間位置と、ステップS5で検出された
各ポリゴンの空間位置とを比較する。ステップS9に続
いてステップS10に進み、2・3次元オブジェクト/
タグ空間位置比較部36は空間位置が等しいポリゴンを
検出すると(S10においてYES)、ステップS11
に進み、図5の2・3次元オブジェクト空間位置情報及
びタグ位置情報に示すように、ステップS2で検出され
たポリゴンにタグ情報を付加する。
(X,Y,Z)座標で表された空間的な位置情報,テキ
ストタグ情報を含むように構成される。なお、2・3次
元オブジェクト/タグ空間位置比較部36は空間位置が
等しいポリゴンを検出しないと(S10においてN
O)、ステップS9に進む。そして、ステップS11に
続いてステップS12に進み、オブジェクト情報生成部
37は、物理情報,タグ情報等からオブジェクト情報を
作成する。
テップS2で検出された各ポリゴンの空間位置と、ステ
ップS5で検出された各ポリゴンの空間位置とは測定誤
差などにより完全に一致しないことがあるので、適切な
誤差範囲を設定しておくことが望ましい。
を構成する受信部3の詳細について説明する。図6は、
本発明の受信部及び表示部の一実施例の構成図を示す。
図6の受信部3は、インターネット受信部16,TV受
信部17,データ放送受信部18,図・立体オブジェク
ト情報再生部19,ダウンロード制御部51,URL・
データアドレス抽出部52を含むように構成される。
9は、オブジェクト情報復号部53,触覚位置ポインタ
付加部54,オブジェクト触覚情報生成部55,画面呈
示出力制御部56,タグ情報抽出出力制御部57,触覚
呈示出力制御部58,触覚呈示位置検出部59を含む。
表示部4は、触覚・力覚呈示装置20,音声・点字出力
装置21,画面出力装置22,放送番組コンテンツ表示
部23,データ番組表示部60を含むように構成され
る。
網5を介して符号化オブジェクト情報を受信し、受信し
た符号化オブジェクト情報をダウンロード制御部51に
供給する。TV受信部17は、放送網6からTV放送波
を受信し、受信したTV放送波から放送番組用データ及
びデータ放送用データを検出する。TV受信部17は、
検出した放送番組用データを放送番組コンテンツ表示部
23に送信すると共に、データ放送用データをデータ放
送受信部18に供給する。
タ放送用データを受信し、データ番組表示部60及びU
RL・データアドレス抽出部52にデータ番組用データ
を供給する。URL・データアドレス抽出部52は、デ
ータ番組用データに挿入された符号化オブジェクト情報
のURL,インデックス或いはアドレス等を抽出し、抽
出したURLをダウンロード制御部51に供給する一
方、抽出したインデックス或いはアドレス等をデータ放
送受信部18に供給する。
タアドレス抽出部52から供給されたURLに基づい
て、例えばネットワーク網5に配置されたサーバから符
号化オブジェクト情報をダウンロードするようにインタ
ーネット受信部16を制御する。ダウンロード制御部5
1は、ダウンロードした符号化オブジェクト情報をオブ
ジェクト情報復号部53に供給する。
アドレス抽出部52から供給されたインデックス或いは
アドレス等に基づいて、データ放送用データに挿入した
符号化オブジェクト情報を抽出する。データ放送受信部
18は、抽出したオブジェクト情報をオブジェクト情報
復号部53に供給する。
ード制御部51又はデータ放送受信部18から供給され
るVRMLなどで符号化された符号化オブジェクト情報
を復号化し、復号化したオブジェクト情報に基づいてオ
ブジェクトの物理情報,タグ情報等を再生する。オブジ
ェクト情報復号部53は、再生した物理情報,タグ情報
をオブジェクト触覚情報生成部55,画面呈示出力制御
部56に供給する。
れた物理情報に応じて触覚情報を生成し、生成した触覚
情報を触覚呈示出力制御部58に供給する。触覚呈示出
力制御部58は、供給された触覚情報に応じて例えばP
HAMTOMのような触覚・力覚呈示装置20を駆動制
御する。触覚・力覚呈示装置20は、触覚呈示出力制御
部58の制御に応じてオブジェクトを触覚で呈示する。
指先等が触れている触察部分の位置情報を検出し、検出
した位置情報をオブジェクト触覚情報生成部55にフィ
ードバックする。オブジェクト触覚情報生成部55は、
触察部分の位置情報からその触察部分に対応する触覚情
報を生成し、生成した触覚情報を触覚呈示出力制御部5
8に供給する。
とにより、その触察部分の位置情報が触覚呈示位置検出
部59で検出され、検出された位置情報がオブジェクト
触覚情報生成部55にフィードバックされ、フィードバ
ックされた位置情報からその触察部分に対応する触覚情
報が順次生成される。
出力制御部58に供給し、触覚・力覚呈示装置20によ
る反力を制御することにより、あたかもオブジェクトが
存在するような感覚をユーザに与えることができ、ユー
ザに立体形状を認識させることができる。
は、触覚呈示位置検出部59から供給された位置情報と
タグ情報とをタグ情報抽出出力制御部57に供給する。
タグ情報抽出出力制御部57は供給された位置情報とタ
グ情報とを利用して触察部分のタグ情報を抽出し、抽出
したタグ情報に応じて音声・点字出力装置21を駆動制
御する。音声・点字出力装置21は、タグ情報抽出出力
制御部57の制御に応じて音声情報又は点字情報を出力
する。つまり、ユーザの手,指先等が触れている触察部
分の名称,特徴などを位置情報及びタグ情報から取得
し、音声又は点字でユーザに伝達することができる。
位置検出部59で検出された触察部分の位置をポインタ
として画面上に付加するための情報を作成し、その情報
を画面呈示出力制御部56に供給する。画面呈示出力制
御部56は、オブジェクト情報復号部53で再生したオ
ブジェクトと触覚位置ポインタ付加部54で付加したポ
インタとを画面出力装置22に呈示させる。
TV受信部17から送信される放送番組用データを受信
し、放送番組を表示する。データ番組表示部60は、デ
ータ放送受信部18から送信されるデータ番組用データ
を受信し、受信したデータ番組を表示する。画面出力装
置22は、画面呈示出力制御部56の制御に応じてオブ
ジェクト,ポインタを画面に呈示する。
立体のオブジェクトは、視覚に加えて仮想的に空間上に
触覚で検知できる物体として存在し、触れる位置により
部分の名称,特徴を音声,点字で伝達される。したがっ
て、ユーザは触覚で検知できる物体を触れつつ触れてい
る位置の名称,特徴を音声,点字で確認することがで
き、美術品などの立体形状を容易に理解できる。
の一例として触覚・力覚呈示装置20を利用したが、こ
れに限るものではなく、マイクロマシン又はその他の微
小アクチュエータ等で形成される触覚受容器であっても
よい。また、本実施例では、オブジェクト情報をネット
ワーク網5又は放送網6を利用して伝送する例について
記載しているが、伝送容量に応じてネットワーク網5及
び放送網6を併用する伝送,ネットワーク網又は放送網
6の何れか一方を利用する伝送などが可能である。
報送信装置は送信部2に相当し、多感覚情報受信装置は
受信部3に相当し、状態情報生成部は図・立体オブジェ
クト情報生成部11に相当し、制御部は図・立体オブジ
ェクト情報再生部19に相当する。
まれる対象物の状態情報を生成し、生成した状態情報を
画像情報とは別に受信側に送信することで、受信側で画
像に含まれる対象物の状態を視覚,聴覚,触覚等の多感
覚で呈示することができる。
た部分のうち所定範囲に含まれる1以上の部分にタグ情
報を付加することにより、部分毎に名称,特徴等の情報
を付加することができる。
画像情報とは別に受信し、受信した状態情報に基づいて
対象物の状態を抽出し、抽出した対象物の状態を状態呈
示装置に呈示させるように制御することで、画像に含ま
れる対象物の状態を多感覚でユーザに伝達することがで
きる。
とにより、ユーザは対象物の形状を触知することができ
る。さらに、ユーザが触れた位置に関する情報をタグ情
報呈示装置に音声又は点字等で呈示させることができ
る。
図である。
ートである。
いて説明する図である。
例の図である。
である。
Claims (5)
- 【請求項1】 画像に含まれる対象物の状態を多感覚で
ユーザに伝達する多感覚情報伝達システムに用いられる
多感覚情報送信装置であって、 前記画像に含まれる対象物の状態情報を生成する状態情
報生成部と、 前記生成した状態情報を送信する状態情報送信部とを備
える多感覚情報送信装置。 - 【請求項2】 前記状態情報生成部は、前記画像に含ま
れる対象物を所定単位の部分に分割する分割部と、 前記分割した部分の位置及び特徴を部分毎に検出し、前
記検出した部分毎の位置及び特徴に応じて前記状態情報
を生成する生成部と、 前記生成した状態情報にアドレス情報を付加する一方、
前記対象物を含む画像情報に前記アドレス情報を付加す
るアドレス情報付加部とを備える請求項1記載の多感覚
情報送信装置。 - 【請求項3】 前記状態情報生成部は、前記対象物の所
定範囲を指定する範囲指定部と、 前記分割した部分のうち前記指定された所定範囲に含ま
れる1以上の部分を検出する検出部と、 前記検出した1以上の部分にタグ情報を付加するタグ情
報付加部とを更に備える請求項2記載の多感覚情報送信
装置。 - 【請求項4】 画像に含まれる対象物の状態を多感覚で
ユーザに伝達する多感覚情報伝達システムに用いられる
多感覚情報受信装置であって、 前記画像に含まれる対象物の状態情報を受信する状態情
報受信部と、 前記受信した状態情報に基づいて前記対象物の状態を抽
出し、前記抽出した対象物の状態を状態呈示装置に呈示
させるように制御する制御部とを備える多感覚情報受信
装置。 - 【請求項5】 前記制御部は、前記受信した状態情報か
ら前記分割した部分毎の位置及び特徴を抽出する抽出部
と、 前記抽出した部分毎の位置及び特徴に基づいて前記触覚
呈示装置に前記対象物を触覚で呈示させる触覚呈示制御
部と、 前記触覚で呈示された対象物のうちユーザが触れた位置
を検出する位置検出部と、 前記検出されたユーザが触れた位置に付加されているタ
グ情報を抽出し、前記抽出したタグ情報に基づいて前記
ユーザが触れた位置に関する情報をタグ情報呈示装置に
呈示させるタグ情報呈示制御部とを備える請求項4記載
の多感覚情報受信装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000326099A JP4173951B2 (ja) | 2000-10-25 | 2000-10-25 | 多感覚情報送信装置及び多感覚情報受信装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000326099A JP4173951B2 (ja) | 2000-10-25 | 2000-10-25 | 多感覚情報送信装置及び多感覚情報受信装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002125999A true JP2002125999A (ja) | 2002-05-08 |
JP4173951B2 JP4173951B2 (ja) | 2008-10-29 |
Family
ID=18803350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000326099A Expired - Lifetime JP4173951B2 (ja) | 2000-10-25 | 2000-10-25 | 多感覚情報送信装置及び多感覚情報受信装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4173951B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009194597A (ja) * | 2008-02-14 | 2009-08-27 | Sony Corp | 送受信システム、送信装置、送信方法、受信装置、受信方法、提示装置、提示方法、プログラム、及び記録媒体 |
JP2010533902A (ja) * | 2007-06-27 | 2010-10-28 | カレン ノウルズ エンタープライゼズ ピーティーワイ リミテッド | 通信方法、システムおよび製品 |
US11964200B2 (en) | 2015-07-13 | 2024-04-23 | Interdigital Ce Patent Holdings, Sas | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (HapSpace) |
-
2000
- 2000-10-25 JP JP2000326099A patent/JP4173951B2/ja not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010533902A (ja) * | 2007-06-27 | 2010-10-28 | カレン ノウルズ エンタープライゼズ ピーティーワイ リミテッド | 通信方法、システムおよび製品 |
JP2009194597A (ja) * | 2008-02-14 | 2009-08-27 | Sony Corp | 送受信システム、送信装置、送信方法、受信装置、受信方法、提示装置、提示方法、プログラム、及び記録媒体 |
US11964200B2 (en) | 2015-07-13 | 2024-04-23 | Interdigital Ce Patent Holdings, Sas | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (HapSpace) |
Also Published As
Publication number | Publication date |
---|---|
JP4173951B2 (ja) | 2008-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8294557B1 (en) | Synchronous interpersonal haptic communication system | |
EP1742489B1 (en) | Image display device and graphic processor for stereoscopic display of 3D graphic objects | |
EP3548958A1 (en) | Systems, methods, and media for displaying interactive augmented reality presentations | |
EP3118723A1 (en) | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace) | |
US12020667B2 (en) | Systems, methods, and media for displaying interactive augmented reality presentations | |
WO2006121957A2 (en) | Three dimensional horizontal perspective workstation | |
JPH09171569A (ja) | 商品シュミレータシステム及び装置 | |
US20190333496A1 (en) | Spatialized verbalization of visual scenes | |
Pun et al. | Image and video processing for visually handicapped people | |
US7271815B2 (en) | System, method and program to generate a blinking image | |
Jacobson et al. | Multi-modal virtual reality for presenting geographic information | |
CN108269460B (zh) | 一种电子屏幕的阅读方法、系统及终端设备 | |
WO2008038866A1 (en) | Apparatus for providing sensing information | |
CN101006492A (zh) | 水平透视显示 | |
JP4173951B2 (ja) | 多感覚情報送信装置及び多感覚情報受信装置 | |
KR101980297B1 (ko) | 3차원 vr 영상 처리 장치, 방법 및 프로그램 | |
CN110691010A (zh) | 跨平台跨终端vr/ar产品信息展示系统 | |
JP2001167180A (ja) | 電子広告方法及び電子広告システム | |
US11106357B1 (en) | Low latency tactile telepresence | |
Roth et al. | AB–Web: Active audio browser for visually impaired and blind users | |
KR102388773B1 (ko) | 3차원 모델링 서비스 제공 방법 및 이를 위한 장치 | |
KR20090085326A (ko) | 가상 현실 시스템의 음향 처리 장치 및 방법 | |
KR20210067166A (ko) | 가상콘텐츠 체험 시스템 및 그 제어방법 | |
Alcañiz et al. | Technological background of VR | |
KR101731476B1 (ko) | 가상 인체를 통한 촉각 상호작용 방법과 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080325 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080722 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4173951 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130822 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140822 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |