JP4675811B2 - 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム - Google Patents
位置検出装置、自律移動装置、位置検出方法および位置検出プログラム Download PDFInfo
- Publication number
- JP4675811B2 JP4675811B2 JP2006091993A JP2006091993A JP4675811B2 JP 4675811 B2 JP4675811 B2 JP 4675811B2 JP 2006091993 A JP2006091993 A JP 2006091993A JP 2006091993 A JP2006091993 A JP 2006091993A JP 4675811 B2 JP4675811 B2 JP 4675811B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- sound source
- information
- source object
- localization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 757
- 230000000007 visual effect Effects 0.000 claims abstract description 300
- 238000012545 processing Methods 0.000 claims description 417
- 238000000034 method Methods 0.000 claims description 336
- 230000004807 localization Effects 0.000 claims description 267
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 claims 8
- 230000001276 controlling effect Effects 0.000 claims 5
- 230000002596 correlated effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 115
- 239000011800 void material Substances 0.000 description 42
- 241000009328 Perro Species 0.000 description 25
- 238000010586 diagram Methods 0.000 description 18
- 239000000284 extract Substances 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009408 flooring Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
- Measurement Of Optical Distance (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Description
図1は、実施の形態1にかかるロボット装置の構成を示すブロック図である。本実施の形態にかかるロボット装置100は、図1に示すように、画像入力部112と、音声入力部113と、近接センシング部118と、視覚特徴検出定位部114と、聴覚特徴検出定位部115と、音源物体検出部116と、音源情報学習部117と、位置関係制御部119と、駆動部121と、記憶部111とを主に備えている。
実施の形態1にかかるロボット装置100では、音源物体のみによって、画像処理手順211による音源物体の検出と音声処理手順221による音源物体の検出の調整および組み合わせて、音源物体の検出を行っていた。
ロボット装置900の記憶部911には該ロボット装置900の稼動する環境の地図情報1030が記憶されているものとする。地図情報1030上の格子状に切られた各エリアにはそれぞれ固有のエリア番号(通し番号)が与えられている。また、地図情報1030上には図10に示すxy直交座標系が定義されている。このとき、各エリアの情報を記憶する形式は下記エリア情報構造体AREA_INFOで定義される。AREA_INFOのx0、y0、x1、y1は各エリアが覆う矩形の図10における左下端点の座標(x0,y0)と右上端点の座標(x1,y1)を記憶するメンバーである。このとき、図中の各座標軸の向きから左ほど下ほど座標値が小さく、x0<x1、y0<y1である。
int x0; // 矩形の左下端点のx座標値
int y0; // 矩形の左下端点のy座標値
int x1; // 矩形の右上端点のx座標値
int y1; // 矩形の右上端点のy座標値
] AREA_INFO; // エリア情報構造体の定義
int n1; // エリア数
AREA_INFO Area [n1]; // エリア情報
] MAP_INFO; // 地図情報構造体の定義
MAP_INFO MapInfo; // 地図情報1030(MAP_INFOのインスタンス)
MapInfo. Area [j]. y0;
MapInfo. Area [j]. x1;
MapInfo. Area [j]. y1;
適用画像処理情報203は下記適用画像処理情報構造体IP_INFOのn0(音源物体数)要素の1次元配列IpInfo [n0]として生成される。ここで、n0は本装置が対象とする音源物体の数であり、k番目の音源物体に関する適用画像処理情報203はIpInfo [k]に記憶される。なお、IpInfo [n0]は後述する音源情報構造体OBJ_INFOのメンバーである。
int n2; // 画像処理手順の数
void* pImageProcessing [n2]; // 画像処理関数のエントリーアドレス(211と215)
float Priority [n2][n1]; // 適用優先度
PROB_INFO ProbInfo [n2][n1]; // 成功確率情報
float MaxProbability [n1]; // 視覚的成功確率
] IP_INFO; // 適用画像処理情報構造体の定義
IP_INFO IpInfo [n0]; // 適用画像処理情報(IP_INFOのインスタンス)
void IpFaceDetector(); // 画像から顔領域を検出する関数
void IpColorDetector(); // 画像を同色領域に分割する関数
void IpTextureDetector(); // 画像を同テクスチャ領域に分割する関数
void IpDepthDetector(); // 画像を同距離領域に分割する関数
void IpFaceTrainer(k); // k番目の音源物体の顔を学習する関数
void IpColorTrainer (k); // k番目の音源物体の色を学習する関数
void IpTextureTrainer (k); // k番目の音源物体のテクスチャを学習する関数
void IpFaceIdentifier(k); // 顔領域から人物識別を行う関数
void IpColorIdentifier(k); // 色領域から物体識別を行う関数
void IpTextureIdentifier(k); // テクスチャ領域から物体識別を行う関数
適用音声処理情報204は下記適用音声処理情報構造体SP_INFOのn0(音源物体数)要素の1次元配列SpInfo [n0]として生成される。ここで、n0は本装置が対象とする音源物体の数であり、k番目の音源物体に関する適用音声処理情報204はSpInfo [k]に記憶される。なお、SpInfo [n0]は後述する音源情報構造体OBJ_INFOのメンバーである。
int n3; // 音声処理手順の数
void* pSoundProcessing [n3]; // 音声処理関数のエントリーアドレス(221と225)
float Priority [n3][n1]; // 適用優先度(222)
PROB_INFO ProbInfo [n3][n1]; // 成功確率情報(223を含む)
float MaxProbability [n1]; // 聴覚的成功確率(224)
] SP_INFO; // 適用音声処理情報構造体の定義
SP_INFO SpInfo [n0]; // 適用音声処理情報204(SP_INFOのインスタンス)
void SpVoiceDetector(); // 音声から声を検出する関数
void SpSoundDetector(); // 音声から物音を検出する関数
void SpSoundLocalizer(); // 音声からその音源方向を計算する関数
void SpSoundSeparator(); // 所定方向の音声を分離抽出する関数
void SpSpeechRecognizer(); // 声からその発話内容を認識する関数
void SpVoiceTrainer(k); // k番目の音源物体の声を学習する関数
void SpSoundTrainer(flg); // flgで指定される物音を学習する関数
void SpVoiceIdentifier(k); // k番目の音源物体の声を識別する関数
void SpSoundIdentifier(flg); // flgで指定される物音を識別する関数
上記IP_INFOとSP_INFOの適用優先度Priorityは2次元配列になっている。配列の1次元目はそれぞれ画像処理手順と音声処理手順の番号、2次元目は地図情報上のエリア番号に対応している。すなわち、Priority [i][j]はpImageProcessing [i]もしくはpSoundProcessing [i]で参照される関数を実行する際のエリアjに対する適用優先度を表している。
上記IP_INFOとSP_INFOの成功確率情報ProbInfoは成功確率情報構造体PROB_INFOの2次元配列になっている。配列の1次元目[n2]と[n3]はそれぞれ画像処理手順と音声処理手順の番号、2次元目[n1]は地図情報上のエリア番号に対応している。すなわち、ProbInfo [i][j]はi番目の画像処理手順pImageProcessing [i]もしくはi番目の音声処理手順pSoundProcessing [i]で参照される関数を実行した場合のエリアjに対する検出成功率(成功確率)を表している。なお、成功確率情報構造体PROB_INFOは次の形式で定義される。
float TrialTime; // 試行期間長
float SuccessTime; // 成功期間長
float Probability; // 成功確率(213または223)
] PROB_INFO; // 成功確率情報構造体の定義
k番目の音源物体のエリアjに対する視覚的成功確率はIpInfo [k]. MaxProbability [j]に記述され、k番目の音源物体のエリアjに対する聴覚的成功確率はSpInfo [k]. MaxProbability [j]に記述される。そして、それぞれは次式で求められる。式中の演算子MAXはそれぞれ画像処理手順と音声処理手順の番号iを様々に変えたときのカッコ内の最大値を示す。
SpInfo [k]. MaxProbability [j] = MAX (SpInfo [k]. ProbInfo [i][j]. Probability );
適用検出戦略情報205は下記適用検出戦略情報構造体ST_INFOのn0(音源物体数)要素の1次元配列StInfo [n0]として生成される。ここで、n0は本装置が対象とする音源物体の数であり、k番目の音源物体に関する適用検出戦略情報205はStInfo [k]に記憶される。なお、StInfo [n0]は後述する音源情報構造体OBJ_INFOのメンバーである。
float PriorityA [n1]; // 検出戦略Aの適用優先度
float PriorityB [n1]; // 検出戦略Bの適用優先度
float PriorityC [n1]; // 検出戦略Cの適用優先度
] ST_INFO; // 適用検出戦略情報構造体の定義
ST_INFO StInfo [n0]; // 適用検出戦略情報205(ST_INFOのインスタンス)
各検出戦略A〜Cに対する適用優先度はそれぞれn1(エリア数)要素の1次元配列になっており、k番目の音源物体のエリアjに対する適用優先度はそれぞれ次の場所に記憶される。
StInfo[k]. PriorityB [j];
StInfo[k]. PriorityC [j];
int n0; // 登録されている音源物体数
int k; // 種別コード情報202
IP_INFO IpInfo [n0]; // 適用画像処理情報203(IP_INFOのインスタンス)
SP_INFO SpInfo [n0]; // 適用音声処理情報204(SP_INFOのインスタンス)
ST_INFO StInfo [n0]; // 適用検出戦略情報205(ST_INFOのインスタンス)
] OBJ_INFO; // 適用検出戦略情報構造体の定義
OBJ_INFO ObjInfo; // 音源情報201(OBJ_INFOのインスタンス)
上述した例は、実施の形態2にかかるロボット装置900の例であるが、実施の形態1にかかるロボット装置100では、上記エリア番号jに対応した配列[n1]の存在しない形態で各値が用意されている。すなわち、適用画像処理情報構造体IP_INFO、適用音声処理情報構造体SP_INFO、適用検出戦略情報構造体ST_INFOの定義が下記のようになる。
int n2; // 画像処理手順の数
void* pImageProcessing [n2]; // 画像処理関数のエントリーアドレス(211と215)
float Priority [n2]; // 適用優先度(212)
PROB_INFO ProbInfo [n2]; // 成功確率情報(213を含む)
float MaxProbability; // 視覚的成功確率(214)
] IP_INFO; // 適用画像処理情報構造体の定義
int n3; // 音声処理手順の数
void* pSoundProcessing [n3]; // 音声処理関数のエントリーアドレス(221と225)
float Priority [n3]; // 適用優先度(222)
PROB_INFO ProbInfo [n3]; // 成功確率情報(223を含む)
float MaxProbability; // 聴覚的成功確率(224)
] SP_INFO; // 適用音声処理情報構造体の定義
float PriorityA; // 検出戦略Aの適用優先度
float PriorityB; // 検出戦略Bの適用優先度
float PriorityC; // 検出戦略Cの適用優先度
] ST_INFO; // 適用検出戦略情報構造体の定義
ロボット装置900が1度も稼動されたことのない初期状態では、全ての音源物体(k=1〜n0)の全ての処理手順(i=1〜n2またはi=1〜n3)の全てのエリア(j=1〜n1)に対する、適用画像処理情報203の成功確率1013、適用音声処理情報204の成功確率1023、及び関連する試行期間長と成功期間長は0に設定されている。また、上記成功確率のエリア毎の最大値として決定される視覚的成功確率1014と聴覚的成功確率1024も全て0である。具体的には下記数値が全て0になっている。
ObjInfo. IpInfo[k]. ProbInfo [i][j]. probability = 0; // 成功確率(213)
ObjInfo. IpInfo[k]. ProbInfo [i][j]. TrialTime = 0; // 試行期間長
ObjInfo. IpInfo[k]. ProbInfo [i][j]. SuccessTime = 0; // 成功期間長
ObjInfo. IpInfo[k]. MaxProbability [j] = 0; // 視覚的成功確率(214)
ObjInfo. SpInfo[k]. ProbInfo [i][j]. probability = 0; // 成功確率(223)
ObjInfo. SpInfo[k]. ProbInfo [i][j]. TrialTime = 0; // 試行期間長
ObjInfo. SpInfo[k]. ProbInfo [i][j]. SuccessTime = 0; // 成功期間長
ObjInfo. SpInfo[k]. MaxProbability [j] = 0; // 聴覚的成功確率(224)
n2=3とした場合の例:
ObjInfo. IpInfo[k]. Priority [1][j] = 1; // 画像処理手順1の適用優先度(212)
ObjInfo. IpInfo[k]. Priority [2][j] = 2; // 画像処理手順2の適用優先度(212)
ObjInfo. IpInfo[k]. Priority [3][j] = 3; // 画像処理手順3の適用優先度(212)
なお、この例では「画像処理手順1→2→3」の順に設定されている。
n3=3とした場合の例:
ObjInfo. SpInfo[k]. Priority [1][j] = 2; // 音声処理手順1の適用優先度(222)
ObjInfo. SpInfo[k]. Priority [2][j] = 3; // 音声処理手順2の適用優先度(222)
ObjInfo. SpInfo[k]. Priority [3][j] = 1; // 音声処理手順3の適用優先度(222)
なお、この例では「音声処理手順3→1→2」の順に設定されている。
適用優先度は順位を表す。
ObjInfo. StInfo[k]. PriorityB = 3; // 検出戦略Bの適用優先度
ObjInfo. StInfo[k]. PriorityC = 2; // 検出戦略Cの適用優先度
なお、この例では「検出戦略A→C→B」の順に設定されている。
検出対象の音源物体が人物である場合の図12のステップS1201の例を示す。なお、実施の形態1の場合におけるステップS701の処理も同様である。
例えば、ある人物A(命令者)がロボット装置900の右斜め後方から「ついておいで」と声を掛けたとする。ロボット装置900の音声入力部113によりこの音声は捉えられ、聴覚特徴検出定位部115内で呼ばれるライブラリ関数によって、声の方向と距離、それが人の声であること、登録されている誰の声であるか、その発話内容が「ついておいで」であることが認識され、ロボット装置900が振り返る。具体的には次の手順で処理が行われる。
(2) SpSoundSeparator ()によってその方向の音声(人物Aの声)が周囲の雑音から分離抽出される。
(3) SpVoiceDetector ()によって分離抽出された音声がその調波構造の有無によって人の声であることが判断される。
(4) WildCardCode を引数に与えられたSpVoiceIdentifier (WildCardCode)によってその声が誰の声であるかが判断される。
(5) SpSpeechRecognizer ()によってその発話内容「ついておいで」が認識される。
(6) 上記(1)によって声の方向が判明すると、ロボット装置900は声のした方向(右斜め後方)に向きを変え、画像入力部112の備えるカメラの視野に人物Aを捉える。
もし、人物Aが既にk番目の音源物体として登録されている場合、上記(4)において、この声がk番目の音源物体のものであると特定できる。このように、人物Aが既に登録されているk番目の音源物体であることが判明した場合は、その番号kが種別コード1002に設定される。なお、ここで人物Aの声を特定できるためには、人物Aの声を識別するための辞書情報を聴覚特徴情報225内に持っていることになるが、さらにこのときSpVoiceTrainer (k)を呼ぶことで、この辞書情報に今聞こえた人物Aの「ついておいで」という声を追加で学習し(この操作を既存辞書の更新と言う)、今後人物Aの声をより正確に識別できるように適応する。
また、もし、人物Aが音源物体としてまだ登録されていない場合は、上記(4)において、この声がどの音源物体のものであるかを特定できないことになる。このときは、人物Aは新しい音源物体であるとして、登録手続きが行われる。具体的には、新しい種別コードk=n0+1が発行され、SpVoiceTrainer (k)が呼ばれて、人物Aの声を識別するための辞書情報が新規に生成される(この操作を新規辞書の生成と言う)。同時にk番目の音源情報が適当な初期値で生成され、音源物体数n0はn0+1に更新される。
(2) IpFaceIdentifier (k)によってそれが人物Aの顔であるか否かが検証される。もし検証できなければ、現状で人物Aの顔が識別できない(辞書情報が無いもしくは辞書情報が古い)ことになるのでIpFaceTrainer (k)によって人物Aの顔が学習(新規辞書の生成もしくは既存辞書の更新)される。
(3) また、同時に顔領域近傍(衣服や頭部)の色とテクスチャもIpColorTrainer (k)とIpTextureTrainer(k)によって学習(新規辞書の生成もしくは既存辞書の更新)される。
このとき、このk番目の音源物体が人物であることから、顔の他に衣服の色やテクスチャによって識別できることがわかっている。よって、この音源物体(人物A)を視覚的に検出するための関数(画像処理手順)とその適用優先度が次のように登録される。
ObjInfo. IpInfo[k]. pImageProcessing [1] = & IpFaceIdentifier(k); // 顔
ObjInfo. IpInfo[k]. pImageProcessing [2] = & IpColorIdentifier(k); // 色
ObjInfo. IpInfo[k]. pImageProcessing [3] = & IpTextureIdentifier(k); // テクスチャ
ObjInfo. IpInfo[k]. Priority [1][j] = 1; // IpFaceIdentifier()の適用優先度
ObjInfo. IpInfo[k]. Priority [2][j] = 2; // IpColorIdentifier()の適用優先度
ObjInfo. IpInfo[k]. Priority [3][j] = 3; // IpTextureIdentifier()の適用優先度
ObjInfo. SpInfo[k]. pSoundProcessing [1] = & SpVoiceIdentifier(k); // 声
ObjInfo. SpInfo[k]. pSoundProcessing [2] = & SpSoundIdentifier(HumanWalk); // 物音(足音)
ObjInfo. SpInfo[k]. Priority [1][j] = 1; // SpVoiceIdentifier()の適用優先度
ObjInfo. SpInfo[k]. Priority [2][j] = 2; // SpSoundIdentifier()の適用優先度
ObjInfo. StInfo[k]. PriorityB = 3; // 検出戦略Bの適用優先度
ObjInfo. StInfo[k]. PriorityC = 2; // 検出戦略Cの適用優先度
また、例えば、ある人物A(命令者)がロボット装置900の右斜め後方から「この人について行って」と声を掛けたとする。ロボット装置900の音声入力部113によりこの音声は捉えられ、聴覚特徴検出定位部115内で呼ばれるライブラリ関数によって、声の方向と距離、それが人の声であること、登録されている誰の声であるか、その発話内容が「この人について行って」であることが認識され、ロボット装置900が振り返る。具体的には次の手順で処理が行われる。
(2) SpSoundSeparator ()によってその方向の音声(人物Aの音声)が周囲の雑音から分離抽出される。
(3) SpVoiceDetector ()によって分離抽出された音声がその調波構造の有無によって人の声であることが判断される。
(4) WildCardCode を引数に与えられたSpVoiceIdentifier (WildCardCode)によってその声が誰の声であるかが判断される。
(5) SpSpeechRecognizer ()によってその発話内容「この人について行って」が認識される。
(6) 上記(1)によって声の方向が判明すると、ロボット装置900は声のした方向(右斜め後方)に向きを変え、画像入力部112の備えるカメラの視野に人物Aを捉える。
ロボット装置900は人物Bの声をまだ確認していないので、音声出力によって挨拶を交わすなどして人物Bの発話を促す。そして、人物Bからの声を得ると、この声が誰の声であるかを識別しようとする。具体的には次の手順で処理が行われる。
(2) SpSoundSeparator ()によってその方向の音声(人物Bの声)が周囲の雑音から分離抽出される。
(3) SpVoiceDetector ()によって分離抽出された音声がその調波構造の有無によって人の声であることが判断される。
(4) WildCardCode を引数に与えられたSpVoiceIdentifier (WildCardCode)によってその声が誰の声であるかが判断される。
もし、人物Bが既にk番目の音源物体として登録されている場合は、上記(4)において、この声がk番目の音源物体のものであると特定できる。このように、人物Bが既に登録されているk番目の音源物体であることが判明した場合は、その番号kが種別コード1002に設定される。なお、ここで人物Bの声を特定できるためには、人物Bの声を識別するための辞書情報を聴覚特徴情報225内に持っていることになるが、さらにこのときSpVoiceTrainer (k)を呼ぶことで、この辞書情報に今聞こえた人物Bの声を追加で学習し(この操作を既存辞書の更新と言う)、今後人物Bの声をより正確に識別できるように適応する。
また、もし、人物Bが音源物体としてまだ登録されていない場合は、上記(4)において、この声がどの音源物体のものであるかを特定できないことになる。このときは、人物Bが新しい音源物体であるとして登録手続きが行われる。具体的には、新しい種別コードk=n0+1が発行され、SpVoiceTrainer (k)が呼ばれて、人物Bの声を識別するための辞書情報が新規に生成される(この操作を新規辞書の生成と言う)。同時にk番目の音源情報が適当な初期値で生成され、音源物体数n0はn0+1に更新される。
(2) IpFaceIdentifier (k)によってそれが人物Bの顔であるか否かが検証される。もし検証できなければ、現状で人物Bの顔が検出識別できないことになるのでIpFaceTrainer (k)によって顔の学習(新規辞書の生成もしくは既存辞書の更新)が行われる。
(3) また、同時に顔領域近傍(衣服や頭部)の色とテクスチャもIpColorTrainer (k)とIpTextureTrainer(k)によって学習(新規辞書の生成もしくは既存辞書の更新)される。
ObjInfo. IpInfo[k]. pImageProcessing [1] = & IpFaceIdentifier(k); // 顔
ObjInfo. IpInfo[k]. pImageProcessing [2] = & IpColorIdentifier(k); // 色
ObjInfo. IpInfo[k]. pImageProcessing [3] = & IpTextureIdentifier(k); // テクスチャ
ObjInfo. IpInfo[k]. Priority [1][j] = 1; // IpFaceIdentifier()の適用優先度
ObjInfo. IpInfo[k]. Priority [2][j] = 2; // IpColorIdentifier()の適用優先度
ObjInfo. IpInfo[k]. Priority [3][j] = 3; // IpTextureIdentifier()の適用優先度
ObjInfo. SpInfo[k]. pSoundProcessing [1] = & SpVoiceIdentifier(k); // 声
ObjInfo. SpInfo[k]. pSoundProcessing [2] = & SpSoundIdentifier(HumanWalk); // 物音(足音)
ObjInfo. SpInfo[k]. Priority [1][j] = 1; // SpVoiceIdentifier()の適用優先度
ObjInfo. SpInfo[k]. Priority [2][j] = 2; // SpSoundIdentifier()の適用優先度
ObjInfo. StInfo[k]. PriorityB = 3; // 検出戦略Bの適用優先度
ObjInfo. StInfo[k]. PriorityC = 2; // 検出戦略Cの適用優先度
検出対象の音源物体が非人物である場合の図12のステップS1201の例を示す。
また、例えば、ある人物A(命令者)がロボット装置900の右斜め後方から「この子について行って」と声を掛けたとする。ロボット装置900の音声入力部113によりこの音声は捉えられ、聴覚特徴検出定位部115内で呼ばれるライブラリ関数によって、声の方向と距離、それが人の声であること、登録されている誰の声であるか、その発話内容が「この子について行って」であることが認識され、ロボット装置900が振り返る。具体的には次の手順で処理が行われる。
(2) SpSoundSeparator ()によってその方向の音声(人物Aの音声)が周囲の雑音から分離抽出される。
(3) SpVoiceDetector ()によって分離抽出された音声がその調波構造の有無によって人の声であることが判断される。
(4) WildCardCode を引数に与えられたSpVoiceIdentifier (WildCardCode)によってその声が誰の声であるかが判断される。
(5) SpSpeechRecognizer ()によってその発話内容「この人について行って」が認識される。
(6) 上記(1)によって声の方向が判明すると、ロボット装置900は声のした方向(右斜め後方)に向きを変え、画像入力部112の備えるカメラの視野に人物Aを捉える。
(2) 人物Aと同距離にある人物A近傍の領域が犬Cの姿を写した画像領域として抽出される。
(3) IpColorIdentifier (WildCardCode)、IpTextureIdentifier (WildCardCode)によってその領域がどの物体であるかが判断される。
もし、犬Cが既にk番目の音源物体として登録されている場合は、上記(3)において、この画像領域がk番目の音源物体のものであると特定できる。このように、犬Cが既に登録されているk番目の音源物体であることが判明した場合は、その番号kが種別コード1002に設定される。なお、ここで犬Cの姿を特定できるためには、犬Cの姿(色やテクスチャ)を識別するための辞書情報を聴覚特徴情報225内に持っていることになるが、さらにこのときIpColorTrainer (k)やIpTextureTrainer (k)を呼ぶことで、この辞書情報に今見えている犬Cの色やテクスチャを追加で学習し(この操作を既存辞書の更新と言う)、今後犬Cの姿をより正確に識別できるように適応する。
また、もし、犬Cが音源物体としてまだ登録されていない場合は、上記(4)において、この画像領域がどの音源物体のものであるかを特定できないことになる。このときは、犬Cが新しい音源物体であるとして登録手続きが行われる。具体的には、新しい種別コードk=n0+1が発行され、IpColorTrainer (k)やIpTextureTrainer (k)が呼ばれて、犬Cの姿(色やテクスチャ)を識別するための辞書情報が新規に生成される(この操作を新規辞書の生成と言う)。同時にk番目の音源情報が適当な初期値で生成され、音源物体数n0はn0+1に更新される。
ObjInfo. IpInfo[k]. pImageProcessing [1] = & IpColorIdentifier(k); // 色
ObjInfo. IpInfo[k]. pImageProcessing [2] = & IpTextureIdentifier(k); // テクスチャ
ObjInfo. IpInfo[k]. Priority [2][j] = 1; // IpColorIdentifier()の適用優先度
ObjInfo. IpInfo[k]. Priority [3][j] = 2; // IpTextureIdentifier()の適用優先度
ObjInfo. SpInfo[k]. pSoundProcessing [1] = & SpSoundIdentifier(DogWalk | Bowwow);
// 物音(足音と吼え声)
ObjInfo. SpInfo[k]. Priority [1][j] = 1; // SpSoundIdentifier()の適用優先度
ObjInfo. StInfo[k]. PriorityB = 3; // 検出戦略Bの適用優先度
ObjInfo. StInfo[k]. PriorityC = 2; // 検出戦略Cの適用優先度
なお、上述した関数(画像処理手順と聴覚処理手順)と各種適用優先度の設定における人物か否かによる場合分けは、検出対象が人物ならこのように、非人物ならこのようにというように予め先験知識として装置に組み込まれている。また、その別は設定手順に際して入力される音声命令や、その他ここで例示しなかった操作入力によって装置が判別できるものとする。
また、上記設定時に検出対象(人物A、人物B、犬Cなど)が音源情報に登録されていない新規の音源物体である場合は、上述した設定内容と同じ設定を地図情報1030上の全てのエリアに対して施すことで、未設定のエリアを作らないようにする。
以上の説明に登場した各画像処理関数と各音声処理関数は、下記文献に記載される内容と当該分野の専門知識を組み合わせることで実現される。
void IpFaceDetector(); // 文献1
void IpColorDetector(); // 文献2,8
void IpTextureDetector(); // 文献8
void IpDepthDetector(); // 文献7
void IpFaceTrainer(k); // 文献1
void IpColorTrainer (k); // 文献2,8
void IpTextureTrainer (k); // 文献8
void IpFaceIdentifier(k); // 文献1
void IpColorIdentifier(k); // 文献2,8
void IpTextureIdentifier(k); // 文献8
void SpVoiceDetector(); // 文献6
void SpSoundDetector(); // 文献6
void SpSoundLocalizer(); // 文献5
void SpSoundSeparator(); // 文献5
void SpSpeechRecognizer(); // 文献5
void SpVoiceTrainer(k); // 文献3
void SpSoundTrainer(flg); // 文献4
void SpVoiceIdentifier(k); // 文献3
void SpSoundIdentifier(flg); // 文献4
文献2 学術文献「移動カメラによる人物識別のための色パターンの獲得」、ロボメカ2005、1P2−N−046、Jun.2005
文献3 特開平10−97274号公報
文献4 特開2000−268265号公報
文献5 学術文献「ハフ変換を用いた音源音のクラスタリングとロボット用聴覚への応用」、人工知能学会第22回AIチャレンジ研究会、pp.53−58、Oct.2005
文献6 学術文献「占有度を用いた耐雑音性の高い基本周波数推定法」、信学技報SP2001−138、pp.21−28、Mar.2002
文献7 書籍「3次元ビジョン」、共立出版、Apr.1998
文献8学術文献「対人追従ロボットのための後背面の視覚追跡」、ロボメカ2004、2P1−H−37、Jun.2004
検出対象設定処理(S1201)で音源物体kの顔や姿が見えているので、次にステップS1202において、音源物体検出部116は、音源物体kの顔や姿の見えている方向と距離(ロボット装置900に対する相対値である)とロボット装置900の地図情報1030上の位置と向きとから音源物体kの地図情報1030上の絶対位置(x, y)を算出する。そしてこの(x, y)を矩形内に含むエリアがMapInfo内で検索されて存在エリア番号jが判明する。なお、音源物体kの位置(x, y)と存在エリア番号jは記憶部911に記憶保持されるものとする。また、この時点ではロボット装置900の地図情報1030上の位置と向きは予め分かっているものとする。
次に、音源物体検出部116は、音源物体kの存在エリアjに応じた最も適用優先順位の高い検出戦略を選択する。上記の設定例によれば戦略Aが選択される。
次に、音源物体検出部116は、選択された検出戦略、画像処理手順、音声処理手順に従って視覚特徴検出定位部114と聴覚特徴検出定位部115を稼動させて音源物体kを検出しつつ、視覚特徴検出定位部114と聴覚特徴検出定位部115の出力する視覚定位情報と聴覚定位情報を参照しながら、音源物体kの距離と方向を記した音源物体検出情報を生成出力する。そして、この音源物体検出情報を受けて、位置関係制御部119がロボット装置900と音源物体kとの位置関係を制御する。
次に、自己位置同定部920によってロボット装置900の地図情報1030上の現在の位置と向きが同定され、音源物体検出部116によって、上述した通り、音源物体kの現在の地図情報1030上の座標値が算出され、その存在エリアjが更新される。
次に、音源物体検出部116は、音源物体kについて、視覚定位情報の検出成績から現在使用している画像処理手順の地図情報1030上の存在エリアjに対応付けられている成功確率情報(試行期間長、成功期間長、成功確率)と適用優先度を更新し、聴覚定位情報の検出成績から現在使用している音声処理手順の地図情報1030上の存在エリアjに対応付けられている成功確率情報(試行期間長、成功期間長、成功確率)と適用優先度を更新する。また、更新された成功確率に基づいて地図情報1030上の存在エリアjに対応付けられている視覚的成功確率と聴覚的成功確率を更新する。また、更新された視覚的成功確率と聴覚的成功確率に基づいて各検出戦略の地図情報1030上の存在エリアjに対応付けられている適用優先度を更新する。
次に、音源物体検出部116は、このとき音源物体kの検出が成功していれば、タイムアップカウンターをゼロに初期化した後、処理を左分岐させてステップS1205〜S1211を繰り返す。また、音源物体kの検出が失敗していれば、次のステップS1213の処理に移行する。
次に、音源物体検出部116は、音源物体kの地図情報1030上の位置が前回と異なるエリア内に移動したか否かを判断する。音源物体kがエリアを移動した場合には、ステップS1214の処理に移行し、エリアを移動していない場合にはステップS1216の処理に移行する。
ステップS1213においてエリアを移動していると判断された場合には、音源物体検出部116は、移動先のエリアに対応付けられている適用優先度に従って最も適用優先度の高い検出戦略と、適用優先度の高い順に例えば最大2つまでの画像処理手順と音声処理手順をそれぞれ選択し直す。
ステップS1213においてエリアを移動していないと判断された場合には、音源物体検出部116は、タイムアウトカウンタを1だけ増加させる。この結果、タイムアウトカウンタは検出失敗の連続回数をカウントすることになる。音源物体検出部116は、このカウンター値が所定値に至るまではステップS1205からS1213までの処理を繰り返す。また、所定値に至った場合には、ステップS1217に移行する。
次に、タイムアウトカウンタ値が所定値に至った場合には、音源物体検出部116は、失敗が連続し過ぎたとして、これまでの検出戦略、画像処理手順、音声処理手順の見直しを行う。具体的には、上記ステップS1209からS1211までの処理で各種確率と各種優先度が更新されているので、原則的には、ステップS1203、1204と同様の処理によって改めて音源物体kの地図情報1030上の存在エリアjに対応付けられている各戦略の適用優先度を比較して、この適用優先度の最も高い検出戦略と、音源物体kの地図情報1030上の存在エリアjに対応付けられている画像処理手順の適用優先度を比較して、この適用優先度の高い順に例えば最大2つの画像処理手順と、音源物体kの地図情報1030上の存在エリアjに対応付けられている音声処理手順の適用優先度を比較して、この適用優先度の高い順に例えば最大2つの音声処理手順を選択し直すことを行う。
3 視覚的検出可能圏
4 視界
5 視覚的障害物
6 ドア
7 テレビ
102 人物(音源物体)
111,911 記憶部
112 画像入力部
113 音声入力部
118 近接センシング部
114 視覚特徴検出定位部
115 聴覚特徴検出定位部
116 音源物体検出部
117 音源情報学習部
119 位置関係制御部
121 駆動部
201 音源情報
202 種別コード情報
203 適用画像処理情報
204 適用音声処理情報
205 適用検出戦略情報
211 画像処理手順
212,222 適用優先度
213,223 成功確率
214 視覚的成功確率
215 視覚特徴情報
221 音声処理手順
224 聴覚的成功確率
225 聴覚特徴情報
920 自己位置同定部
Claims (13)
- 視覚的かつ聴覚的に識別可能な物体である音源物体ごとに付与される識別情報と、前記音源物体を視覚的に識別する画像処理を記述した複数の画像処理手順、及び前記画像処理手順によって参照される情報であって前記音源物体の視覚的な特徴を示す視覚特徴情報、及び前記音源物体を前記画像処理手順によって検出しようとした期間に対する前記音源物体を検出できていた期間の比率である第1成功確率、並びに前記画像処理手順を適用する際の前記第1成功確率を大きい順で並べた優先順位である第1適用優先度を含む適用画像処理情報と、前記音源物体を聴覚的に識別する音声処理を記述した複数の音声処理手順、及び前記音声処理手順によって参照される情報であって前記音源物体の聴覚的な特徴を示す聴覚特徴情報、及び前記音源物体を前記音声処理手順によって検出しようとした期間に対する前記音源物体を検出できていた期間の比率である第2成功確率、並びに前記音声処理手順を適用する際の前記第2成功確率を大きい順で並べた優先順位である第2適用優先度を含む適用音声処理情報と、複数の検出戦略情報と、適用検出戦略情報と、を含む音源情報を記憶する記憶手段と、
前記音源物体を撮像した画像を入力する画像入力手段と、
前記音源物体から発生する音声を入力する音声入力手段と、
前記音源情報の前記第1適用優先度に従って前記画像処理手順を選択し、前記画像入力手段によって入力された画像に対して、選択された前記画像処理手順を実行して前記音源物体の視覚特徴を検出し、前記音源物体の視覚に基づく位置を示す視覚定位情報を出力する視覚特徴検出定位手段と、
前記音源情報の前記第2適用優先度に従って前記音声処理手順を選択し、前記音声入力手段によって入力された音声に対して、選択された前記音声処理手順を実行して前記音源物体の聴覚特徴を検出し、前記音源物体の聴覚に基づく位置を示す聴覚定位情報を出力する聴覚特徴検出定位手段と、
前記検出戦略情報に基づいて、前記視覚特徴検出定位手段または聴覚特徴検出定位手段を制御し、前記音源物体の存在する位置を示す位置情報を検出し、前記視覚定位情報による検出結果に基づいて前記第1成功確率及び前記第1適用優先度を更新し、前記聴覚定位情報による検出結果に基づいて前記第2成功確率及び前記第2適用優先度を更新する音源物体検出手段と、を備え、
前記検出戦略情報は、前記視覚特徴検出定位手段による視覚特徴による検出と前記聴覚特徴検出定位手段による聴覚特徴による検出のいずれを優先するか、あるいは前記視覚特徴による検出と前記聴覚特徴による検出とを併用するかを示し、
前記適用検出戦略情報は、前記第1成功確率の最大値が前記第2成功確率の最大値より大きい場合には、前記視覚特徴による検出を優先する検出戦略情報を高い優先順位とし、前記第2成功確率の最大値が前記第1成功確率の最大値より大きい場合には、前記聴覚特徴による検出を優先する検出戦略情報を高い優先順位とし、前記第1成功確率および前記第2成功確率が所定の閾値より小さい場合には、前記視覚特徴による検出と前記聴覚特徴による検出とを併用する検出戦略情報を高い優先順位とする旨が定められており、
前記音源物体検出手段は、前記複数の検出戦略情報の中から、前記適用検出戦略情報で定められた優先順位に従って前記検出戦略情報を選択し、選択された前記検出戦略情報で優先される、前記視覚特徴検出定位手段あるいは前記聴覚特徴検出定位手段のいずれか、または双方を制御し、前記視覚特徴検出定位手段により出力される前記視覚定位情報または前記聴覚特徴検出定位手段により出力される前記聴覚定位情報から前記位置情報を検出することを特徴とする位置検出装置。 - 前記音源物体検出手段は、選択された前記検出戦略情報に基づいて前記視覚特徴検出定位手段または聴覚特徴検出定位手段を制御することによって前記音源物体を検出することができない場合には、選択された前記検出戦略情報と異なる前記検出戦略情報を前記優先順位に従って再選択し、再選択された前記検出戦略情報に基づいて前記視覚特徴検出定位手段または聴覚特徴検出定位手段を制御することを特徴とする請求項1に記載の位置検出装置。
- 前記複数の検出戦略情報は、前記視覚特徴検出定位手段による検出のみを行い、該検出が失敗したときのみ前記聴覚特徴検出定位手段による検出を行う第1の検出戦略と、前記聴覚特徴検出定位手段による検出のみを行い、該検出が失敗したときのみ前記視覚特徴検出定位手段による検出を行う第2の検出戦略と、前記視覚特徴検出定位手段による検出と前記聴覚特徴検出定位手段による検出を共に行う第3の検出戦略であることを特徴とする請求項2に記載の位置検出装置。
- 前記音源物体検出手段は、前記視覚特徴定検出位手段によって前記画像処理手順を実行することにより前記音源物体を検出することができなかった場合には、選択した前記画像処理手順と異なる前記画像処理手順を再選択し、再選択された前記画像処理手順を実行するように前記視覚特徴検出定位手段を制御することを特徴とする請求項1に記載の位置検出装置。
- 前記音源物体検出手段は、前記聴覚特徴検出定位手段によって前記音声処理手順を実行することにより前記音源物体を検出することができなかった場合には、選択した前記音声処理手順と異なる前記音声処理手順を再選択し、再選択された前記音声処理手順を実行するように前記聴覚特徴検出定位手段を制御することを特徴とする請求項1に記載の位置検出装置。
- 前記視覚特徴検出定位手段によって前記音源物体が検出されている間に、前記音源物体が検出されている方向と略同一方向から前記音声入力手段によって入力される音声を選択し、選択された音声から前記音源物体の前記聴覚特徴情報を生成し、生成した前記聴覚特徴情報を、前記音源物体の識別情報に対応した前記適用音声処理情報に登録し、前記聴覚特徴検出定位手段によって前記音源物体が検出されている間に、前記音源物体が検出されている方向と略同一方向から前記画像入力手段によって入力される画像を選択し、選択された画像から前記音源物体の前記視覚特徴情報を生成し、生成した前記視覚特徴情報を、前記音源物体の識別情報に対応した前記適用画像処理情報に登録する音源情報学習手段
をさらに備えたことを特徴とする請求項1に記載の位置検出装置。 - 前記位置検出装置の位置を同定する位置同定手段を更に備え、
前記記憶手段は、前記音源物体が存在可能な領域の位置情報を示す地図情報をさらに記憶し、
前記音源情報は、前記適用画像処理情報と前記適用音声処理情報とを前記地図情報における領域ごとに保持し、
前記音源物体検出手段は、さらに、前記自己位置同定手段によって同定された前記位置から前記音源物体の存在する領域を同定し、
前記視覚特徴検出定位手段は、前記画像入力手段によって入力された画像と、前記音源物体検出手段によって同定された前記領域に対応した前記適用画像処理情報とに基づいて前記画像処理手順を実行して前記音源物体の視覚特徴を検出し、前記視覚定位情報を出力し、
前記聴覚特徴検出定位手段は、前記音声入力手段によって入力された音声と、前記音源物体検出手段によって同定された前記領域に対応した前記適用画像処理情報とに基づいて前記音声処理手順を実行して前記音源物体の聴覚特徴を検出し、前記聴覚定位情報を出力することを特徴とする請求項1に記載の位置検出装置。 - 前記音源情報は、さらに前記適用検出戦略情報を前記領域に対応付けており、
前記音源物体検出手段は、前記位置同定手段によって同定された位置が含まれる前記領域に対応する前記適用検出戦略情報で定められた優先順位で前記検出戦略情報を選択し、選択された前記検出戦略情報に基づいて前記視覚特徴検出定位手段または聴覚特徴検出定位手段を制御することを特徴とする請求項7に記載の位置検出装置。 - 前記視覚特徴定検出位手段によって前記音源物体が検出されている間に、前記音源物体が検出されている方向と略同一方向から前記音声入力手段によって入力される音声を選択し、選択された音声から前記音源物体の前記聴覚特徴情報を生成し、生成した前記聴覚特徴情報を、前記音源物体の識別情報と前記位置同定手段によって同定された前記音源物体の位置を含む前記領域とに対応した前記適用音声処理情報に登録し、前記聴覚特徴検出定位手段によって前記音源物体が検出されている間に、前記音源物体が検出されている方向と略同一方向から前記画像入力手段によって入力される画像を選択し、選択された画像から前記音源物体の前記視覚特徴情報を生成し、生成した前記視覚特徴情報を、前記音源物体の識別情報と前記位置同定手段によって同定された前記音源物体の位置を含む前記領域とに対応した前記適用画像処理情報に登録する音源情報学習手段
をさらに備えたことを特徴とする請求項7に記載の位置検出装置。 - 駆動部による駆動によって移動可能な自律移動装置であって、
視覚的かつ聴覚的に識別可能な物体である音源物体ごとに付与される識別情報と、前記音源物体を視覚的に識別する画像処理を記述した複数の画像処理手順、及び前記画像処理手順によって参照される情報であって前記音源物体の視覚的な特徴を示す視覚特徴情報、及び前記音源物体を前記画像処理手順によって検出しようとした期間に対する前記音源物体を検出できていた期間の比率である第1成功確率、並びに前記画像処理手順を適用する際の前記第1成功確率を大きい順で並べた優先順位である第1適用優先度を含む適用画像処理情報と、前記音源物体を聴覚的に識別する音声処理を記述した複数の音声処理手順、及び前記音声処理手順によって参照される情報であって前記音源物体の聴覚的な特徴を示す聴覚特徴情報、及び前記音源物体を前記音声処理手順によって検出しようとした期間に対する前記音源物体を検出できていた期間の比率である第2成功確率、並びに前記音声処理手順を適用する際の前記第2成功確率を大きい順で並べた優先順位である第2適用優先度を含む適用音声処理情報と、複数の検出戦略情報と、適用検出戦略情報と、を含む音源情報を記憶する記憶手段と、
前記音源物体を撮像した画像を入力する画像入力手段と、
前記音源物体から発生する音声を入力する音声入力手段と、
前記音源情報の前記第1適用優先度に従って前記画像処理手順を選択し、前記画像入力手段によって入力された画像に対して、選択された前記画像処理手順を実行して前記音源物体の視覚特徴を検出し、前記音源物体の視覚に基づく位置を示す視覚定位情報を出力する視覚特徴検出定位手段と、
前記音源情報の前記第2適用優先度に従って前記音声処理手順を選択し、前記音声入力手段によって入力された音声に対して、選択された前記音声処理手順を実行して前記音源物体の聴覚特徴を検出し、前記音源物体の聴覚に基づく位置を示す聴覚定位情報を出力する聴覚特徴検出定位手段と、
前記検出戦略情報に基づいて、前記視覚特徴検出定位手段または聴覚特徴検出定位手段を制御し、前記音源物体の存在する位置を示す位置情報を検出し、前記視覚定位情報による検出結果に基づいて前記第1成功確率及び前記第1適用優先度を更新し、前記聴覚定位情報による検出結果に基づいて前記第2成功確率及び前記第2適用優先度を更新する音源物体検出手段と、
前記音源物体検出手段による前記音源物体の前記位置情報に基づいて前記音源物体との位置関係を制御する位置関係制御手段と、を備え、
前記検出戦略情報は、前記視覚特徴検出定位手段による視覚特徴による検出と前記聴覚特徴検出定位手段による聴覚特徴による検出のいずれを優先するか、あるいは前記視覚特徴による検出と前記聴覚特徴による検出とを併用するかを示し、
前記適用検出戦略情報は、前記第1成功確率の最大値が前記第2成功確率の最大値より大きい場合には、前記視覚特徴による検出を優先する検出戦略情報を高い優先順位とし、前記第2成功確率の最大値が前記第1成功確率の最大値より大きい場合には、前記聴覚特徴による検出を優先する検出戦略情報を高い優先順位とし、前記第1成功確率および前記第2成功確率が所定の閾値より小さい場合には、前記視覚特徴による検出と前記聴覚特徴による検出とを併用する検出戦略情報を高い優先順位とする旨が定められており、
前記音源物体検出手段は、前記複数の検出戦略情報の中から、前記適用検出戦略情報で定められた優先順位に従って前記検出戦略情報を選択し、選択された前記検出戦略情報で優先される、前記視覚特徴検出定位手段あるいは前記聴覚特徴検出定位手段のいずれか、または双方を制御し、前記視覚特徴検出定位手段により出力される前記視覚定位情報または前記聴覚特徴検出定位手段により出力される前記聴覚定位情報から前記位置情報を検出することを特徴とする自律移動装置。 - 前記自律移動装置の位置を同定する自己位置同定手段を更に備え、
前記記憶手段は、前記音源物体が存在可能な領域の位置情報を示す地図情報をさらに記憶し、
前記音源情報は、前記適用画像処理情報と前記適用音声処理情報とを前記地図情報における領域ごとに保持し、
前記音源物体検出手段は、さらに、前記自己位置同定手段によって同定された前記位置から前記音源物体の存在する領域を同定し、
前記視覚特徴検出定位手段は、前記画像入力手段によって入力された画像と、前記音源物体検出手段によって同定された前記領域に対応した前記適用画像処理情報とに基づいて前記画像処理手順を実行して前記音源物体の視覚特徴を検出し、前記視覚定位情報を出力し、
前記聴覚特徴検出定位手段は、前記音声入力手段によって入力された音声と、前記音源物体検出手段によって同定された前記領域に対応した前記適用画像処理情報とに基づいて前記音声処理手順を実行して前記音源物体の聴覚特徴を検出し、前記聴覚定位情報を出力することを特徴とする請求項10に記載の自律移動装置。 - 視覚的かつ聴覚的に識別可能な物体である音源物体を撮像した画像を入力する画像入力ステップと、
前記音源物体から発生する音声を入力する音声入力ステップと、
視覚特徴検出定位手段によって、前記音源物体ごとに付与される識別情報と、前記音源物体を視覚的に識別する画像処理を記述した複数の画像処理手順、及び前記画像処理手順によって参照される情報であって前記音源物体の視覚的な特徴を示す視覚特徴情報、及び前記音源物体を前記画像処理手順によって検出しようとした期間に対する前記音源物体を検出できていた期間の比率である第1成功確率、並びに前記画像処理手順を適用する際の前記第1成功確率を大きい順で並べた優先順位である第1適用優先度を含む適用画像処理情報と、前記音源物体を聴覚的に識別する音声処理を記述した複数の音声処理手順、及び前記音声処理手順によって参照される情報であって前記音源物体の聴覚的な特徴を示す聴覚特徴情報、及び前記音源物体を前記音声処理手順によって検出しようとした期間に対する前記音源物体を検出できていた期間の比率である第2成功確率、並びに前記音声処理手順を適用する際の前記第2成功確率を大きい順で並べた優先順位である第2適用優先度を含む適用音声処理情報と、検出戦略情報と、適用検出戦略情報と、を含む音源情報の前記適用画像処理情報の前記第1適用優先度に従って前記画像処理手順を選択し、前記画像入力ステップによって入力された画像に対して、選択された前記画像処理手順を実行して前記音源物体の視覚特徴を検出し、前記音源物体の視覚に基づく位置を示す視覚定位情報を出力する視覚特徴検出定位ステップと、
聴覚特徴検出定位手段によって、 前記音源情報の前記第2適用優先度に従って前記音声処理手順を選択し、前記音声入力ステップによって入力された音声に対して、選択された前記音声処理手順を実行して前記音源物体の聴覚特徴を検出し、前記音源物体の聴覚に基づく位置を示す聴覚定位情報を出力する聴覚特徴検出定位ステップと、
前記検出戦略情報に基づいて、前記視覚特徴検出定位手段または聴覚特徴検出定位手段を制御し、前記音源物体の存在する位置を示す位置情報を検出し、前記視覚定位情報による検出結果に基づいて前記第1成功確率及び前記第1適用優先度を更新し、前記聴覚定位情報による検出結果に基づいて前記第2成功確率及び前記第2適用優先度を更新する音源物体検出ステップと、を含み、
前記検出戦略情報は、前記視覚特徴検出定位手段による視覚特徴による検出と前記聴覚特徴検出定位手段による聴覚特徴による検出のいずれを優先するか、あるいは前記視覚特徴による検出と前記聴覚特徴による検出とを併用するかを示し、
前記適用検出戦略情報は、前記第1成功確率の最大値が前記第2成功確率の最大値より大きい場合には、前記視覚特徴による検出を優先する検出戦略情報を高い優先順位とし、前記第2成功確率の最大値が前記第1成功確率の最大値より大きい場合には、前記聴覚特徴による検出を優先する検出戦略情報を高い優先順位とし、前記第1成功確率および前記第2成功確率が所定の閾値より小さい場合には、前記視覚特徴による検出と前記聴覚特徴による検出とを併用する検出戦略情報を高い優先順位とする旨が定められており、
前記音源物体検出ステップは、前記複数の検出戦略情報の中から、前記適用検出戦略情報で定められた優先順位に従って前記検出戦略情報を選択し、選択された前記検出戦略情報で優先される、前記視覚特徴検出定位手段あるいは前記聴覚特徴検出定位手段のいずれか、または双方を制御し、前記視覚特徴検出定位手段により出力される前記視覚定位情報または前記聴覚特徴検出定位手段により出力される前記聴覚定位情報から前記位置情報を検出することを特徴とする位置検出方法。 - 音源物体ごとに付与される識別情報と、前記音源物体を視覚的に識別する画像処理を記述した複数の画像処理手順、及び前記画像処理手順によって参照される情報であって前記音源物体の視覚的な特徴を示す視覚特徴情報、及び前記音源物体を前記画像処理手順によって検出しようとした期間に対する前記音源物体を検出できていた期間の比率である第1成功確率、並びに前記画像処理手順を適用する際の前記第1成功確率を大きい順で並べた優先順位である第1適用優先度を含む適用画像処理情報と、前記音源物体を聴覚的に識別する音声処理を記述した複数の音声処理手順、及び前記音声処理手順によって参照される情報であって前記音源物体の聴覚的な特徴を示す聴覚特徴情報、及び前記音源物体を前記音声処理手順によって検出しようとした期間に対する前記音源物体を検出できていた期間の比率である第2成功確率、並びに前記音声処理手順を適用する際の前記第2成功確率を大きい順で並べた優先順位である第2適用優先度を含む適用音声処理情報と、複数の検出戦略情報と、適用検出戦略情報と、を含む音源情報の前記適用画像処理情報の前記第1適用優先度に従って前記画像処理手順を選択し、入力された画像に対して、選択された前記画像処理手順を実行して前記音源物体の視覚特徴を検出し、前記音源物体の視覚に基づく位置を示す視覚定位情報を出力する視覚特徴検出定位ステップと、
前記音源情報の前記第2適用優先度に従って前記音声処理手順を選択し、入力された音声に対して、選択された前記音声処理手順を実行して前記音源物体の聴覚特徴を検出し、前記音源物体の聴覚に基づく位置を示す聴覚定位情報を出力する聴覚特徴検出定位ステップと、
前記検出戦略情報に基づいて、前記視覚特徴検出定位ステップの実行または聴覚特徴検出定位ステップの実行を制御し、前記音源物体の存在する位置を示す位置情報を検出し、前記視覚定位情報による検出結果に基づいて前記第1成功確率及び前記第1適用優先度を更新し、前記聴覚定位情報による検出結果に基づいて前記第2成功確率及び前記第2適用優先度を更新する音源物体検出ステップと、をコンピュータに実行させ、
前記検出戦略情報は、前記視覚特徴検出定位ステップによる視覚特徴による検出と前記聴覚特徴検出定位ステップによる聴覚特徴による検出のいずれを優先するか、あるいは前記視覚特徴による検出と前記聴覚特徴による検出とを併用するかを示し、
前記適用検出戦略情報は、前記第1成功確率の最大値が前記第2成功確率の最大値より大きい場合には、前記視覚特徴による検出を優先する検出戦略情報を高い優先順位とし、前記第2成功確率の最大値が前記第1成功確率の最大値より大きい場合には、前記聴覚特徴による検出を優先する検出戦略情報を高い優先順位とし、前記第1成功確率および前記第2成功確率が所定の閾値より小さい場合には、前記視覚特徴による検出と前記聴覚特徴による検出とを併用する検出戦略情報を高い優先順位とする旨が定められており、
前記音源物体検出ステップは、前記複数の検出戦略情報の中から、前記適用検出戦略情報で定められた優先順位に従って前記検出戦略情報を選択し、選択された前記検出戦略情報で優先される、前記視覚特徴検出定位ステップの実行あるいは前記聴覚特徴検出定位ステップの実行のいずれか、または双方を制御し、前記視覚特徴検出定位ステップにより出力される前記視覚定位情報または前記聴覚特徴検出定位ステップにより出力される前記聴覚定位情報から前記位置情報を検出する位置検出プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006091993A JP4675811B2 (ja) | 2006-03-29 | 2006-03-29 | 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム |
US11/727,138 US8045418B2 (en) | 2006-03-29 | 2007-03-23 | Position detecting device, autonomous mobile device, method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006091993A JP4675811B2 (ja) | 2006-03-29 | 2006-03-29 | 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007264472A JP2007264472A (ja) | 2007-10-11 |
JP4675811B2 true JP4675811B2 (ja) | 2011-04-27 |
Family
ID=38560389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006091993A Expired - Fee Related JP4675811B2 (ja) | 2006-03-29 | 2006-03-29 | 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8045418B2 (ja) |
JP (1) | JP4675811B2 (ja) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090096686A1 (en) * | 2007-10-11 | 2009-04-16 | Nec Laboratories America, Inc. | Autonomous mobile wireless antenna systems |
KR101008060B1 (ko) * | 2008-11-05 | 2011-01-13 | 한국과학기술연구원 | 실시간 음원 방향 감지 장치 및 그 방법 |
KR20100081587A (ko) * | 2009-01-06 | 2010-07-15 | 삼성전자주식회사 | 로봇의 소리 인식 장치 및 그 제어 방법 |
JP2012533196A (ja) * | 2009-06-26 | 2012-12-20 | リザード テクノロジー エイピーエス | 音源定位ロボット |
TW201120741A (en) * | 2009-12-04 | 2011-06-16 | Alcor Micro Corp | Vidoe/audio data detecting module and video/audio data detecting method |
WO2012103649A1 (en) | 2011-01-31 | 2012-08-09 | Cast Group Of Companies Inc. | System and method for providing 3d sound |
KR101931362B1 (ko) | 2011-08-22 | 2018-12-24 | 삼성전자주식회사 | 로봇청소기 및 그 제어방법 |
KR101931365B1 (ko) * | 2011-08-22 | 2018-12-24 | 삼성전자주식회사 | 로봇청소기 및 그 제어방법 |
US9401058B2 (en) * | 2012-01-30 | 2016-07-26 | International Business Machines Corporation | Zone based presence determination via voiceprint location awareness |
US8965104B1 (en) * | 2012-02-10 | 2015-02-24 | Google Inc. | Machine vision calibration with cloud computing systems |
US9321173B2 (en) * | 2012-06-22 | 2016-04-26 | Microsoft Technology Licensing, Llc | Tracking and following people with a mobile robotic device |
CN102945672B (zh) * | 2012-09-29 | 2013-10-16 | 深圳市国华识别科技开发有限公司 | 一种多媒体设备语音控制系统及方法 |
WO2014167700A1 (ja) * | 2013-04-12 | 2014-10-16 | 株式会社日立製作所 | 移動ロボット、及び、音源位置推定システム |
US9984332B2 (en) * | 2013-11-05 | 2018-05-29 | Npc Robotics Corporation | Bayesian-centric autonomous robotic learning |
CN103839553A (zh) * | 2014-03-15 | 2014-06-04 | 王岩泽 | 定点录音系统 |
US9382020B1 (en) | 2014-08-27 | 2016-07-05 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Deep space positioning system |
CN105069437A (zh) * | 2015-08-14 | 2015-11-18 | 惠州Tcl移动通信有限公司 | 一种能够自动识别位置的智能系统及其实现方法 |
JP6756101B2 (ja) * | 2015-12-04 | 2020-09-16 | トヨタ自動車株式会社 | 物体認識装置 |
US20190039616A1 (en) * | 2016-02-09 | 2019-02-07 | Ford Global Technologies, Llc | Apparatus and method for an autonomous vehicle to follow an object |
US11157798B2 (en) | 2016-02-12 | 2021-10-26 | Brainchip, Inc. | Intelligent autonomous feature extraction system using two hardware spiking neutral networks with spike timing dependent plasticity |
CN107340498A (zh) * | 2016-05-03 | 2017-11-10 | 深圳光启合众科技有限公司 | 机器人及声源位置的确定方法和装置 |
US20170368690A1 (en) * | 2016-06-27 | 2017-12-28 | Dilili Labs, Inc. | Mobile Robot Navigation |
US10168173B2 (en) | 2016-10-26 | 2019-01-01 | Google Llc | Systems and methods for using visual landmarks in initial navigation |
US11151441B2 (en) | 2017-02-08 | 2021-10-19 | Brainchip, Inc. | System and method for spontaneous machine learning and feature extraction |
US10394239B2 (en) | 2017-04-04 | 2019-08-27 | At&T Intellectual Property I, L.P. | Acoustic monitoring system |
CN109257558A (zh) * | 2017-07-12 | 2019-01-22 | 中兴通讯股份有限公司 | 会议电视的音视频采集方法、装置和终端设备 |
JP6854722B2 (ja) * | 2017-07-14 | 2021-04-07 | パナソニック株式会社 | ロボット |
GB2565315B (en) * | 2017-08-09 | 2022-05-04 | Emotech Ltd | Robots, methods, computer programs, computer-readable media, arrays of microphones and controllers |
US20210031378A1 (en) * | 2018-01-09 | 2021-02-04 | Sony Corporation | Information processor, information processing method, and program |
EP3778151B1 (en) | 2018-03-30 | 2025-03-26 | Sony Group Corporation | Information processing device, information processing method, and program |
WO2020056380A1 (en) | 2018-09-13 | 2020-03-19 | The Charles Stark Draper Laboratory, Inc. | Locating and attaching interchangeable tools in-situ |
CN111292859A (zh) * | 2018-12-07 | 2020-06-16 | 深圳市冠旭电子股份有限公司 | 一种智能音箱设备及其家庭健康监护方法和装置 |
JP2020189367A (ja) * | 2019-05-22 | 2020-11-26 | セイコーエプソン株式会社 | ロボットシステム |
CN110458130B (zh) * | 2019-08-16 | 2022-12-06 | 百度在线网络技术(北京)有限公司 | 人物识别方法、装置、电子设备及存储介质 |
US10671838B1 (en) | 2019-08-19 | 2020-06-02 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10658005B1 (en) * | 2019-08-19 | 2020-05-19 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10803646B1 (en) | 2019-08-19 | 2020-10-13 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10949715B1 (en) | 2019-08-19 | 2021-03-16 | Neon Evolution Inc. | Methods and systems for image and voice processing |
KR102591830B1 (ko) * | 2020-07-24 | 2023-10-24 | 한국전자통신연구원 | 사람과 로봇 간의 인터랙션 방식 결정 장치 및 방법 |
JPWO2022123978A1 (ja) * | 2020-12-08 | 2022-06-16 | ||
CN112562045B (zh) * | 2020-12-16 | 2024-04-05 | 北京百度网讯科技有限公司 | 生成模型和生成3d动画的方法、装置、设备和存储介质 |
CN113406567B (zh) * | 2021-06-25 | 2024-05-14 | 安徽淘云科技股份有限公司 | 一种声源定位方法、装置、设备及存储介质 |
US11308657B1 (en) | 2021-08-11 | 2022-04-19 | Neon Evolution Inc. | Methods and systems for image processing using a learning engine |
US20230283950A1 (en) * | 2022-03-07 | 2023-09-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Sound Event Localization and Detection |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09120294A (ja) * | 1995-10-26 | 1997-05-06 | Omron Corp | 音声認識装置および音声認識方法 |
JP2002264051A (ja) * | 2001-03-09 | 2002-09-18 | Japan Science & Technology Corp | ロボット視聴覚システム |
JP2004283959A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | ロボット装置、その動作制御方法、及びプログラム |
JP2005134819A (ja) * | 2003-10-31 | 2005-05-26 | Vodafone Kk | 移動体通信端末 |
JP2005266014A (ja) * | 2004-03-16 | 2005-09-29 | Tokyo Institute Of Technology | 視覚障害者用画像認識装置、その方法及びプログラム |
JP2006075948A (ja) * | 2004-09-10 | 2006-03-23 | Honda Motor Co Ltd | ロボットの制御装置 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63265312A (ja) | 1987-04-23 | 1988-11-01 | Fujitsu Ltd | 移動経路探索方法 |
US5202661A (en) * | 1991-04-18 | 1993-04-13 | The United States Of America As Represented By The Secretary Of The Navy | Method and system for fusing data from fixed and mobile security sensors |
JPH05101035A (ja) | 1991-05-10 | 1993-04-23 | Shinko Electric Co Ltd | 移動ロボツトの最適経路探索方法 |
JPH04365104A (ja) | 1991-06-13 | 1992-12-17 | Toshiba Corp | 最適化経路計画装置及び自律移動ロボット |
US5400244A (en) * | 1991-06-25 | 1995-03-21 | Kabushiki Kaisha Toshiba | Running control system for mobile robot provided with multiple sensor information integration system |
JP3250105B2 (ja) | 1991-12-06 | 2002-01-28 | 綜合警備保障株式会社 | 移動型警備用ロボットを用いた警備方法 |
JPH08271274A (ja) * | 1995-03-28 | 1996-10-18 | Mitsubishi Electric Corp | 移動経路生成装置 |
JP3269418B2 (ja) | 1996-03-25 | 2002-03-25 | 株式会社デンソー | 最適経路探索方法 |
JPH1097274A (ja) | 1996-09-24 | 1998-04-14 | Kokusai Denshin Denwa Co Ltd <Kdd> | 話者認識方法及び装置 |
US5967455A (en) * | 1997-08-01 | 1999-10-19 | Mossberg Industries, Inc. | Single-step molded reel |
JP3879236B2 (ja) | 1998-03-16 | 2007-02-07 | 三菱電機株式会社 | 誘導飛しょう体 |
JPH11294997A (ja) | 1998-04-10 | 1999-10-29 | Mitsubishi Electric Corp | 誘導飛しょう体 |
JP4087953B2 (ja) | 1998-07-14 | 2008-05-21 | 株式会社東芝 | パターン認識装置及びその方法 |
US6182007B1 (en) * | 1999-03-11 | 2001-01-30 | Lockheed Martin Corp. | Incorporating aspect angle into route planners |
JP2000268265A (ja) | 1999-03-15 | 2000-09-29 | Chuo Joho Kaihatsu Kk | マイクを使用した監視装置 |
JP2001125643A (ja) | 1999-10-28 | 2001-05-11 | Murata Mach Ltd | 無人車の走行制御装置 |
JP2001154706A (ja) | 1999-11-29 | 2001-06-08 | Japan Atom Energy Res Inst | 移動体の経路生成法 |
JP4233723B2 (ja) * | 2000-02-28 | 2009-03-04 | 本田技研工業株式会社 | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
WO2002072317A1 (fr) | 2001-03-09 | 2002-09-19 | Japan Science And Technology Corporation | Systeme de robot audiovisuel |
JP2002286838A (ja) | 2001-03-28 | 2002-10-03 | Mitsubishi Electric Corp | 目標追尾装置及び目標追尾方法 |
JP2002307349A (ja) | 2001-04-11 | 2002-10-23 | Sony Corp | ロボット装置、情報学習方法、プログラム及び記録媒体 |
US7074570B2 (en) | 2001-05-23 | 2006-07-11 | Ge Healthcare Bio-Sciences Ab | Peptide fragmentation |
JP3900870B2 (ja) * | 2001-08-07 | 2007-04-04 | オムロン株式会社 | 情報収集装置、情報収集方法、および情報収集システム |
JP2003187399A (ja) | 2001-12-13 | 2003-07-04 | Mitsubishi Heavy Ind Ltd | 移動体の針路計画変更システムおよび針路計画変更方法 |
JP2003296855A (ja) * | 2002-03-29 | 2003-10-17 | Toshiba Corp | 監視装置 |
JP2004017185A (ja) | 2002-06-13 | 2004-01-22 | Mitsubishi Heavy Ind Ltd | ロボット制御装置 |
US20060064202A1 (en) * | 2002-08-26 | 2006-03-23 | Sony Corporation | Environment identification device, environment identification method, and robot device |
JP3885019B2 (ja) | 2002-11-29 | 2007-02-21 | 株式会社東芝 | セキュリティシステム及び移動ロボット |
JP2004237392A (ja) * | 2003-02-05 | 2004-08-26 | Sony Corp | ロボット装置、及びロボット装置の表現方法 |
JP3972854B2 (ja) * | 2003-04-10 | 2007-09-05 | ソニー株式会社 | ロボットの運動制御装置 |
JP4000095B2 (ja) | 2003-07-30 | 2007-10-31 | 株式会社東芝 | 音声認識方法、装置及びプログラム |
JP4257230B2 (ja) * | 2004-02-26 | 2009-04-22 | 株式会社東芝 | 移動ロボット |
JP2006015436A (ja) * | 2004-06-30 | 2006-01-19 | Honda Motor Co Ltd | 監視ロボット |
US7840308B2 (en) | 2004-09-10 | 2010-11-23 | Honda Motor Co., Ltd. | Robot device control based on environment and position of a movable robot |
US7502498B2 (en) * | 2004-09-10 | 2009-03-10 | Available For Licensing | Patient monitoring apparatus |
KR100754385B1 (ko) * | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
JP4455417B2 (ja) * | 2005-06-13 | 2010-04-21 | 株式会社東芝 | 移動ロボット、プログラム及びロボット制御方法 |
JP4650752B2 (ja) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | 自己位置同定方法と装置および三次元形状の計測方法と装置 |
US8705792B2 (en) * | 2008-08-06 | 2014-04-22 | Toyota Motor Engineering & Manufacturing North America, Inc. | Object tracking using linear features |
-
2006
- 2006-03-29 JP JP2006091993A patent/JP4675811B2/ja not_active Expired - Fee Related
-
2007
- 2007-03-23 US US11/727,138 patent/US8045418B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09120294A (ja) * | 1995-10-26 | 1997-05-06 | Omron Corp | 音声認識装置および音声認識方法 |
JP2002264051A (ja) * | 2001-03-09 | 2002-09-18 | Japan Science & Technology Corp | ロボット視聴覚システム |
JP2004283959A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | ロボット装置、その動作制御方法、及びプログラム |
JP2005134819A (ja) * | 2003-10-31 | 2005-05-26 | Vodafone Kk | 移動体通信端末 |
JP2005266014A (ja) * | 2004-03-16 | 2005-09-29 | Tokyo Institute Of Technology | 視覚障害者用画像認識装置、その方法及びプログラム |
JP2006075948A (ja) * | 2004-09-10 | 2006-03-23 | Honda Motor Co Ltd | ロボットの制御装置 |
Also Published As
Publication number | Publication date |
---|---|
US8045418B2 (en) | 2011-10-25 |
US20070233321A1 (en) | 2007-10-04 |
JP2007264472A (ja) | 2007-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4675811B2 (ja) | 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム | |
US20050234729A1 (en) | Mobile unit and method of controlling a mobile unit | |
Lang et al. | Providing the basis for human-robot-interaction: A multi-modal attention system for a mobile robot | |
US7873448B2 (en) | Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles | |
US11554495B2 (en) | Method of localization using multi sensor and robot implementing same | |
JP4976903B2 (ja) | ロボット | |
KR102040340B1 (ko) | 피호출자 검색 기법 | |
JP4241673B2 (ja) | 移動体の経路生成装置 | |
JP3996015B2 (ja) | 姿勢認識装置及び自律ロボット | |
JP4560078B2 (ja) | コミュニケーションロボット | |
JP4718987B2 (ja) | インターフェース装置およびそれを備えた移動ロボット | |
JP2008158868A (ja) | 移動体、及びその制御方法 | |
KR102463806B1 (ko) | 이동이 가능한 전자 장치 및 그 동작 방법 | |
Sekmen et al. | An application of passive human-robot interaction: human tracking based on attention distraction | |
JP2012220959A (ja) | 入力された発話の関連性を判定するための装置および方法 | |
JP2008084135A (ja) | 移動制御方法、移動ロボットおよび移動制御プログラム | |
JP4435212B2 (ja) | 姿勢認識装置及び自律ロボット | |
JP5411789B2 (ja) | コミュニケーションロボット | |
Kallakuri et al. | Probabilistic approach for building auditory maps with a mobile microphone array | |
CN108733059A (zh) | 一种导览方法及机器人 | |
JP4764377B2 (ja) | 移動型ロボット | |
EP3644154B1 (en) | Controlling method for artificial intelligence moving robot | |
Simoes et al. | A guidance system for blind and visually impaired people via hybrid data fusion | |
KR20210029388A (ko) | 시각 장애인을 위한 물건 탐지 및 안내를 위한 시스템 | |
Okuno et al. | Sound and visual tracking for humanoid robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110126 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |