JP2003266364A - Robot device - Google Patents
Robot deviceInfo
- Publication number
- JP2003266364A JP2003266364A JP2002075149A JP2002075149A JP2003266364A JP 2003266364 A JP2003266364 A JP 2003266364A JP 2002075149 A JP2002075149 A JP 2002075149A JP 2002075149 A JP2002075149 A JP 2002075149A JP 2003266364 A JP2003266364 A JP 2003266364A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- robot apparatus
- human
- image pickup
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000009471 action Effects 0.000 claims description 60
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 241000282414 Homo sapiens Species 0.000 abstract description 76
- 230000003993 interaction Effects 0.000 abstract description 6
- 230000004438 eyesight Effects 0.000 abstract description 3
- 230000005540 biological transmission Effects 0.000 abstract 1
- 210000001508 eye Anatomy 0.000 description 44
- 210000003128 head Anatomy 0.000 description 42
- 230000008451 emotion Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 25
- 230000007704 transition Effects 0.000 description 21
- 230000006399 behavior Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 241000282412 Homo Species 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 14
- 241001465754 Metazoa Species 0.000 description 13
- 210000002414 leg Anatomy 0.000 description 11
- 210000004394 hip joint Anatomy 0.000 description 10
- 210000002683 foot Anatomy 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 210000003857 wrist joint Anatomy 0.000 description 6
- 210000000544 articulatio talocruralis Anatomy 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 210000002310 elbow joint Anatomy 0.000 description 5
- 210000000323 shoulder joint Anatomy 0.000 description 5
- 239000000758 substrate Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000004382 visual function Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 210000000629 knee joint Anatomy 0.000 description 3
- 210000001364 upper extremity Anatomy 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000036528 appetite Effects 0.000 description 2
- 235000019789 appetite Nutrition 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 241001455214 Acinonyx jubatus Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- LFYJSSARVMHQJB-QIXNEVBVSA-N bakuchiol Chemical compound CC(C)=CCC[C@@](C)(C=C)\C=C\C1=CC=C(O)C=C1 LFYJSSARVMHQJB-QIXNEVBVSA-N 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004899 motility Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Landscapes
- Studio Devices (AREA)
- Accessories Of Cameras (AREA)
- Manipulator (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ロボット装置に関
し、特に、外部情報、外部からの働きかけに応じた動作
及び/又は内部状態に基づく自律的動作を実行するロボ
ット装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus, and more particularly to a robot apparatus that executes an autonomous operation based on an external information and an external action and / or an internal state.
【0002】[0002]
【従来の技術】最近では、人間のパートナーとして生活
を支援する、すなわち住環境その他の日常生活上の様々
な場面における人的活動を支援する実用ロボットの開発
が進められている。このような実用ロボットは、産業用
ロボットとは異なり、人間の生活環境の様々な局面にお
いて、個々に個性の相違した人間、又は様々な環境への
適応方法を自ら学習する能力を備えている。例えば、
犬、猫のように4足歩行の動物の身体メカニズムやその
動作を模した「ペット型」ロボット、或いは、2足直立
歩行を行う動物の身体メカニズムや動作をモデルにして
デザインされた「人間型」又は「人間形」ロボット(Hu
manoid Robot)等の脚式移動ロボットは、既に実用化さ
れつつある。2. Description of the Related Art Recently, practical robots have been developed to support life as a human partner, that is, to support human activities in various situations in daily life such as living environment. Unlike industrial robots, such practical robots have the ability to learn by themselves how to adapt to humans with different personalities or various environments in various aspects of human living environments. For example,
A "pet-type" robot that imitates the body mechanism and movement of a four-legged animal such as a dog or cat, or a "human-type robot" designed based on the body mechanism and movement of an animal that walks upright on two legs. Or “humanoid” robot (Hu
Leg-type mobile robots such as manoid Robot) are already in practical use.
【0003】これらの脚式移動ロボットは、産業用ロボ
ットと比較してエンターテインメント性を重視した様々
な動作を行うことができるため、エンターテインメント
ロボットと呼称される場合もある。These legged mobile robots are sometimes called entertainment robots because they can perform various actions with an emphasis on entertainment properties as compared with industrial robots.
【0004】また、認知心理学において、アフォーダン
スという考え方が存在する。このアフォーダンスという
のは、認知心理学者のギブソンがアフォード(与える、
できるという意味)という言葉から作った造語であり、
「環境が与える行動」や「環境によって想起される行
動」と解釈される。In cognitive psychology, there is an idea of affordance. This affordance is given by cognitive psychologist Gibson
It is a coined word made from the word
It is interpreted as "behavior given by the environment" or "behavior recollected by the environment".
【0005】ギブソンによると、動物は、知覚器から得
た情報を脳の中で処理することで環境を認識するわけで
はなく、環境(他の動物、植物、物体)そのものに依存
する情報を直接得て認識を行っている。According to Gibson, animals do not recognize the environment by processing information obtained from sensory organs in their brains, but information that depends on the environment (other animals, plants, objects) itself is directly detected. We are aware of it.
【0006】例えば、ドアがあるとする。この取っ手部
を平板にすると、このドアは、ヒトに対して「押す」こ
とをアフォードする。また、取っ手部をリング状にする
と、「引く」ことをアフォードする。すなわち、このド
アの例では、「押し」入る側を平板にした場合は、出る
側の取っ手部をリングにするのがアフォーダンス理論に
基づいた自然な対応付けとなる。For example, assume that there is a door. When the handle is flat, the door afords to "push" against the human. In addition, if the handle part is ring-shaped, "pulling" is offered. That is, in the example of this door, when the "push-in" side is a flat plate, the handle part on the exit side is a ring, which is a natural correspondence based on the affordance theory.
【0007】また、一本の棒きれは、握る、叩く、振り
回す、折る、等の動作をヒトに対してアフォードする。
例えば、「テニス」という競技を知らないヒトであって
も、ラケットを掴むとき柄の部分を掴む。それはラケッ
トの先端よりも柄の部分の方が「掴む」動作に対するア
フォーダンスをもつからである。[0007] Also, a single stick struck a person with actions such as gripping, tapping, swinging, and folding.
For example, even a person who does not know the game of "tennis" grasps the handle portion when grasping the racket. This is because the handle has an affordance to the "grasping" action rather than the tip of the racket.
【0008】このように、物体の形状そのものが人間に
対してその機能や性能を想起させるという考え方は、物
体に何らかの機能を付与する際に非常に重要である。As described above, the idea that the shape of an object itself reminds a human of its function and performance is very important when imparting some function to an object.
【0009】[0009]
【発明が解決しようとする課題】ロボット装置のデザイ
ンにも、アフォーダンス理論が適用できる。ロボット装
置の足は「歩く」という機能を想起させるし、ロボット
の眼や耳は「見る」「聞く」という機能を想起させる。The affordance theory can be applied to the design of a robot device. The foot of the robot device reminds us of the function of “walking”, and the eyes and ears of the robot remind us of the functions of “seeing” and “listening”.
【0010】人間や動物を模したヒューマノイド型ロボ
ットや動物型ロボットにおいては、「アフォーダンス」
という概念はさらに重要となる。これらのロボットは、
ヒトや動物とほぼ同じ身体特性をもつようにみえるた
め、これらのロボットを見れば、自然とその機能や性能
に関しても人間や動物と同等であることを想起するわけ
である。In humanoid robots or animal robots that imitate humans or animals, "affordance"
The concept of becomes even more important. These robots
Since they appear to have almost the same physical characteristics as humans and animals, looking at these robots, we recall that they are equivalent to humans and animals in terms of nature and their functions and performances.
【0011】しかしながら、ロボット装置の中には、人
間や動物を模した形状に作られているだけであって、そ
の性能や身体性は、人間や動物とは異なるものもある。
これらの相違には、機能そのものがない場合と、機能は
あっても性能が異なる場合とがある。However, some robot devices are only made in a shape imitating a human being or an animal, and their performance or physical characteristics are different from those of the human being or the animal.
These differences may be that there is no function itself, or that there is a function but different performance.
【0012】例えば、脚部に相当する部分が設けられて
いるロボットでも、デザインのみであって全く動けない
ロボットや、脚部はあっても「歩く」動作は行わず、足
裏の車輪で進むロボットもある。同様に、「眼」が設け
られているロボットでも、実は、視覚機能は有していな
いロボット、PSD(Position Sensitive Detector)
等の単純な光センサ等が代替として機能しているロボッ
トもある。[0012] For example, even a robot provided with a portion corresponding to a leg portion cannot move at all due to its design only, or it does not perform a "walking" operation even if it has a leg portion, and proceeds with wheels on the soles of the feet. There are also robots. Similarly, even a robot provided with “eyes” does not actually have a visual function, a PSD (Position Sensitive Detector).
In some robots, a simple optical sensor or the like functions as a substitute.
【0013】人間と全く同じ様態をしたヒューマノイド
型ロボットがあった場合、このロボットを見た人間は、
例えば「手を叩いたり、手を振ったりしてみる」「”お
ーい”と呼んでみる」「名前を呼んでみる」「”こっち
へおいで”といってみる」「押してみる」「叩いてみ
る」等のインタラクションを試みるかも知れない。とこ
ろが、このヒューマノイド型ロボットに、視覚機能や聴
覚機能が搭載されていない場合、視覚機能や聴覚機能は
あっても、この入力に基づいて人間の行動を認識するこ
とができない場合等には、このロボットは、人間からの
インタラクションに対して何のリアクションも起こさな
いことになる。If there is a humanoid robot that has exactly the same form as a human,
For example, "clap or wave your hand", "call me" Oh "," call my name "," call me here "," push "," tap " May try an interaction such as ". However, if the humanoid robot does not have a visual function or an auditory function, or if it has a visual function or an auditory function but cannot recognize a human action based on this input, The robot will not react to any human interaction.
【0014】このように、デザインから想起される機能
が実際には装備されていない場合や、人間が想起する機
能や性能と実際の性能とがかけ離れている場合、人間は
違和感を覚えたり、人間とロボットとのコミュニケーシ
ョンが円滑に行われないといった事態が生じる。As described above, when the function recalled from the design is not actually provided, or when the function or performance recalled by a human is far from the actual performance, the human feels uncomfortable or There is a situation where communication between the robot and the robot is not performed smoothly.
【0015】ここで、一例として、ロボットの眼が人間
に想起させる機能、性能について考える。デザインとし
て眼に相当するものを採用しているロボットを見たとき
に、人間は、「このロボットには、眼がある」、「この
ロボットは、”環境が見えている”」「このロボット
は、”見えているものに対して反応する”」「このロボ
ットは、”物が動いたことがわかる”」「このロボット
は、”ヒトの顔を認識できる”」「このロボットは、”
こっち(そっち)を見ている”」等というロボットの機
能、動作を想起する。Here, as an example, consider the function and performance that the eyes of the robot remind the human. When we look at a robot that uses an eye-corresponding design, humans said, "This robot has eyes.""This robot has an" environment visible "." , "Respond to what you see""This robot knows that something has moved""This robot can recognize a human face""Thisrobot"
Recall the functions and actions of a robot such as "looking at you".
【0016】このように人間は、ロボットの眼に対し
て、人間や動物と同等の視野角を想定し、その視野角に
対応する視界を想像する。ヒトの視界は、片眼で約12
0度、両眼で180度以上の視野角を有するため、ヒト
は、相手の瞳が見えると、相手の視界に自分が入ってい
ることを想定する。As described above, a human assumes a viewing angle equivalent to that of a human or an animal with respect to the eyes of the robot, and imagines a visual field corresponding to the viewing angle. The human field of vision is about 12 with one eye
Since the eyes have a viewing angle of 0 degree and 180 degrees or more with both eyes, a person assumes that he / she is in the field of vision of the other party when the other party's eyes are visible.
【0017】そのため、ロボットの瞳(眼の中心)が見
えると、ヒトは、ロボットからも自分が見えていると考
え、ロボットに対して何らかのインタラクションがとれ
ること期待する。しかし、実際にはロボットの視野角
は、CCDカメラの特性によって決定されるため、人間
程の視野角をもたないのが現状である。Therefore, when the eyes of the robot (the center of the eye) are visible, the human thinks that he / she can see himself, and expects some interaction with the robot. However, in reality, the viewing angle of the robot is determined by the characteristics of the CCD camera, so that it does not have the viewing angle of human beings.
【0018】このように、人間は、ロボットの様態から
そのロボットの性能や機能を想起し、ロボットとのコミ
ュニケーションを図ろうとする。特に、視覚機能におけ
るヒトとロボットの相違点は、人間とロボットとのコミ
ュニケーションを図る際に、非常に重要になる。As described above, human beings try to communicate with the robot by recalling the performance and function of the robot from the aspect of the robot. Especially, the difference between the human and the robot in the visual function becomes very important when communicating between the human and the robot.
【0019】従来のロボットにおける視覚装置の具体例
を説明する。図22には、犬やライオンに模した形状を
有するペット型ロボットが示されている。このロボット
の眼にあたるCCDカメラは、口に設置されている。ま
た、このロボットの口にあたる部分には複数のLEDが
設置され、LEDはキャノピーによって覆われている。
このロボットは、口に設置されたLEDが発光する光の
色によってロボットの感情を表現する。A specific example of a conventional visual device in a robot will be described. FIG. 22 shows a pet robot having a shape imitating a dog or a lion. The CCD camera, which is the eyes of this robot, is installed in the mouth. Further, a plurality of LEDs are installed in a portion corresponding to the mouth of this robot, and the LEDs are covered with a canopy.
This robot expresses the emotion of the robot by the color of the light emitted by the LED installed in its mouth.
【0020】また、図23には、熊をモチーフとしたペ
ット型ロボットが示されている。このロボットの眼にあ
たるCCDカメラも、ロボットの口に設置されている。
ロボットの眼の部分には、球状のプラスチックが設置さ
れているが、プラスチックの眼は特に機能をもたない。Further, FIG. 23 shows a pet robot having a bear as a motif. A CCD camera, which is the eyes of the robot, is also installed in the mouth of the robot.
A spherical plastic is installed in the robot's eye, but the plastic eye has no special function.
【0021】上述した、2つのペット型ロボットは、ロ
ボットの眼に相当するCCDカメラが、ロボットの鼻先
や口に位置する部分に設置されている。このようなロボ
ットの場合でも、人間はロボットの外観からロボットの
機能を想定するため、ロボットの眼の場所に眼があるこ
とを前提にロボットとのインタラクションをとろうとす
る。例えば、ロボット装置にボールを見せる場合、通常
の人間はCCDカメラの設置された口ではなく、何のセ
ンサも設置されていない眼の部分に向かってボールを差
し出す。そのため、人間の想定するロボットの視野と実
際のロボットの視野に隔たりが生じ、人間とロボットと
のやりとりにずれが生じる。In the above-mentioned two pet type robots, a CCD camera corresponding to the eyes of the robot is installed at a portion located at the tip of the nose or the mouth of the robot. Even in the case of such a robot, since humans assume the function of the robot from the appearance of the robot, they try to interact with the robot on the assumption that the eyes of the robot are present. For example, when showing a ball to a robot device, an ordinary person presents the ball not to the mouth where the CCD camera is installed but to the part of the eye where no sensor is installed. Therefore, the visual field of the robot assumed by a human and the visual field of the actual robot are separated from each other, and the interaction between the human and the robot is deviated.
【0022】図24は、ヒトの形を模したヒューマノイ
ド型ロボットを示している。ロボットの眼にあたるCC
Dカメラは、ロボットの顔の中央に設置される。ロボッ
トの眼の部分には、ロボットの感情を表現するLEDが
配置されている。このロボットの顔の前面は、黒色のキ
ャノピーで覆われており、ロボットの瞳は人間からは見
えなくなっている。FIG. 24 shows a humanoid robot imitating the shape of a human. CC, the robot's eye
The D camera is installed in the center of the robot's face. LEDs that express the emotions of the robot are arranged in the eyes of the robot. The front of the robot's face is covered with a black canopy, and its eyes are invisible to humans.
【0023】上述のヒューマノイド型ロボットでは、ロ
ボットの眼にあたるCCDカメラが、人間の眼とほぼ同
じ位置に設置されているが、このCCDカメラは黒色の
キャノピーで覆われているため、ロボットがどこを見て
いるか人間にはわからない。そのため、人間はキャノピ
ー全体でものを見ているという誤解を生む。In the above-mentioned humanoid robot, the CCD camera corresponding to the eyes of the robot is installed at almost the same position as the human eye, but since this CCD camera is covered with a black canopy, the robot is nowhere. Humans don't know what to look at. This creates the misconception that humans are looking at the entire canopy.
【0024】図25は、ヒトの形を模したヒューマノイ
ド型ロボットを示している。このロボットの眼にあたる
CCDカメラは、人間の眼とほぼ同じ位置に設置されて
おり、ロボットの眼は外部に剥き出しになっている。人
間はロボットの外形からロボットの視野角は、人間とほ
ぼ同等であると想定するが、このロボットの視野角は、
CCDカメラの特性からすると50度前後である。この
場合も、人間の想定するロボットの視野と実際のロボッ
トの視野に隔たりが生じ、人間とロボットと間のコミュ
ニケーションにずれが生じる。FIG. 25 shows a humanoid robot imitating a human shape. The CCD camera corresponding to the eyes of the robot is installed at substantially the same position as the human eyes, and the eyes of the robot are exposed to the outside. Humans assume that the robot's external view angle is almost the same as that of a human, but this robot's view angle is
From the characteristics of the CCD camera, it is around 50 degrees. In this case as well, the visual field of the robot assumed by the human and the visual field of the actual robot are separated from each other, which causes a gap in the communication between the human and the robot.
【0025】人間は、物体の形状によって物体の機能や
特性を判断する。このため、特に、人間や動物の形を模
したロボットを見た人間は、人間や動物と同等の機能や
特性を有すると誤解するおそれがある。このような人間
の認識するロボットの機能と実際のロボットの機能との
間のずれから、人間とロボットのコミュニケーションが
円滑に行えない場合が生じる。更には、ストレスや不便
さを感じることになる。A human determines the function and characteristics of an object based on the shape of the object. Therefore, there is a possibility that a person who sees a robot imitating the shape of a human being or an animal may misunderstand that it has the same function or characteristic as the human being or the animal. Due to such a difference between the functions of the robot recognized by humans and the functions of actual robots, there are cases in which communication between humans and robots cannot be performed smoothly. Furthermore, you will feel stress and inconvenience.
【0026】そこで本発明は、このような従来の実情に
鑑みて提案されたものであり、ヒトとの円滑なコミュニ
ケーションを可能とし、エンターテインメント性を向上
することを可能にしたロボット装置を提供することを目
的とする。Therefore, the present invention has been proposed in view of the conventional situation as described above, and provides a robot apparatus which enables smooth communication with a human and improves entertainment. With the goal.
【0027】[0027]
【課題を解決するための手段】上述した目的を達成する
ために、本発明に係るロボット装置は、外部情報、外部
からの働きかけに応じた動作及び/又は内部状態に基づ
く自律的動作を実行するロボット装置であって、見かけ
の眼の位置に配置され外部情報を取得する撮像手段と、
撮像手段が外部から視認される範囲を制限する遮蔽部と
を備えることを特徴としている。In order to achieve the above-mentioned object, a robot apparatus according to the present invention executes an autonomous operation based on external information, an operation in response to an external action, and / or an internal state. A robot apparatus, which is arranged at an apparent eye position to acquire external information, and
It is characterized in that the image pickup means is provided with a shielding portion for limiting a range visually recognized from the outside.
【0028】ここで、遮蔽部は、撮像手段が外部から視
認される範囲と撮像手段によって撮像される画像の画角
とが略一致するように設ける。また、遮蔽部は、凹部と
して形成し、撮像手段を該凹部の底部に設置する。さら
に、凹部の深さによって、撮像手段を視認可能な範囲を
規定する。Here, the shielding portion is provided so that the range in which the image pickup means is viewed from the outside and the angle of view of the image picked up by the image pickup means are substantially the same. Further, the shielding part is formed as a recess, and the image pickup means is installed at the bottom of the recess. Further, the depth of the recess defines the range in which the image pickup means can be visually recognized.
【0029】また、遮蔽部を撮像手段の周囲に形成され
た筒状部とし、筒状部の高さによって撮像手段が視認可
能な範囲を規定する。Further, the shielding portion is a tubular portion formed around the image pickup means, and the height of the tubular portion defines the visible range of the image pickup means.
【0030】さらに、遮蔽部を開口底面を撮像方向とす
る略円錐形状の部材として形成し、撮像手段をこの円錐
形状部材の頂点部に設置する。また、円錐形状部材の頂
角角度によって撮像手段が視認可能な範囲を規定する。Further, the shielding portion is formed as a member having a substantially conical shape with the bottom face of the opening as the imaging direction, and the imaging means is installed at the apex of this conical member. Further, the range in which the image pickup means can be visually recognized is defined by the apex angle of the conical member.
【0031】[0031]
【発明の実施の形態】以下、本発明の一構成例として示
す2足歩行タイプのロボット装置1について、図面を参
照して詳細に説明する。この人間型のロボット装置1
は、住環境その他の日常生活上の様々な場面における人
的活動を支援する実用ロボットであり、内部状態(怒
り、悲しみ、喜び、楽しみ等)に応じて行動できるほ
か、人間が行う基本的な動作を表出できるエンターテイ
ンメントロボットである。BEST MODE FOR CARRYING OUT THE INVENTION A bipedal walking type robot apparatus 1 shown as a configuration example of the present invention will be described in detail below with reference to the drawings. This humanoid robot device 1
Is a practical robot that supports human activities in various situations in the living environment and other daily lives. It can act according to internal conditions (anger, sadness, joy, enjoyment, etc.) It is an entertainment robot that can express its movements.
【0032】図1に示すように、ロボット装置1は、体
幹部ユニット2の所定の位置に頭部ユニット3が連結さ
れると共に、左右2つの腕部ユニット4R/Lと、左右
2つの脚部ユニット5R/Lが連結されて構成されてい
る(但し、R及びLの各々は、右及び左の各々を示す接
尾辞である。以下において同じ。)。As shown in FIG. 1, in the robot apparatus 1, a head unit 3 is connected to a predetermined position of a torso unit 2, two left and right arm units 4R / L, and two left and right legs. The units 5R / L are connected to each other (however, each of R and L is a suffix indicating each of right and left. The same applies hereinafter).
【0033】このロボット装置1が具備する関節の自由
度を図2に模式的に示す。頭部ユニット3を支持する首
関節は、首関節ヨー軸101と、首関節ピッチ軸102
と、首関節ロール軸103という3自由度を有してい
る。The degrees of freedom of the joints of the robot apparatus 1 are schematically shown in FIG. The neck joint supporting the head unit 3 includes a neck joint yaw axis 101 and a neck joint pitch axis 102.
And the neck joint roll shaft 103 has three degrees of freedom.
【0034】また、上肢を構成する各々の腕部ユニット
4R/Lは、、肩関節ピッチ軸107と、肩関節ロール
軸108と、上腕ヨー軸109と、肘関節ピッチ軸11
0と、前腕ヨー軸111と、手首関節ピッチ軸112
と、手首関節ロール軸113と、手部114とで構成さ
れる。手部114は、実際には、複数本の指を含む多関
節・多自由度構造体である。但し、手部114の動作
は、ロボット装置1の姿勢制御や歩行制御に対する寄与
や影響が少ないので、本明細書ではゼロ自由度と仮定す
る。したがって、各腕部は7自由度を有するとする。Further, each arm unit 4R / L constituting the upper limb has a shoulder joint pitch axis 107, a shoulder joint roll axis 108, an upper arm yaw axis 109, and an elbow joint pitch axis 11.
0, forearm yaw axis 111, wrist joint pitch axis 112
And a wrist joint roll shaft 113 and a hand portion 114. The hand portion 114 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the movement of the hand portion 114 has little contribution or influence to the posture control and the walking control of the robot apparatus 1, it is assumed in this specification that the degree of freedom is zero. Therefore, each arm has seven degrees of freedom.
【0035】また、体幹部ユニット2は、体幹ピッチ軸
104と、体幹ロール軸105と、体幹ヨー軸106と
いう3自由度を有する。Further, the trunk unit 2 has three degrees of freedom: a trunk pitch axis 104, a trunk roll axis 105 and a trunk yaw axis 106.
【0036】また、下肢を構成する各々の脚部ユニット
5R/Lは、股関節ヨー軸115と、股関節ピッチ軸1
16と、股関節ロール軸117と、膝関節ピッチ軸11
8と、足首関節ピッチ軸119と、足首関節ロール軸1
20と、足部121とで構成される。本明細書中では、
股関節ピッチ軸116と股関節ロール軸117の交点
は、ロボット装置1の股関節位置を定義する。人体の足
部121は、実際には多関節・多自由度の足底を含んだ
構造体であるが、ロボット装置1の足底は、ゼロ自由度
とする。したがって、各脚部は、6自由度で構成され
る。Each leg unit 5R / L constituting the lower limb has a hip joint yaw axis 115 and a hip joint pitch axis 1
16, a hip joint roll shaft 117, and a knee joint pitch shaft 11
8, ankle joint pitch axis 119, and ankle joint roll axis 1
20 and a foot 121. In this specification,
The intersection of the hip joint pitch axis 116 and the hip joint roll axis 117 defines the hip joint position of the robot apparatus 1. The foot 121 of the human body is actually a structure including a multi-joint, multi-degree-of-freedom foot, but the foot of the robot apparatus 1 has zero degrees of freedom. Therefore, each leg has 6 degrees of freedom.
【0037】以上を総括すれば、ロボット装置1全体と
しては、合計で3+7×2+3+6×2=32自由度を
有することになる。但し、エンターテインメント向けの
ロボット装置1が必ずしも32自由度に限定されるわけ
ではない。設計・制作上の制約条件や要求仕様等に応じ
て、自由度すなわち関節数を適宜増減することができる
ことはいうまでもない。In summary, the robot apparatus 1 as a whole has 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the robot device 1 for entertainment is not necessarily limited to 32 degrees of freedom. It goes without saying that the degree of freedom, that is, the number of joints, can be appropriately increased or decreased in accordance with design / production constraint conditions and required specifications.
【0038】上述したようなロボット装置1がもつ各自
由度は、実際にはアクチュエータを用いて実装される。
外観上で余分な膨らみを排してヒトの自然体形状に近似
させること、2足歩行という不安定構造体に対して姿勢
制御を行うこと等の要請から、アクチュエータは小型且
つ軽量であることが好ましい。Each degree of freedom of the robot apparatus 1 as described above is actually implemented by using an actuator.
It is preferable that the actuator be small and lightweight in view of requests such as eliminating extra bulges in appearance to approximate the shape of a human natural body and performing posture control on an unstable structure of bipedal walking. .
【0039】次に、ロボット装置1の頭部ユニット3に
ついて、図3〜図7を用いて詳細に説明する。図3は、
頭部ユニット3の正面外観を示し、図4は、頭部ユニッ
ト3の側面外観を示す。頭部ユニット3は、頭部201
と頸部202とからなる。頭部201には、CCDカメ
ラ203と、前方に位置する物体までの距離を測定する
ための距離センサ204と、外部音を集音するためのマ
イクロフォン205と、音声を出力するためのスピーカ
206等がそれぞれ所定位置に配置されている。Next, the head unit 3 of the robot apparatus 1 will be described in detail with reference to FIGS. Figure 3
FIG. 4 shows a front appearance of the head unit 3, and FIG. 4 shows a side appearance of the head unit 3. The head unit 3 includes a head 201
And a neck 202. The head 201 has a CCD camera 203, a distance sensor 204 for measuring a distance to an object located in front, a microphone 205 for collecting an external sound, a speaker 206 for outputting a sound, and the like. Are arranged at predetermined positions.
【0040】本具体例では、特に、このロボット装置1
の親近感を増すとともにエンターテインメント性を高め
るため、外部の状況を撮影するためのCCDカメラ20
3は、ヒトでいう「眼」の位置に設け、マイクロフォン
205は、ヒトでいう「耳」の位置に設け、音声を出力
するためのスピーカ206は、ヒトの「口」に相当する
位置に設けている。In this embodiment, in particular, this robot device 1
A CCD camera 20 for taking a picture of an external situation in order to increase the familiarity with and enhance the entertainment property.
3 is provided at the position of the "eye" of the human, the microphone 205 is provided at the position of the "ear" of the human, and the speaker 206 for outputting sound is provided at the position corresponding to the "mouth" of the human. ing.
【0041】頭部201は、頭部外装筐体207によっ
て保護されており、この頭部外装筐体207は、眼用開
口部208、センサ用開口部209、マイクロフォン取
付部210、スピーカ開口部211所定の位置に有して
おり、ユーザに「ヒト」を想起させる頭部形状となって
いる。The head 201 is protected by a head exterior housing 207, and the head exterior housing 207 includes an eye opening 208, a sensor opening 209, a microphone mounting portion 210, and a speaker opening 211. It has a predetermined shape and has a head shape that reminds the user of "human."
【0042】頭部201は、この頭部201を駆動する
ための頭部駆動機構221を備えており、頸部202
は、この頸部を駆動するための頸部駆動機構222を備
えている。頭部ユニット3の頭部外装筐体207及び頸
部外装筐体216を取り外した外観図5及び6に基づい
て、頭部201及び頸部202をさらに詳細に説明す
る。図5は、ロボット装置1の正面外観を示し、図6
は、ロボット装置1の側面外観を示している。The head 201 has a head driving mechanism 221 for driving the head 201, and the neck 202
Has a neck drive mechanism 222 for driving the neck. The head 201 and the neck 202 will be described in more detail with reference to FIGS. 5 and 6 in which the head exterior casing 207 and the neck exterior casing 216 of the head unit 3 are removed. FIG. 5 shows a front appearance of the robot apparatus 1, and FIG.
Shows a side view of the robot apparatus 1.
【0043】頭部201は、頭部駆動機構221と一体
化された頭部碗状部材223と、頭部碗状部材223に
対して頭部駆動機構221を介して回動自在に取り付け
られた頭部シャーシ224とから構成されている。頭部
碗状部材223には、画像処理回路等が設置されていて
もよく、頭部碗状部材223は、このように内部に配設
された回路等を保護する役割を果たすとともに、ロボッ
ト装置1の顔・顎部の一部を構成している。The head 201 is rotatably attached to the head bowl-shaped member 223 integrated with the head drive mechanism 221, and the head bowl-shaped member 223 via the head drive mechanism 221. And a head chassis 224. An image processing circuit or the like may be installed in the head bowl-shaped member 223, and the head bowl-shaped member 223 plays a role of protecting the circuit or the like arranged inside as described above and a robot device. It composes part of the face and jaw.
【0044】頭部シャーシ224には、顔前面に相当す
る位置に、カメラ固定部材225が取り付けられてい
る。このカメラ固定部材225には、CCDカメラ20
3が設置されている。また、カメラ固定部材225は、
距離センサ取付部226を有しており、ここに距離セン
サ204が取り付けられている。頭部外装筐体207
は、頭部に装着される際に、CCDカメラ203及び距
離センサ204に対応する箇所にそれぞれ眼用開口部2
08、距離センサ用開口部209が設けられているた
め、ここからCCDカメラ203及び距離センサ204
が外部に露呈される。A camera fixing member 225 is attached to the head chassis 224 at a position corresponding to the front surface of the face. The camera fixing member 225 includes the CCD camera 20.
3 are installed. Also, the camera fixing member 225 is
The distance sensor mounting portion 226 is provided, and the distance sensor 204 is mounted here. Head exterior housing 207
When worn on the head, the eye opening 2 is placed at a position corresponding to the CCD camera 203 and the distance sensor 204, respectively.
08, since the distance sensor opening 209 is provided, CCD camera 203 and distance sensor 204 from here
Is exposed to the outside.
【0045】カメラ固定部材225の前面には、ロボッ
ト装置1の内部状態を表出するため等に用いられるLE
D231や、このLED231からの光を眼周囲に一様
に導くための導光部材232等を備えた、図7に示すよ
うな眼底部基板230が設置されているため、この眼底
部基板230の外側が頭部外装筐体207に覆われるこ
とになる。On the front surface of the camera fixing member 225, LE used for displaying the internal state of the robot apparatus 1 and the like.
The fundus substrate 230 as shown in FIG. 7 including the D231 and the light guide member 232 for uniformly guiding the light from the LED 231 to the eye periphery is installed. The outside is covered with the head exterior casing 207.
【0046】したがって、上述したように、頭部201
において、頭部シャーシ224、カメラ固定部材22
5、眼底部基板230、頭部外装筐体207等を組み合
わせた際、眼底部基板230に設けられた導光部材23
2が眼部内側壁となって頭部外装筐体表面に略円筒状の
凹部が形成される。Therefore, as described above, the head 201
At the head chassis 224, the camera fixing member 22
5, the fundus substrate 230, the head exterior casing 207 and the like are combined, the light guide member 23 provided on the fundus substrate 230
2 serves as an inner wall of the eye, and a substantially cylindrical recess is formed on the surface of the head exterior casing.
【0047】このように形成される凹部は、ロボット装
置1の視野を人間に想起させる機能を有する。ロボット
装置1の視野を人間に想起させるとは、ロボット装置1
の形状からロボット装置1の実際の視野を人間に理解さ
せるということである。上述したように、ロボット装置
1は、人間の形状を模しているため、人間は、ロボット
装置1が自分と同様の視野を有すると錯覚する傾向があ
る。The recess thus formed has a function of reminding a person of the visual field of the robot apparatus 1. Recalling the field of view of the robot apparatus 1 to a human means the robot apparatus 1
This means that a person can understand the actual field of view of the robot apparatus 1 from the shape. As described above, since the robot device 1 imitates the shape of a human, the human tends to illusion that the robot device 1 has a field of view similar to that of the human.
【0048】図8は、凹部を形成していないロボット装
置1を上側からみた断面図である。図8のロボット装置
1は、CCDカメラとレンズを有し、CCDカメラはレ
ンズ表面に結像した像を電気信号に変換する。レンズ
は、ロボット装置1の顔面に露呈しており、ロボット装
置1の周囲にいる人間は、ロボットのレンズを視認する
ことができる。ロボット装置1のレンズを視認した人間
は、ロボット装置1がこちらを見ていると感じるため。
人間は、ロボット装置1の視野角が人間の視野角と同じ
120度程度になると感じる。FIG. 8 is a cross-sectional view of the robot apparatus 1 having no recessed portion as viewed from above. The robot apparatus 1 of FIG. 8 has a CCD camera and a lens, and the CCD camera converts an image formed on the lens surface into an electric signal. The lens is exposed on the face of the robot apparatus 1, and people around the robot apparatus 1 can see the lens of the robot. A person who looks at the lens of the robot device 1 feels that the robot device 1 is looking at him.
A human feels that the viewing angle of the robot device 1 is about 120 degrees, which is the same as the human viewing angle.
【0049】しかしながら、実際のロボット装置1の視
野角は、人間ほど広くなく、人間の認識とロボットの実
装の間にずれが生じ、ロボット装置1と人間とのインタ
ラクションが悪化するのみならず、人間にストレスを感
じさせてしまう。However, the actual viewing angle of the robot device 1 is not as wide as that of a human being, and there is a gap between the recognition of the human being and the mounting of the robot, which not only deteriorates the interaction between the robot device 1 and the human being, but also the human being. Make you feel stressed.
【0050】図9は、本具体例におけるロボット装置1
を上からみた断面図である。図9に示すロボット装置
は、図8のロボット装置1と同様、CCDカメラ203
とレンズ233を有しており、このCCDカメラ203
とレンズ233は凹部の底面に設置されている。凹部
は、レンズ233を外部から遮蔽する機能を有し、人間
が所定の位置に立たない限りロボット装置1のレンズ2
33は視認できない。図9の点線は、ロボット装置1の
レンズ233が人間の視界に入る範囲を示している。人
間の視界に入る範囲とは、人間がそこに立ってレンズを
視認することのできる位置のことであり、この範囲は、
凹部の内周とレンズを結ぶ空間の内側に形成される。な
お、本具体例では、レンズが人間の視界に入る範囲の臨
界面とレンズの視軸のなす角を臨界角と呼び、臨界角を
用いて、人間がレンズを視認できる空間の大きさを表現
する。FIG. 9 shows a robot apparatus 1 according to this example.
It is the sectional view which looked at from above. The robot device shown in FIG. 9 is similar to the robot device 1 of FIG.
And a lens 233, and this CCD camera 203
The lens 233 is installed on the bottom surface of the recess. The concave portion has a function of shielding the lens 233 from the outside, and the lens 2 of the robot apparatus 1 is provided unless a person stands in a predetermined position.
33 is not visible. The dotted line in FIG. 9 indicates the range in which the lens 233 of the robot apparatus 1 is within the field of view of a human. The range that humans can see is the position where a person can stand and see the lens.
It is formed inside the space connecting the inner circumference of the recess and the lens. In this specific example, the angle formed by the visual axis of the lens and the critical surface within the range in which the lens enters the field of view of the human is called the critical angle, and the critical angle is used to express the size of the space in which the human can visually recognize the lens. To do.
【0051】以下、ロボット装置1に形成された凹部の
形状が、人間の想定するロボットの視野角(推定視野角
と呼ぶ)に与える影響を調べた実験について説明する。
図10、この実験に使用されるロボット装置1の眼の構
造を示す模式図である。このロボット装置1は、人間の
「眼」に相当する位置に円筒形の凹部が形成されてお
り、凹部の底面にはCCDカメラ203が設置されてい
る。CCDカメラ203の前面にはレンズ233が固定
されており、レンズ233は所定の画角を有する。ここ
で、ロボット装置1の臨界角をθ、凹部の内径をr、凹
部の深さをaとすると、ロボット装置1の臨界角θは、
θ=2*ATAN(r/a)という式によって算出され
る(ATANはアークタンジェントを意味する)。上記
の式によれば、ロボット装置1の臨界角θは、凹部の内
径r、もしくは凹部の深さaを変更させることにより、
変化させることができる。そのため、本実験では、凹部
の深さaを変更することによりロボット装置1の臨界角
を変更し、ロボット装置1の臨界角に応じて、人間が想
定する推定視野角がどのように変化するかを調べる。An experiment for investigating the influence of the shape of the recess formed in the robot apparatus 1 on the visual field angle (referred to as the estimated visual field angle) of the robot assumed by humans will be described below.
FIG. 10 is a schematic diagram showing the eye structure of the robot apparatus 1 used in this experiment. In this robot apparatus 1, a cylindrical concave portion is formed at a position corresponding to a human "eye", and a CCD camera 203 is installed on the bottom surface of the concave portion. A lens 233 is fixed to the front surface of the CCD camera 203, and the lens 233 has a predetermined angle of view. Here, when the critical angle of the robot apparatus 1 is θ, the inner diameter of the concave section is r, and the depth of the concave section is a, the critical angle θ of the robot apparatus 1 is
It is calculated by the formula θ = 2 * ATAN (r / a) (ATAN means arc tangent). According to the above equation, the critical angle θ of the robot apparatus 1 is changed by changing the inner diameter r of the recess or the depth a of the recess.
Can be changed. Therefore, in this experiment, the critical angle of the robot apparatus 1 is changed by changing the depth a of the concave portion, and how the estimated viewing angle assumed by a human changes according to the critical angle of the robot apparatus 1. Find out.
【0052】推定視野角の変化は、図11に示すよう
に、ロボット装置1の周囲A〜Eの地点を人間が移動す
ることにより調べる。すなわち、ロボット装置1の周囲
を人間が移動し、人間がロボット装置1の視野から離れ
たと感じた位置をロボット装置1の推定視野角とする。
図12の上図は、ロボット装置1の臨界角を60度とし
たときのロボット装置1の外観を示す図である。ここ
で、ロボット装置1の臨界角は60度に設定してあるの
で、人間がロボット装置1の正面から移動するにしたが
って、ロボット装置1のレンズ233は見えにくくな
る。そして、図11のCの位置、すなわち、臨界角に人
間が移動すると、ロボット装置1のレンズ233は見え
なくなる。また、図12の下図は、凹部の深さaを0と
し、ロボット装置1の臨界角を180度としたときのロ
ボット装置1の外観を示す図である。ここで、ロボット
装置1の臨界角は180度に設定してあるので、図11
のEの位置に人間が移動しても、人間は、ロボット装置
1のレンズ233を見ることができる。As shown in FIG. 11, the change in the estimated viewing angle is examined by a person moving at points A to E around the robot apparatus 1. That is, the position at which a human moves around the robot apparatus 1 and feels that the person has left the field of view of the robot apparatus 1 is set as the estimated viewing angle of the robot apparatus 1.
The upper diagram of FIG. 12 is a diagram showing the appearance of the robot apparatus 1 when the critical angle of the robot apparatus 1 is 60 degrees. Here, since the critical angle of the robot apparatus 1 is set to 60 degrees, the lens 233 of the robot apparatus 1 becomes less visible as a person moves from the front of the robot apparatus 1. Then, when the human moves to the position of C in FIG. 11, that is, the critical angle, the lens 233 of the robot apparatus 1 becomes invisible. Further, the lower diagram of FIG. 12 is a diagram showing the appearance of the robot apparatus 1 when the depth a of the recess is 0 and the critical angle of the robot apparatus 1 is 180 degrees. Here, since the critical angle of the robot apparatus 1 is set to 180 degrees, FIG.
Even if the human moves to the position E, the human can see the lens 233 of the robot apparatus 1.
【0053】図13は、推定視野角と臨界角との関係を
示すグラフである。臨界角と推定視野角は、臨界角が1
20度になるまで、推定視野角=臨界角の関係が成り立
つ。そのため、ロボット装置1のレンズ233の画角と
臨界角が一致するように、ロボット装置1の凹部の形状
をデザインすると、レンズ233の画角=推定視野角の
関係が成り立つようになり、人間の想定するロボット装
置1の視野と実際のロボット装置1の視野が一致する。
このように、レンズの画角=推定視野角となるように、
ロボット装置1の凹部の形状を決定すると、人間がロボ
ット装置1の視野を誤解することがなくなり、人間とロ
ボット装置1が円滑にコミュニケーションをとれるよう
になる。FIG. 13 is a graph showing the relationship between the estimated viewing angle and the critical angle. The critical angle and the estimated viewing angle have a critical angle of 1
The relationship of estimated viewing angle = critical angle holds until the angle reaches 20 degrees. Therefore, if the shape of the concave portion of the robot apparatus 1 is designed so that the angle of view of the lens 233 of the robot apparatus 1 matches the critical angle, the relationship of the angle of view of the lens 233 = estimated viewing angle is established, and the relationship between The field of view of the assumed robot apparatus 1 and the field of view of the actual robot apparatus 1 match.
Thus, the angle of view of the lens is equal to the estimated viewing angle,
When the shape of the concave portion of the robot apparatus 1 is determined, the human does not misunderstand the field of view of the robot apparatus 1, and the human and the robot apparatus 1 can smoothly communicate with each other.
【0054】なお、図13のグラフでは、臨界角が12
0度を超えると推定視野角が一定になり、推定視野角=
臨界角の関係がなくなるが、これは人間の視野角が12
0度前後であり、臨界角が120度を超えると視野の範
囲から離れたと感じるためである。In the graph of FIG. 13, the critical angle is 12
When the angle exceeds 0 degrees, the estimated viewing angle becomes constant, and the estimated viewing angle =
The relationship of the critical angle disappears, but this is a human viewing angle of 12
This is because it is around 0 degree, and when the critical angle exceeds 120 degrees, it is felt that the user has left the field of view.
【0055】次に、本発明を適用したほかの具体例につ
いて説明する。他の具体例は、図14に示すように、C
CDカメラ203の前面にレンズ233を取り付け、こ
のレンズ233の周囲にレンズ233の画角と同一の開
口角を有するカバー234を取り付けている。このよう
に、レンズ233の画角と同一の開口角を有するカバー
234を取り付けると、人間はこのカバー234の内側
の空間に入るまで、レンズ233を見ることができな
い。そのため、人間の推定視野角=開口角の関係が生ま
れ、さらに推定視野角=レンズ233の画角という関係
が生まれる。以上のように、レンズ233の周囲にレン
ズ233の画角と同一の開口角を有するカバー234を
設けると、人間の推定視野角がレンズ233の画角と同
一になり、人間の想定するロボット装置1の視野と、実
際のロボット装置1の視野が一致する。このことによ
り、人間がロボット装置1の視野を誤解することがなく
なり、人間とロボット装置1が円滑にコミュニケーショ
ンをとることができるようになる。Next, another specific example to which the present invention is applied will be described. As another specific example, as shown in FIG.
A lens 233 is attached to the front surface of the CD camera 203, and a cover 234 having the same opening angle as the angle of view of the lens 233 is attached around the lens 233. As described above, when the cover 234 having the same opening angle as the angle of view of the lens 233 is attached, the person cannot see the lens 233 until the person enters the space inside the cover 234. Therefore, the relationship of human estimated viewing angle = aperture angle is created, and further the relationship of estimated viewing angle = angle of view of the lens 233 is created. As described above, when the cover 234 having the same opening angle as the angle of view of the lens 233 is provided around the lens 233, the human's estimated viewing angle becomes the same as the angle of view of the lens 233, and the robot apparatus assumed by the human is assumed. The visual field of 1 and the actual visual field of the robot apparatus 1 match. As a result, the human does not misunderstand the field of view of the robot apparatus 1, and the human and the robot apparatus 1 can smoothly communicate with each other.
【0056】また、本具体例におけるカバー234の開
口角を少し広くすると、カバー234はレンズ233の
視野角の範囲外に存在する。そのため、カバー234を
導光部材で形成し、LEDの点等によりカバー234が
発光しても、カバー234から発した光はCCDカメラ
203に入射されることはなく、ロボット装置1の感情
を表現するために眼の周辺のカバー234を光らせて
も、その光によってCCDカメラ203の撮影する像が
変化することはない。なお、カバー234の開口角は、
レンズの画角より5度前後広くすることが適当である。If the opening angle of the cover 234 in this example is widened, the cover 234 exists outside the viewing angle range of the lens 233. Therefore, even if the cover 234 is formed of a light guide member and the cover 234 emits light due to an LED or the like, the light emitted from the cover 234 is not incident on the CCD camera 203 and expresses the emotion of the robot apparatus 1. Therefore, even if the cover 234 around the eyes is illuminated, the light does not change the image captured by the CCD camera 203. The opening angle of the cover 234 is
It is suitable that the angle of view of the lens is wider by about 5 degrees.
【0057】図15には、ロボット装置1の制御システ
ム構成を模式的に示している。同図に示すように、ロボ
ット装置1は、ヒトの四肢を表現した体幹部ユニット
2,頭部ユニット3,腕部ユニット4R/L,脚部ユニ
ット5R/Lと、各ユニット間の協調動作を実現するた
めの適応制御を行う制御ユニット10とで構成される。FIG. 15 schematically shows the control system configuration of the robot apparatus 1. As shown in the figure, the robot device 1 performs a coordinated operation between the trunk unit 2, the head unit 3, the arm unit 4R / L, the leg unit 5R / L, which represent human limbs, and the respective units. And a control unit 10 that performs adaptive control for realizing the above.
【0058】ロボット装置1全体の動作は、制御ユニッ
ト10によって統括的に制御される。制御ユニット10
は、CPU(Central Processing Unit)や、DRA
M、フラッシュROM等の主要回路コンポーネント(図
示しない)で構成される主制御部11と、電源回路やロ
ボット装置1の各構成要素とのデータやコマンドの授受
を行うインターフェイス(何れも図示しない)等を含ん
だ周辺回路12とで構成される。The overall operation of the robot apparatus 1 is controlled by the control unit 10. Control unit 10
Is a CPU (Central Processing Unit) or DRA
An interface (not shown) for exchanging data and commands between the main control unit 11 including main circuit components (not shown) such as M and a flash ROM, and the power circuit and each component of the robot apparatus 1. And the peripheral circuit 12 including.
【0059】本発明を実現するうえで、この制御ユニッ
ト10の設置場所は、特に限定されない。図15では体
幹部ユニット2に搭載されているが、頭部ユニット3に
搭載してもよい。或いは、ロボット装置1外に制御ユニ
ット10を配備して、ロボット装置1の機体とは有線又
は無線で交信するようにしてもよい。In realizing the present invention, the installation place of the control unit 10 is not particularly limited. Although it is mounted on the trunk unit 2 in FIG. 15, it may be mounted on the head unit 3. Alternatively, the control unit 10 may be provided outside the robot apparatus 1 to communicate with the body of the robot apparatus 1 by wire or wirelessly.
【0060】図2に示したロボット装置1内の各関節自
由度は、それぞれに対応するアクチュエータによって実
現される。すなわち、頭部ユニット3には、首関節ヨー
軸101、首関節ピッチ軸102、首関節ロール軸10
3の各々を表現する首関節ヨー軸アクチュエータA2、
首関節ピッチ軸アクチュエータA3、首関節ロール軸ア
クチュエータA4が配設されている。The degree of freedom of each joint in the robot apparatus 1 shown in FIG. 2 is realized by an actuator corresponding to each joint. That is, the head unit 3 includes a neck joint yaw axis 101, a neck joint pitch axis 102, and a neck joint roll axis 10.
3, the neck joint yaw axis actuator A 2 representing each of
A neck joint pitch axis actuator A 3 and a neck joint roll axis actuator A 4 are arranged.
【0061】また、頭部ユニット3には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラが設けられているほか、前方に位置する物体までの距
離を測定するための距離センサ、外部音を集音するため
のマイクロフォン、音声を出力するためのスピーカ、使
用者からの「撫でる」や「叩く」といった物理的な働き
かけにより受けた圧力を検出するためのタッチセンサ等
が配設されている。Further, the head unit 3 is provided with a CCD (Charge Coupled Device) camera for picking up an image of an external situation, and a distance sensor for measuring a distance to an object located in front, A microphone for collecting external sound, a speaker for outputting voice, a touch sensor for detecting the pressure received by the physical action of the user such as "stroking" or "striking" are provided. ing.
【0062】また、体幹部ユニット2には、体幹ピッチ
軸104、体幹ロール軸105、体幹ヨー軸106の各
々を表現する体幹ピッチ軸アクチュエータA5、体幹ロ
ール軸アクチュエータA6、体幹ヨー軸アクチュエータ
A7が配設されている。また、体幹部ユニット2には、
このロボット装置1の起動電源となるバッテリを備えて
いる。このバッテリは、充放電可能な電池によって構成
されている。The trunk unit 2 includes a trunk pitch axis actuator A 5 , a trunk roll axis actuator A 6 , which expresses the trunk pitch axis 104, trunk roll axis 105, and trunk yaw axis 106, respectively. A trunk yaw axis actuator A 7 is provided. Also, in the trunk unit 2,
The robot apparatus 1 is provided with a battery as a power source. This battery is composed of a chargeable / dischargeable battery.
【0063】また、腕部ユニット4R/Lは、上腕ユニ
ット41R/Lと、肘関節ユニット42R/Lと、前腕
ユニット43R/Lに細分化されるが、肩関節ピッチ軸
107、肩関節ロール軸108、上腕ヨー軸109、肘
関節ピッチ軸110、前腕ヨー軸111、手首関節ピッ
チ軸112、手首関節ロール軸113の各々表現する肩
関節ピッチ軸アクチュエータA8、肩関節ロール軸アク
チュエータA9、上腕ヨー軸アクチュエータA10、肘
関節ピッチ軸アクチュエータA11、肘関節ロール軸ア
クチュエータA12、手首関節ピッチ軸アクチュエータ
A13、手首関節ロール軸アクチュエータA14が配備
されている。The arm unit 4R / L is subdivided into an upper arm unit 4 1 R / L, an elbow joint unit 4 2 R / L, and a forearm unit 4 3 R / L. 107, shoulder joint roll axis 108, upper arm yaw axis 109, elbow joint pitch axis 110, forearm yaw axis 111, wrist joint pitch axis 112, wrist joint roll axis 113, respectively, shoulder joint pitch axis actuator A 8 , shoulder joint roll An axis actuator A 9 , an upper arm yaw axis actuator A 10 , an elbow joint pitch axis actuator A 11 , an elbow joint roll axis actuator A 12 , a wrist joint pitch axis actuator A 13 , and a wrist joint roll axis actuator A 14 are provided.
【0064】また、脚部ユニット5R/Lは、大腿部ユ
ニット51R/Lと、膝ユニット5 2R/Lと、脛部ユ
ニット53R/Lに細分化されるが、股関節ヨー軸11
5、股関節ピッチ軸116、股関節ロール軸117、膝
関節ピッチ軸118、足首関節ピッチ軸119、足首関
節ロール軸120の各々を表現する股関節ヨー軸アクチ
ュエータA16、股関節ピッチ軸アクチュエータ
A17、股関節ロール軸アクチュエータA18、膝関節
ピッチ軸アクチュエータA19、足首関節ピッチ軸アク
チュエータA20、足首関節ロール軸アクチュエータA
21が配備されている。各関節に用いられるアクチュエ
ータA2,A3・・・は、より好ましくは、ギア直結型で
旦つサーボ制御系をワンチップ化してモータ・ユニット
内に搭載したタイプの小型ACサーボ・アクチュエータ
で構成することができる。The leg unit 5R / L is used for the thigh unit.
Knit 51R / L and knee unit 5 TwoR / L and shin
Knit 5ThreeAlthough it is subdivided into R / L, the hip joint yaw axis 11
5, hip pitch axis 116, hip roll axis 117, knee
Joint pitch axis 118, ankle joint pitch axis 119, ankle function
Hip joint yaw axis actuation expressing each of the knot roll axes 120
Player A16, Hip joint pitch axis actuator
A17, Hip joint roll axis actuator A18,Knee joint
Pitch axis actuator A19, Ankle joint pitch axis
Cheetah A20, Ankle joint roll axis actuator A
21Has been deployed. Actuator used for each joint
Data ATwo, AThreeIs more preferably a direct gear type
Motor unit with integrated servo control system in one chip
Small type AC servo actuator mounted inside
Can be composed of
【0065】体幹部ユニット2、頭部ユニット3、各腕
部ユニット4R/L、各脚部ユニット5R/L等の各機
構ユニット毎に、アクチュエータ駆動制御部の副制御部
20,21,22R/L,23R/Lが配備されてい
る。さらに、各脚部ユニット5R/Lの足底が着床した
か否かを検出する接地確認センサ30R/Lを装着する
とともに、体幹部ユニット2内には、姿勢を計測する姿
勢センサ31を装備している。For each mechanical unit such as the trunk unit 2, the head unit 3, each arm unit 4R / L, each leg unit 5R / L, etc., the sub-control units 20, 21, 22R / of the actuator drive control unit are provided. L, 23R / L are deployed. Furthermore, a ground contact confirmation sensor 30R / L that detects whether or not the sole of each leg unit 5R / L has landed is attached, and a posture sensor 31 that measures a posture is provided in the trunk unit 2. is doing.
【0066】接地確認センサ30R/Lは、例えば足底
に設置された近接センサ又はマイクロ・スイッチ等で構
成される。また、姿勢センサ31は、例えば、加速度セ
ンサとジャイロ・センサの組み合わせによって構成され
る。The ground contact confirmation sensor 30R / L is composed of, for example, a proximity sensor or a micro switch installed on the sole of the foot. Further, the posture sensor 31 is composed of, for example, a combination of an acceleration sensor and a gyro sensor.
【0067】接地確認センサ30R/Lの出力によっ
て、歩行・走行等の動作期間中において、左右の各脚部
が現在立脚又は遊脚何れの状態であるかを判別すること
ができる。また、姿勢センサ31の出力により、体幹部
分の傾きや姿勢を検出することができる。By the output of the ground contact confirmation sensor 30R / L, it is possible to determine whether each of the left and right legs is currently standing or swinging during an operation period such as walking or running. Further, the output of the posture sensor 31 can detect the inclination and posture of the trunk.
【0068】主制御部11は、各センサ30R/L,3
1の出力に応答して制御眼標をダイナミックに補正する
ことができる。より具体的には、副制御部20,21,
22R/L,23R/Lの各々に対して適応的な制御を
行い、ロボット装置1の上肢、体幹、及び下肢が協調し
て駆動する全身運動パターンを実現できる。The main control section 11 uses the sensors 30R / L, 3
The control target can be dynamically corrected in response to the output of 1. More specifically, the sub control units 20, 21,
By performing adaptive control on each of 22R / L and 23R / L, it is possible to realize a whole-body movement pattern in which the upper limbs, the trunk, and the lower limbs of the robot apparatus 1 are cooperatively driven.
【0069】ロボット装置1の機体上での全身運動は、
足部運動、ZMP(Zero Moment Point)軌道、体幹運
動、上肢運動、腰部高さ等を設定するとともに、これら
の設定内容にしたがった動作を指示するコマンドを各副
制御部20,21,22R/L,23R/Lに転送す
る。そして、各々の副制御部20,21,・・・等で
は、主制御部11からの受信コマンドを解釈して、各ア
クチュエータA2,A3・・・等に対して駆動制御信号
を出力する。ここでいう「ZMP」とは、歩行中の床反
力によるモーメントがゼロとなる床面上の点のことであ
り、また、「ZMP軌道」とは、例えばロボット装置1
の歩行動作期間中にZMPが動く軌跡を意味する。な
お、ZMPの概念並びにZMPを歩行ロボットの安定度
判別規範に適用する点については、Miomir Vukobratovi
c著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩
行ロボットと人工の足』(日刊工業新聞社))に記載さ
れている。The whole body motion of the robot apparatus 1 on the body is
Foot control, ZMP (Zero Moment Point) trajectory, trunk movement, upper limb movement, waist height, etc. are set, and commands for instructing movements according to these setting contents are issued to the sub control units 20, 21, 22R. / L, 23R / L. The sub-control units 20, 21, ... Interpret the received commands from the main control unit 11 and output drive control signals to the actuators A 2 , A 3 ,. . The “ZMP” mentioned here is a point on the floor surface where the moment due to the floor reaction force during walking becomes zero, and the “ZMP trajectory” is, for example, the robot device 1
Means a locus of movement of the ZMP during the walking motion period. Regarding the concept of ZMP and the application of ZMP to the stability criterion of walking robots, see Miomir Vukobratovi.
c "LEGGED LOCOMOTION ROBOTS" (Ichiro Kato, "Walking Robot and Artificial Feet" (Nikkan Kogyo Shimbun)).
【0070】以上のように、ロボット装置1は、各々の
副制御部20,21,・・・等が、主制御部11からの
受信コマンドを解釈して、各アクチュエータA2,A3
・・・に対して駆動制御信号を出力し、各ユニットの駆
動を制御している。これにより、ロボット装置1は、眼
標の姿勢に安定して遷移し、安定した姿勢で歩行でき
る。As described above, in the robot apparatus 1, each of the sub-control units 20, 21, ... Interprets the received command from the main control unit 11, and the respective actuators A 2 , A 3
A drive control signal is output to ... to control the drive of each unit. As a result, the robot apparatus 1 makes a stable transition to the posture of the eye target and can walk in a stable posture.
【0071】また、ロボット装置1における制御ユニッ
ト10では、上述したような姿勢制御のほかに、加速度
センサ、タッチセンサ、接地確認センサ等の各種セン
サ、及びCCDカメラ203からの画像情報、マイクロ
フォンからの音声情報等を統括して処理している。制御
ユニット10では、図示しないが加速度センサ、ジャイ
ロ・センサ、タッチセンサ、距離センサ、マイクロフォ
ン、スピーカ等の各種センサ、各アクチュエータ、CC
Dカメラ203及びバッテリが各々対応するハブを介し
て主制御部11と接続されている。Further, in the control unit 10 in the robot apparatus 1, in addition to the attitude control as described above, various sensors such as an acceleration sensor, a touch sensor, a ground contact confirmation sensor, image information from the CCD camera 203, and a microphone. The voice information etc. are centrally processed. In the control unit 10, although not shown, various sensors such as an acceleration sensor, a gyro sensor, a touch sensor, a distance sensor, a microphone and a speaker, each actuator, CC
The D camera 203 and the battery are connected to the main control unit 11 via the corresponding hubs.
【0072】主制御部11は、上述の各センサから供給
されるセンサデータや画像データ及び音声データを順次
取り込み、これらをそれぞれ内部インターフェイスを介
してDRAM内の所定位置に順次格納する。また、主制
御部11は、バッテリから供給されるバッテリ残量を表
すバッテリ残量データを順次取り込み、これをDRAM
内の所定位置に格納する。DRAMに格納された各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータは、主制御部11がこのロボット装置1の動作制御
を行う際に利用される。The main controller 11 sequentially takes in sensor data, image data, and audio data supplied from the above-mentioned sensors, and sequentially stores them in a predetermined position in the DRAM through the internal interface. Further, the main control unit 11 sequentially takes in the battery remaining amount data representing the battery remaining amount supplied from the battery, and stores this in the DRAM.
It is stored in a predetermined position inside. Each sensor data, image data, voice data, and battery remaining amount data stored in the DRAM are used when the main control unit 11 controls the operation of the robot apparatus 1.
【0073】主制御部11は、ロボット装置1の電源が
投入された初期時、制御プログラムを読み出し、これを
DRAMに格納する。また、主制御部11は、上述のよ
うに主制御部11よりDRAMに順次格納される各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータに基づいて自己及び周囲の状況や、使用者からの指
示及び働きかけの有無等を判断する。The main controller 11 reads out the control program and stores it in the DRAM at the initial stage when the power of the robot apparatus 1 is turned on. In addition, the main control unit 11 uses the sensor data, the image data, the audio data, and the battery remaining amount data that are sequentially stored in the DRAM from the main control unit 11 as described above, based on the self and surrounding conditions and the user. Judging whether or not there are instructions and actions.
【0074】さらに、主制御部11は、この判断結果及
びDRAMに格納した制御プログラムに基づいて自己の
状況に応じて行動を決定するとともに、当該決定結果に
基づいて必要なアクチュエータを駆動させることにより
ロボット装置1に、いわゆる「身振り」、「手振り」と
いった行動をとらせる。Further, the main control section 11 determines an action according to its own situation based on the result of this determination and the control program stored in the DRAM, and drives a necessary actuator based on the determined result. The robot apparatus 1 is caused to take actions such as so-called “gesture” and “hand gesture”.
【0075】このようにしてロボット装置1は、制御プ
ログラムに基づいて自己及び周囲の状況を判断し、使用
者からの指示及び働きかけに応じて自律的に行動でき
る。In this way, the robot apparatus 1 can judge its own and surroundings based on the control program and can act autonomously in accordance with instructions and actions from the user.
【0076】ところで、このロボット装置1は、内部状
態に応じて自律的に行動することができる。そこで、ロ
ボット装置1における制御プログラムのソフトウェア構
成例について、図16〜図21を用いて説明する。By the way, the robot apparatus 1 can act autonomously according to the internal state. Therefore, a software configuration example of the control program in the robot apparatus 1 will be described with reference to FIGS.
【0077】図16において、デバイス・ドライバ・レ
イヤ40は、制御プログラムの最下位層に位置し、複数
のデバイス・ドライバからなるデバイス・ドライバ・セ
ット41から構成されている。この場合、各デバイス・
ドライバは、CCDカメラ203やタイマ等の通常のコ
ンピュータで用いられるハードウェアに直接アクセスす
ることを許されたオブジェクトであり、対応するハード
ウェアからの割り込みを受けて処理を行う。In FIG. 16, the device driver layer 40 is located at the lowest layer of the control program and is composed of a device driver set 41 consisting of a plurality of device drivers. In this case, each device
The driver is an object that is allowed to directly access hardware used in a normal computer such as the CCD camera 203 and a timer, and receives an interrupt from the corresponding hardware to perform processing.
【0078】また、ロボティック・サーバ・オブジェク
ト42は、デバイス・ドライバ・レイヤ40の最下位層
に位置し、例えば上述の各種センサや各アクチュエータ
A2,A3・・・等のハードウェアにアクセスするため
のインターフェイスを提供するソフトウェア群でなるバ
ーチャル・ロボット43と、電源の切換え等を管理する
ソフトウェア群でなるパワーマネージャ44と、他の種
々のデバイス・ドライバを管理するソフトウェア群でな
るデバイス・ドライバ・マネージャ45と、ロボット装
置1の機構を管理するソフトウェア群でなるデザインド
・ロボット46とから構成されている。The robotic server object 42 is located in the lowest layer of the device driver layer 40 and has access to hardware such as the above-mentioned various sensors and actuators A 2 , A 3 ... A virtual robot 43, which is a software group that provides an interface for operating, a power manager 44 that is a software group that manages switching of power supplies, and a device driver that is a software group that manages various other device drivers. A manager 45 and a designed robot 46 that is a software group that manages the mechanism of the robot apparatus 1.
【0079】マネージャ・オブジェクト47は、オブジ
ェクト・マネージャ48及びサービス・マネージャ49
から構成されている。オブジェクト・マネージャ48
は、ロボティック・サーバ・オブジェクト42、ミドル
・ウェア・レイヤ50、及びアプリケーション・レイヤ
51に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ49
は、メモリカードに格納されたコネクションファイルに
記述されている各オブジェクト間の接続情報に基づいて
各オブジェクトの接続を管理するソフトウェア群であ
る。The manager object 47 includes an object manager 48 and a service manager 49.
It consists of Object manager 48
Is a software group that manages activation and termination of each software group included in the robotic server object 42, the middleware layer 50, and the application layer 51, and the service manager 49.
Is a software group that manages the connection of each object based on the connection information between each object described in the connection file stored in the memory card.
【0080】ミドル・ウェア・レイヤ50は、ロボティ
ック・サーバ・オブジェクト42の上位層に位置し、画
像処理や音声処理等のこのロボット装置1の基本的な機
能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ51は、ミドル・ウェア
・レイヤ50の上位層に位置し、当該ミドル・ウェア・
レイヤ50を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。The middleware layer 50 is located on the upper layer of the robotic server object 42 and is composed of a software group which provides basic functions of the robot apparatus 1 such as image processing and voice processing. There is. Further, the application layer 51 is located above the middleware layer 50, and the middleware layer 50
It is composed of a software group for determining the action of the robot apparatus 1 based on the processing result processed by each software group forming the layer 50.
【0081】なお、ミドル・ウェア・レイヤ50及びア
プリケーション・レイヤ51の具体なソフトウェア構成
をそれぞれ図17に示す。Note that the specific software configurations of the middleware layer 50 and the application layer 51 are shown in FIG.
【0082】ミドル・ウェア・レイヤ50は、図17に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール6
0〜68並びに入力セマンティクスコンバータモジュー
ル69等を有する認識系70と、出力セマンティクスコ
ンバータモジュール78並びに姿勢管理用、トラッキン
グ用、モーション再生用、歩行用、転倒復帰用、LED
点灯用及び音再生用の各信号処理モジュール71〜77
等を有する出力系79とから構成されている。The middleware layer 50, as shown in FIG. 17, is for noise detection, temperature detection, brightness detection,
Each signal processing module 6 for scale recognition, distance detection, posture detection, touch sensor, motion detection, and color recognition
A recognition system 70 having 0 to 68 and an input semantics converter module 69, an output semantics converter module 78, and posture management, tracking, motion reproduction, walking, fall recovery, LED
Signal processing modules 71 to 77 for lighting and sound reproduction
And an output system 79 having the same.
【0083】認識系70の各信号処理モジュール60〜
68は、ロボティック・サーバ・オブジェクト42のバ
ーチャル・ロボット43によりDRAMから読み出され
る各センサデータや画像データ及び音声データのうちの
対応するデータを取り込み、当該データに基づいて所定
の処理を施して、処理結果を入力セマンティクスコンバ
ータモジュール69に与える。ここで、例えば、バーチ
ャル・ロボット43は、所定の通信規約によって、信号
の授受或いは変換をする部分として構成されている。Each signal processing module 60 of the recognition system 70
68 captures corresponding data of each sensor data, image data, and audio data read from the DRAM by the virtual robot 43 of the robotic server object 42, performs a predetermined process based on the data, The processing result is given to the input semantics converter module 69. Here, for example, the virtual robot 43 is configured as a portion that exchanges or converts a signal according to a predetermined communication protocol.
【0084】入力セマンティクスコンバータモジュール
69は、これら各信号処理モジュール60〜68から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」等の自己及び周囲の状況や、使用者から
の指令及び働きかけを認識し、認識結果をアプリケーシ
ョン・レイヤ41に出力する。The input semantics converter module 69 detects "noisy", "hot", "bright", "ball detected", and "fall" based on the processing results given from the respective signal processing modules 60 to 68. The user's self and surroundings, such as "Yes", "Stabbed", "Struck", "I heard Domito's scale", "A moving object was detected", or "An obstacle was detected", and the user. It recognizes the command and the action from, and outputs the recognition result to the application layer 41.
【0085】アプリケーション・レイヤ51は、図18
に示すように、行動モデルライブラリ80、行動切換モ
ジュール81、学習モジュール82、感情モデル83及
び本能モデル84の5つのモジュールから構成されてい
る。The application layer 51 is shown in FIG.
As shown in FIG. 5, the action model library 80, the action switching module 81, the learning module 82, the emotion model 83, and the instinct model 84 are composed of five modules.
【0086】行動モデルライブラリ80には、図19に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」等の予め
選択されたいくつかの条件項眼にそれぞれ対応させて、
それぞれ独立した行動モデルが設けられている。In the behavior model library 80, as shown in FIG. 19, "when the battery level is low",
Corresponding to several preselected condition items such as "falling back", "avoiding obstacles", "expressing emotions", "detecting a ball", etc.
Each has an independent behavior model.
【0087】そして、これら行動モデルは、それぞれ入
力セマンティクスコンバータモジュール69から認識結
果が与えられたときや、最後の認識結果が与えられてか
ら一定時間が経過したとき等に、必要に応じて後述のよ
うに感情モデル83に保持されている対応する情動のパ
ラメータ値や、本能モデル84に保持されている対応す
る欲求のパラメータ値を参照しながら続く行動をそれぞ
れ決定し、決定結果を行動切換モジュール81に出力す
る。Each of these behavior models will be described later as necessary, when a recognition result is given from the input semantics converter module 69, or when a fixed time has passed since the last recognition result was given. As described above, each subsequent action is determined with reference to the corresponding emotional parameter value held in the emotion model 83 and the corresponding desire parameter value held in the instinct model 84, and the decision result is determined by the action switching module 81. Output to.
【0088】なお、この実施の形態の場合、各行動モデ
ルは、次の行動を決定する手法として、図8に示すよう
な1つのノード(状態)NODE0〜NODEnから他
のどのノードNODE0〜NODEnに遷移するかを各
ノードNODE0〜NODE nに間を接続するアークA
RC1〜ARCn1に対してそれぞれ設定された遷移確
率P1〜Pnに基づいて確率的に決定する有限確率オー
トマトンと呼ばれるアルゴリズムを用いる。In the case of this embodiment, each action model is
As a method of determining the next action,
One node (state) NODE0~ NODEnFrom others
Throat node NODE0~ NODEnTo transition to each
Node NODE0~ NODE nArc A connecting between
RC1~ ARCn1The transition probability set for each
Rate P1~ PnFinite probability that is determined stochastically based on
It uses an algorithm called Tomaton.
【0089】具体的に、各行動モデルは、それぞれ自己
の行動モデルを形成するノードNODE0〜NODEn
にそれぞれ対応させて、これらノードNODE0〜NO
DE n毎に図20に示すような状態遷移表90を有して
いる。Specifically, each behavior model is
NODE that forms the behavior model of the child0~ NODEn
To correspond to each of these nodes NODE0~ NO
DE nEach has a state transition table 90 as shown in FIG.
There is.
【0090】この状態遷移表90では、そのノードNO
DE0〜NODEnにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。In this state transition table 90, the node NO.
Input events (recognition results) that are transition conditions in DE 0 to NODE n are listed in order of priority in the column of “input event name”, and further conditions regarding the transition conditions are listed in the columns of “data name” and “data range”. It is described in the corresponding line.
【0091】したがって、図21の状態遷移表90で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果とともに与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物を
検出(OBSTACLE)」という認識結果が与えられた場合
に、当該認識結果とともに与えられるその障害物までの
「距離(DISTANCE)」が「0から100」の範囲であること
が他のノードに遷移するための条件となっている。Therefore, in the node NODE 100 represented by the state transition table 90 of FIG. 21, "ball detection (B
ALL) ”is given, the“ size (SIZ) of the ball given together with the recognition result is given.
"E)" is in the range of "0 to 1000" and the recognition result of "obstacle detection (OBSTACLE)" is given, the "distance (DISTANCE) to the obstacle given together with the recognition result is given. ) ”Is in the range of“ 0 to 100 ”is a condition for transition to another node.
【0092】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデルが周期
的に参照する感情モデル83及び本能モデル84にそれ
ぞれ保持された各情動及び各欲求のパラメータ値のう
ち、感情モデル83に保持された「喜び(Joy)」、
「驚き(Surprise)」又は「悲しみ(Sadness)」の何
れかのパラメータ値が「50から100」の範囲であるとき
には他のノードに遷移することができるようになってい
る。Further, in this node NODE 100 , even if there is no recognition result input, the parameter values of each emotion and each desire held in the emotion model 83 and the instinct model 84 which the behavior model periodically refers to are stored. Among them, "Joy" held by emotion model 83,
When the parameter value of either "Surprise" or "Sadness" is in the range of "50 to 100", it is possible to transit to another node.
【0093】また、状態遷移表90では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE0〜NODEnから遷移できるノード
名が列記されているとともに、「入力イベント名」、
「データ名」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できるほかの各ノードNO
DE0〜NODEnへの遷移確率が「他のノードヘの遷
移確率」の欄内の対応する箇所にそれぞれ記述され、そ
のノードNODE0〜NODEnに遷移する際に出力す
べき行動が「他のノードヘの遷移確率」の欄における
「出力行動」の行に記述されている。なお、「他のノー
ドヘの遷移確率」の欄における各行の確率の和は100
[%]となっている。Further, in the state transition table 90, the node names that can transit from the nodes NODE 0 to NODE n are listed in the row of “transition destination node” in the column of “transition probability to other node”, and “ Input event name ",
Other nodes that can be transitioned when all the conditions described in the "Data name" and "Data range" columns are met
The transition probabilities from DE 0 to NODE n are respectively described in the corresponding places in the column of “probability of transition to other node”, and the action to be output when transitioning to the nodes NODE 0 to NODE n is “other It is described in the row of “output action” in the column of “transition probability to node”. In addition, the sum of the probabilities of each row in the column of "probability of transition to other node" is 100.
It is [%].
【0094】したがって、図21の状態遷移表90で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。Therefore, in the node NODE 100 represented by the state transition table 90 of FIG. 21, for example, "ball is detected (BALL)", and the "SIZE" of the ball is in the range of "0 to 1000". If the recognition result that is, is given, there is a probability of "30 [%]"
ODE 120 (node 120) ", at that time" A
The action of “CATION 1” will be output.
【0095】各行動モデルは、それぞれこのような状態
遷移表90として記述されたノードNODE0〜 NO
DEnが幾つも繋がるようにして構成されており、入力
セマンティクスコンバータモジュール69から認識結果
が与えられたとき等に、対応するノードNODE0〜N
ODEnの状態遷移表を利用して確率的に次の行動を決
定し、決定結果を行動切換モジュール81に出力するよ
うになされている。Each behavior model has nodes NODE 0 to NO described as such a state transition table 90.
The DE n are configured to be connected to each other, and when the recognition result is given from the input semantics converter module 69, the corresponding nodes NODE 0 to NDE 0 to N.
The next action is stochastically determined using the state transition table of ODE n , and the determination result is output to the action switching module 81.
【0096】図18に示す行動切換モジュール81は、
行動モデルライブラリ80の各行動モデルからそれぞれ
出力される行動のうち、予め定められた優先順位の高い
行動モデルから出力された行動を選択し、当該行動を実
行すべき旨のコマンド(以下、行動コマンドという。)
をミドル・ウェア・レイヤ50の出力セマンティクスコ
ンバータモジュール78に送出する。なお、この実施の
形態においては、図19において下側に表記された行動
モデルほど優先順位が高く設定されている。The action switching module 81 shown in FIG.
Among the actions output from the action models of the action model library 80, the action output from the action model having a predetermined high priority is selected, and a command to execute the action (hereinafter, action command That.)
To the output semantics converter module 78 of the middleware layer 50. In addition, in this embodiment, the lower the action model shown in FIG. 19, the higher the priority is set.
【0097】また、行動切換モジュール81は、行動完
了後に出力セマンティクスコンバータモジュール78か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール82、感情モデル83及び本
能モデル84に通知する。Further, the action switching module 81 notifies the learning module 82, the emotion model 83, and the instinct model 84 that the action is completed based on the action completion information given from the output semantics converter module 78 after the action is completed. .
【0098】一方、学習モジュール82は、入力セマン
ティクスコンバータモジュール69から与えられる認識
結果のうち、「叩かれた」や「撫でられた」等、使用者
からの働きかけとして受けた教示の認識結果を入力す
る。On the other hand, the learning module 82 inputs the recognition result of the teaching received as an action from the user such as “struck” or “stroked” among the recognition results given from the input semantics converter module 69. To do.
【0099】そして、学習モジュール82は、この認識
結果及び行動切換モジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデルの対応する
遷移確率を変更する。Then, based on the recognition result and the notification from the action switching module 71, the learning module 82 lowers the probability of the action being expressed when "struck (scored)" and "stroked ( Praised) ”, the corresponding transition probability of the corresponding behavior model in the behavior model library 70 is changed so as to increase the occurrence probability of that behavior.
【0100】他方、感情モデル83は、「喜び(Jo
y)」、「悲しみ(Sadness)」、「怒り(Anger)」、
「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐
れ(Fear)」の合計6つの情動について、各情動毎にそ
の情動の強さを表すパラメータを保持している。そし
て、感情モデル83は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
69から与えられる「叩かれた」及び「撫でられた」等
の特定の認識結果や、経過時間及び行動切換モジュール
81からの通知等に基づいて周期的に更新する。On the other hand, the emotion model 83 is "joy (Jo
y) ”,“ Sadness ”,“ Anger ”,
With respect to a total of 6 emotions of “Surprise”, “Disgust”, and “Fear”, a parameter indicating the strength of the emotion is held for each emotion. Then, the emotion model 83 gives specific recognition results such as “struck” and “stabbed” given from the input semantics converter module 69 to the parameter values of each emotion, the elapsed time and the action switching module 81. It is updated periodically based on notifications from
【0101】具体的には、感情モデル83は、入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間と等に基づいて所定の演算式によ
り算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkeとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル83は、これと同様にし
て全ての情動のパラメータ値を更新する。Specifically, the emotion model 83 is determined based on the recognition result provided from the input semantics converter module 69, the action of the robot apparatus 1 at that time, the elapsed time from the last update, and the like. The amount of change in emotion at that time calculated by the arithmetic expression is ΔE
[T], E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) the parameter value of the emotion in a next period by equation E [t +
1] is calculated, and this is used as the current parameter value E of the emotion.
The parameter value of the emotion is updated by replacing it with [t]. Further, the emotion model 83 updates the parameter values of all emotions in the same manner.
【0102】[0102]
【数1】 [Equation 1]
【0103】なお、各認識結果や出力セマンティクスコ
ンバータモジュール78からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。The degree of influence of each recognition result and the notification from the output semantics converter module 78 on the variation amount ΔE [t] of the parameter value of each emotion is predetermined, and for example, “beating The recognition result such as “ta” is the variation amount ΔE of the parameter value of the emotion of “anger”
[T] has a great influence, and the recognition result such as “struck” is the variation amount ΔE of the parameter value of the emotion of “joy”.
It has a great influence on [t].
【0104】ここで、出力セマンティクスコンバータモ
ジュール78からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル83は、このような情報によっ
ても感情を変化させる。これは、例えば、「叫ぶ」とい
った行動により怒りの感情レベルが下がるといったよう
なことである。なお、出力セマンティクスコンバータモ
ジュール78からの通知は、上述した学習モジュール8
2にも入力されており、学習モジュール82は、その通
知に基づいて行動モデルの対応する遷移確率を変更す
る。Here, the notification from the output semantics converter module 78 is so-called action feedback information (action completion information), which is information about the appearance result of the action, and the emotion model 83 is also based on such information. Change emotions. This is, for example, that the behavior level of anger is lowered by the action of "screaming". The notification from the output semantics converter module 78 is sent to the learning module 8 described above.
2 is also input, and the learning module 82 changes the corresponding transition probability of the behavior model based on the notification.
【0105】なお、行動結果のフィードバックは、行動
切換モジュール81の出力(感情が付加された行動)に
よりなされるものであってもよい。The feedback of the action result may be provided by the output of the action switching module 81 (action added with emotion).
【0106】一方、本能モデル84は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求毎にその欲求の強さを表
すパラメータを保持している。そして、本能モデル84
は、これらの欲求のパラメータ値を、それぞれ入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果や、経過時間及び行動切換モジュール81からの
通知等に基づいて周期的に更新する。On the other hand, the instinct model 84 is "exercise desire (exer
cise), “affection”, “appetite”
e) ”and“ curiosity ”independent of each other 4
For each desire, a parameter indicating the strength of the desire is held for each of these desires. And the instinct model 84
Update the parameter values of these desires periodically based on the recognition result given from the input semantics converter module 69, the elapsed time, the notification from the action switching module 81, and the like.
【0107】具体的には、本能モデル84は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール78からの通知等に基づいて所定の演算式により算
出されるそのときのその欲求の変動量をΔI[k]、現
在のその欲求のパラメータ値をI[k]、その欲求の感
度を表す係数kiとして、所定周期で(2)式を用いて
次の周期におけるその欲求のパラメータ値I[k+1]
を算出し、この演算結果を現在のその欲求のパラメータ
値I[k]と置き換えるようにしてその欲求のパラメー
タ値を更新する。また、本能モデル84は、これと同様
にして「食欲」を除く各欲求のパラメータ値を更新す
る。Specifically, the instinct model 84 determines the "motility", "love" and "curiosity" based on the recognition result, the elapsed time, the notification from the output semantics converter module 78, and the like. The variation amount of the desire at that time calculated by the arithmetic expression is ΔI [k], the current parameter value of the desire is I [k], and a coefficient k i representing the sensitivity of the desire is set in a predetermined cycle (2). The parameter value I [k + 1] of that desire in the next cycle using the formula
Is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire, and the parameter value of the desire is updated. Further, the instinct model 84 updates the parameter value of each desire except “appetite” in the same manner.
【0108】[0108]
【数2】 [Equation 2]
【0109】なお、認識結果及び出力セマンティクスコ
ンバータモジュール78からの通知等が各欲求のパラメ
ータ値の変動量△I[k]にどの程度の影響を与えるか
は予め決められており、例えば出力セマンティクスコン
バータモジュール78からの通知は、「疲れ」のパラメ
ータ値の変動量△I[k]に大きな影響を与えるように
なっている。The degree of influence of the recognition result and the notification from the output semantics converter module 78 on the variation amount ΔI [k] of the parameter value of each desire is predetermined, and for example, the output semantics converter is used. The notification from the module 78 has a great influence on the fluctuation amount ΔI [k] of the “tiredness” parameter value.
【0110】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から10
0までの範囲で変動するように規制されており、また係
数k e、kiの値も各情動及び各欲求毎に個別に設定さ
れている。In this embodiment, each affect
And each desire (instinct) parameter value is 0 to 10
It is regulated to fluctuate within the range of 0, and
A few k e, KiThe value of is also set individually for each emotion and each desire.
Has been.
【0111】一方、ミドル・ウェア・レイヤ50の出力
セマンティクスコンバータモジュール78は、図17に
示すように、上述のようにしてアプリケーション・レイ
ヤ51の行動切換モジュール81から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系79の対応する信号処理モジュール71〜77に与え
る。On the other hand, the output semantics converter module 78 of the middleware layer 50, as shown in FIG. 17, is "forward" and "pleasant" given from the action switching module 81 of the application layer 51 as described above. , An abstract action command such as “squeal” or “tracking (chasing the ball)” is given to the corresponding signal processing modules 71 to 77 of the output system 79.
【0112】そしてこれら信号処理モジュール71〜7
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動をするために対応するアクチュエー
タに与えるべきサーボ指令値や、スピーカから出力する
音の音声データ及び又はLEDに与える駆動データを生
成し、これらのデータをロボティック・サーバ・オブジ
ェクト42のバーチャル・ロボット43及び信号処理回
路を順次介して対応するアクチュエータ又はスピーカ又
はLEDに順次送出する。Then, these signal processing modules 71 to 7
When an action command is given, 7 generates a servo command value to be given to a corresponding actuator to take the action, sound data of sound output from a speaker, and / or drive data given to the LED, based on the action command. Then, these data are sequentially transmitted to the corresponding actuator or speaker or LED via the virtual robot 43 of the robotic server object 42 and the signal processing circuit.
【0113】このようにしてロボット装置1は、上述し
た制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動ができる。In this way, the robot apparatus 1 can perform an autonomous action according to its own (internal) and surrounding (external) situations, and instructions and actions from the user, based on the above-mentioned control program.
【0114】このような制御プログラムは、ロボット装
置1が読取可能な形式で記録された記録媒体を介して提
供される。制御プログラムを記録する記録媒体として
は、磁気読取方式の記録媒体(例えば、磁気テープ、フ
レキシブルディスク、磁気カード)、光学読取方式の記
録媒体(例えば、CD−ROM、MO、CD−R、DV
D)等が考えられる。記録媒体には、半導体メモリ(い
わゆるメモリカード(矩形型、正方形型等形状は問わな
い。)、ICカード)等の記憶媒体も含まれる。また、
制御プログラムは、いわゆるインターネット等を介して
提供されてもよい。The control program as described above is provided via a recording medium recorded in a format readable by the robot apparatus 1. As a recording medium for recording the control program, a magnetic reading type recording medium (for example, a magnetic tape, a flexible disk, a magnetic card), an optical reading type recording medium (for example, CD-ROM, MO, CD-R, DV).
D) and the like are possible. The recording medium also includes a storage medium such as a semiconductor memory (so-called memory card (rectangular type, square type, or the like), IC card) or the like. Also,
The control program may be provided via the so-called Internet or the like.
【0115】これらの制御プログラムは、専用の読込ド
ライバ装置、又はパーソナルコンピュータ等を介して再
生され、有線又は無線接続によってロボット装置1に伝
送されて読み込まれる。また、ロボット装置1は、半導
体メモリ、又はICカード等の小型化された記憶媒体の
ドライブ装置を備える場合、これら記憶媒体から制御プ
ログラムを直接読み込むこともできる。These control programs are reproduced via a dedicated read driver device, a personal computer or the like, and transmitted to the robot device 1 by a wired or wireless connection to be read. Further, when the robot device 1 includes a drive device for a miniaturized storage medium such as a semiconductor memory or an IC card, the control program can be directly read from the storage medium.
【0116】なお、本発明は、上述した具体例に限定さ
れることはなく、本発明の要旨を含む範囲での変形、改
良は本発明に含まれるものとする。ここで、本発明の要
旨とは、人間がロボット装置の「眼」を視認できる範囲
を狭め、人間がロボット装置の「眼」を視認できる範囲
と、ロボット装置の実際の視野角とを一致することであ
る。The present invention is not limited to the above-mentioned specific examples, and modifications and improvements within the scope including the gist of the present invention are included in the present invention. Here, the gist of the present invention is to narrow the range in which a human can visually recognize the “eye” of the robot device, and to match the range in which the human can visually recognize the “eye” of the robot device and the actual viewing angle of the robot device That is.
【0117】[0117]
【発明の効果】以上詳細に説明したように、本発明に係
るロボット装置は、外部情報、外部からの働きかけに応
じた動作及び/又は内部状態に基づく自律的動作を実行
するロボット装置であって、見かけの眼の位置に配置さ
れ外部情報を取得する撮像手段と、撮像手段が外部から
視認される範囲を制限する遮蔽部とを備えることによっ
て、人間がロボット装置の「眼」を視認できる範囲を狭
め、ロボット装置の眼を視認できる範囲とロボット装置
のもつ実際の視野とを一致することができる。As described in detail above, the robot apparatus according to the present invention is a robot apparatus that executes an autonomous operation based on external information, an external action, and / or an internal state. A range in which a human can visually recognize the “eye” of the robot apparatus by including an image pickup unit arranged at an apparent eye position to acquire external information and a shielding unit that limits a range in which the image pickup unit is visually recognized from the outside. Can be narrowed so that the range in which the eyes of the robot apparatus can be visually recognized matches the actual visual field of the robot apparatus.
【0118】これにより、人間とロボット装置との間の
コミュニケーションが円滑に行えるようになるととも
に、ロボット装置のエンターテインメント性を向上する
ことができる。As a result, communication between the human and the robot device can be carried out smoothly, and the entertainment property of the robot device can be improved.
【図1】本実施の形態におけるロボット装置の外観構成
を示す斜視図である。FIG. 1 is a perspective view showing an external configuration of a robot apparatus according to this embodiment.
【図2】同ロボット装置の自由度構成モデルを模式的に
示す図である。FIG. 2 is a diagram schematically showing a degree-of-freedom configuration model of the robot apparatus.
【図3】頭部ユニットの正面外観を示す図である。FIG. 3 is a diagram showing a front appearance of a head unit.
【図4】頭部ユニットの側面外観を示す図である。FIG. 4 is a diagram showing a side surface appearance of a head unit.
【図5】ロボット装置の正面外観を示す図である。FIG. 5 is a diagram showing a front appearance of the robot apparatus.
【図6】ロボット装置の側面外観を示す図である。FIG. 6 is a diagram showing a side appearance of the robot apparatus.
【図7】眼底部基板の構造を示す図である。FIG. 7 is a diagram showing a structure of a fundus substrate.
【図8】人間の想定するロボット装置の視野を示す図で
ある。FIG. 8 is a diagram showing a visual field of a robot apparatus assumed by a human.
【図9】凹部の形成する臨界角を示す図である。FIG. 9 is a diagram showing a critical angle formed by a recess.
【図10】ロボット装置の眼の構造を示す模式図であ
る。FIG. 10 is a schematic diagram showing an eye structure of the robot apparatus.
【図11】推定視野角と臨界角の関連を調査する実験の
方法を示す図である。FIG. 11 is a diagram showing an experimental method for investigating the relationship between the estimated viewing angle and the critical angle.
【図12】異なる臨界角を有するロボット装置の外観を
示す図である。FIG. 12 is a diagram showing an appearance of a robot apparatus having different critical angles.
【図13】推定視野角と臨界角の関連を示す図である。FIG. 13 is a diagram showing a relationship between an estimated viewing angle and a critical angle.
【図14】他の具体例におけるロボット装置の眼の構造
を示す模式図である。FIG. 14 is a schematic diagram showing an eye structure of a robot apparatus according to another specific example.
【図15】ロボット装置の回路構成を示すブロック図で
ある。FIG. 15 is a block diagram showing a circuit configuration of a robot apparatus.
【図16】ロボット装置のソフトウェア構成を示すブロ
ック図である。FIG. 16 is a block diagram showing a software configuration of a robot apparatus.
【図17】ロボット装置のソフトウェア構成におけるミ
ドル・ウェア・レイヤの構成を示すブロック図である。FIG. 17 is a block diagram showing the configuration of a middle wear layer in the software configuration of the robot device.
【図18】ロボット装置のソフトウェア構成におけるア
プリケーション・レイヤの構成を示すブロック図であ
る。FIG. 18 is a block diagram showing a configuration of an application layer in the software configuration of the robot device.
【図19】アプリケーション・レイヤの行動モデルライ
ブラリの構成を示すブロック図である。FIG. 19 is a block diagram showing a configuration of an application layer behavior model library.
【図20】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明する図である。FIG. 20 is a diagram illustrating a finite probability automaton that serves as information for determining the action of the robot device.
【図21】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明する図である。FIG. 21 is a diagram illustrating a finite probability automaton that serves as information for determining the behavior of the robot device.
【図22】従来のペット型ロボットの外観を示す図であ
る。FIG. 22 is a diagram showing an appearance of a conventional pet robot.
【図23】従来のペット型ロボットの外観を示す図であ
る。FIG. 23 is a diagram showing an appearance of a conventional pet robot.
【図24】従来のペット型ロボットの外観を示す図であ
る。FIG. 24 is a diagram showing an appearance of a conventional pet robot.
【図25】従来のヒューマノイド型ロボットの外観を示
す図である。FIG. 25 is a diagram showing an appearance of a conventional humanoid robot.
【符号の説明】
1 ロボット装置、203 CCDカメラ、207 頭
部外装筐体、208 眼用開口部、230 眼底部基
板、233 レンズ、232 導光部材、234 カバ
ー、a 凹部の深さ[Explanation of reference numerals] 1 robot device, 203 CCD camera, 207 head exterior housing, 208 eye opening, 230 fundus substrate, 233 lens, 232 light guide member, 234 cover, a recess depth
───────────────────────────────────────────────────── フロントページの続き (72)発明者 永塚 正樹 千葉県香取郡小見川町小見川2170番地 ソ ニーコンポーネント千葉株式会社内 Fターム(参考) 2H105 CC01 3C007 AS36 CS08 KT03 KT04 MT04 WA03 WA13 WC25 5C022 AA01 AC42 AC77 ─────────────────────────────────────────────────── ─── Continued front page (72) Inventor Masaki Nagatsuka 2170 Omigawa, Omigawa-cho, Katori-gun, Chiba Prefecture Knee Component Chiba Co., Ltd. F-term (reference) 2H105 CC01 3C007 AS36 CS08 KT03 KT04 MT04 WA03 WA13 WC25 5C022 AA01 AC42 AC77
Claims (5)
動作及び/又は内部状態に基づく自律的動作を実行する
ロボット装置において、 見かけの眼の位置に配置され外部情報を取得する撮像手
段と、 上記撮像手段が外部から視認される範囲を制限する遮蔽
部とを備えることを特徴とするロボット装置。1. A robot apparatus for executing external information, an operation in response to an external action and / or an autonomous operation based on an internal state, and an image pickup unit arranged at an apparent eye position to acquire the external information. A robot apparatus comprising: a shielding unit that limits a range in which the imaging unit is visually recognized from the outside.
視認される範囲と上記撮像手段によって撮像される画像
の画角とが略一致するように設けられていることを特徴
とする請求項1記載のロボット装置。2. The shielding unit is provided so that a range in which the image pickup unit is visually recognized from the outside and a view angle of an image picked up by the image pickup unit are substantially coincident with each other. 1. The robot apparatus according to 1.
記撮像手段は、該凹部の底部に設置され、上記凹部の深
さによって、上記撮像手段を視認可能な範囲を規定する
ことを特徴とする請求項1記載のロボット装置。3. The shielding part is formed as a recess, the image pickup means is installed at the bottom of the recess, and the depth of the recess defines the visible range of the image pickup means. The robot apparatus according to claim 1.
成された筒状部であり、上記筒状部の高さによって、上
記撮像手段が視認可能な範囲を規定することを特徴とす
る請求項1記載のロボット装置。4. The shielding portion is a tubular portion formed around the image pickup means, and a height of the tubular portion defines a visible range of the image pickup means. The robot apparatus according to claim 1.
る略円錐形状の部材として形成され、上記撮像手段は、
上記円錐形状部材の頂点部に設置され、上記円錐形状部
材の頂角角度によって、上記撮像手段を視認可能な範囲
を規定することを特徴とする請求項1記載のロボット装
置。5. The shielding portion is formed as a substantially conical member having an opening bottom face as an image pickup direction, and the image pickup means includes:
The robot apparatus according to claim 1, wherein the robot apparatus is installed at the apex of the conical member, and defines a range in which the image pickup means can be visually recognized by an apex angle of the conical member.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002075149A JP2003266364A (en) | 2002-03-18 | 2002-03-18 | Robot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002075149A JP2003266364A (en) | 2002-03-18 | 2002-03-18 | Robot device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003266364A true JP2003266364A (en) | 2003-09-24 |
Family
ID=29204336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002075149A Withdrawn JP2003266364A (en) | 2002-03-18 | 2002-03-18 | Robot device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003266364A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008221431A (en) * | 2007-03-15 | 2008-09-25 | Hitachi Ltd | Robot |
CN106426223A (en) * | 2016-12-16 | 2017-02-22 | 北京奇虎科技有限公司 | Robot |
JP2019005846A (en) * | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | Robot, control method and program of the robot |
CN112467819A (en) * | 2020-09-17 | 2021-03-09 | 张芷铉 | Thermal imaging technology-based automatic charging protection system for electric bicycle |
US20240066420A1 (en) * | 2021-01-22 | 2024-02-29 | Sony Group Corporation | Autonomous moving object and information processing method |
-
2002
- 2002-03-18 JP JP2002075149A patent/JP2003266364A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008221431A (en) * | 2007-03-15 | 2008-09-25 | Hitachi Ltd | Robot |
US8041458B2 (en) | 2007-03-15 | 2011-10-18 | Hitachi, Ltd. | Robot |
CN106426223A (en) * | 2016-12-16 | 2017-02-22 | 北京奇虎科技有限公司 | Robot |
JP2019005846A (en) * | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | Robot, control method and program of the robot |
CN112467819A (en) * | 2020-09-17 | 2021-03-09 | 张芷铉 | Thermal imaging technology-based automatic charging protection system for electric bicycle |
US20240066420A1 (en) * | 2021-01-22 | 2024-02-29 | Sony Group Corporation | Autonomous moving object and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3714268B2 (en) | Robot device | |
JP4086024B2 (en) | Robot apparatus and behavior control method thereof | |
Bar-Cohen et al. | The coming robot revolution: Expectations and fears about emerging intelligent, humanlike machines | |
JP4239635B2 (en) | Robot device, operation control method thereof, and program | |
EP3456487A2 (en) | Robot, method of controlling the same, and program | |
EP1151779A2 (en) | Robot and action deciding method for robot | |
JP7626179B2 (en) | Information processing device and information processing method | |
WO2002032629A1 (en) | Robot device and behavior control method for robot device | |
US20200269421A1 (en) | Information processing device, information processing method, and program | |
JP7363809B2 (en) | Information processing device, information processing method, and program | |
US20190366554A1 (en) | Robot interaction system and method | |
JP2004302644A (en) | Face identification device, face identification method, recording medium and robot device | |
WO2020166373A1 (en) | Information processing device and information processing method | |
WO2022158279A1 (en) | Autonomous mobile body and information processing method | |
JP2003266364A (en) | Robot device | |
JP4281286B2 (en) | Robot apparatus and control method thereof | |
JP2003271958A (en) | Image processing method, device thereof, program thereof, recording medium thereof, and robot device mounted with image processing device | |
JP2004302645A (en) | Face registration device, face registration method, recording medium and robot device | |
JP2003266350A (en) | Robot device and internal condition expressing device | |
JP2003269579A (en) | Power transmission device and robot device | |
JP2003266361A (en) | Power transmission device and robot device | |
US20240367065A1 (en) | Autonomous mobile body, information processing method, and program | |
JP2007125629A (en) | Robot device and motion control method | |
US20240367066A1 (en) | Autonomous mobile body, information processing method, and program | |
JP2003266363A (en) | Robot device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20050607 |