JP4556425B2 - Content reproduction system, content reproduction method, and content reproduction apparatus - Google Patents
Content reproduction system, content reproduction method, and content reproduction apparatus Download PDFInfo
- Publication number
- JP4556425B2 JP4556425B2 JP2003413427A JP2003413427A JP4556425B2 JP 4556425 B2 JP4556425 B2 JP 4556425B2 JP 2003413427 A JP2003413427 A JP 2003413427A JP 2003413427 A JP2003413427 A JP 2003413427A JP 4556425 B2 JP4556425 B2 JP 4556425B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- internal state
- information
- robot apparatus
- image content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Toys (AREA)
Description
本発明は、コンテンツ再生システム、コンテンツ再生方法、及びコンテンツ再生装置に関し、具体的には、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の内部状態に適合したコンテンツを再生するコンテンツ再生システム、コンテンツ再生方法、及びコンテンツ再生装置に関する。 The present invention relates to a content reproduction system, a content reproduction method, and a content reproduction device, and more specifically, a robot apparatus that executes external information, an operation according to an external action and / or an autonomous operation based on an internal state. The present invention relates to a content reproduction system, a content reproduction method, and a content reproduction apparatus that reproduce content that conforms to an internal state.
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等の脚式移動ロボットは、既に実用化されつつある。 Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, a “pet-type” robot that mimics the body mechanism and movement of a four-legged animal such as a dog or cat, or a body mechanism or movement of an animal that walks upright on two legs. Legged mobile robots such as “humanoid” or “humanoid” robots are already in practical use.
これらの脚式移動ロボットは、産業用ロボットと比較してエンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと呼称される場合もある。 Since these legged mobile robots can perform various operations with an emphasis on entertainment as compared to industrial robots, they are sometimes called entertainment robots.
上述したような自律型のロボット装置は、人間と円滑にコミュニケーションをとることでロボット装置への愛着信及び好奇心を向上させて、エンターテインメント性を向上しうるものと考えられる。 It is considered that the autonomous robot apparatus as described above can improve the entertainment property by improving the love incoming and curiosity to the robot apparatus by smoothly communicating with humans.
従来、人間と円滑にコミュニケーションをとるためにロボット装置に発光素子を取り付け、その発光パターンや発光色によりロボット装置の感情を表現している(例えば、特許文献1参照)。 Conventionally, a light-emitting element is attached to a robot apparatus in order to communicate smoothly with a human, and emotions of the robot apparatus are expressed by the light-emission pattern and light-emission color (for example, see Patent Document 1).
しかしながら、発光素子の発光パターンや発光色による感情の表現は、人間の感情表現とは、大きく異なるため、ロボット装置の感情表現に慣れていない人間は、ロボット装置の感情を認識することができない。 However, since the expression of emotion by the light emission pattern and the emission color of the light emitting element is significantly different from the expression of human emotion, a person who is not used to the emotion expression of the robot apparatus cannot recognize the emotion of the robot apparatus.
また、発光手段を用いた感情表現方法では、“喜び”や“悲しみ”など単純な感情しか表現することしかできないため、ロボット装置の複雑な感情や欲求、思考内容などを適切に表現することができない。ロボット装置が感情や思考内容を適切に表現すると、ロボット装置と人間とのコミュニケーションをより円滑化しうるものと考えられる。 In addition, since the emotion expression method using the light emitting means can only express simple emotions such as “joy” and “sadness”, it is possible to appropriately express the complex emotions, desires, thought contents, etc. of the robot device. Can not. If the robot apparatus appropriately expresses emotions and thoughts, it is considered that communication between the robot apparatus and humans can be facilitated.
本発明は、以上の点を考慮してなされたもので、ロボット装置の表現能力をより一層向上させうるコンテンツ再生システム、コンテンツ再生装置、及びコンテンツ再生方法を提供する。 The present invention has been made in view of the above points, and provides a content reproduction system, a content reproduction apparatus, and a content reproduction method that can further improve the expression capability of a robot apparatus.
上述した課題を解決するために、本発明にかかるコンテンツ再生システムは、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置と、画像コンテンツに関する情報を記憶する記憶手段と、ロボット装置の動作及び/又は内部状態を受信する動作及び/又は内部状態受信手段と、ロボット装置の動作及び/又は内部状態と画像コンテンツに関する情報とを比較し、ロボット装置の動作及び/又は内部状態に適合した画像コンテンツを選択するコンテンツ選択手段と、コンテンツ選択手段にて選択した画像コンテンツを再生するコンテンツ再生手段とを備えたコンテンツ再生装置とを備え、コンテンツ選択手段は、記憶手段に記憶されている画像コンテンツに関する情報の項目毎にロボット装置の動作及び/又は内部状態に関連するキーワードを記憶しており、ロボット装置の動作及び/又は内部状態に対応するキーワードと画像コンテンツに関する情報とをマッチングし、キーワードと適合する画像コンテンツを選択する。 In order to solve the above-described problems, a content reproduction system according to the present invention includes external information, a robot apparatus that performs an operation according to an external action and / or an autonomous operation based on an internal state, and information about image content. Storing the storage means for storing the operation, the operation and / or the internal state receiving means for receiving the operation and / or the internal state of the robot apparatus, and comparing the operation and / or the internal state of the robot apparatus and the information relating to the image content. a content selection means for selecting an image content that matches operation and / or the internal state of a content playback apparatus and a content reproducing means for reproducing an image content selected by the content selection unit, the content selection means , robot for each item of information about the image content stored in the storage means Stores keywords related to the operation and / or the internal state of the apparatus, matching the information about the keywords and image content corresponding to the operation and / or the internal state of the robot apparatus, selects the image content matching a keyword .
また、本発明にかかるコンテンツ再生方法は、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の動作及び/又は内部状態に応じた画像コンテンツを再生するコンテンツ再生装置におけるコンテンツ再生方法であって、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の動作及び/又は内部状態を受信する動作及び/又は内部状態受信工程と、画像コンテンツの内容を示す情報を受信する情報受信工程と、動作及び/又は内部状態と画像コンテンツの内容を示す情報とを比較し、動作及び/又は内部状態に適合した画像コンテンツを検索するコンテンツ検索工程と、画像コンテンツを再生するコンテンツ再生工程とを有し、コンテンツ再生装置には、画像コンテンツの内容を示す情報の項目毎にロボット装置の動作及び/又は内部状態に関連するキーワードが記憶されており、コンテンツ検索工程では、コンテンツ再生装置に記憶されているキーワードに基づき、ロボット装置の動作及び/又は内部状態に対応するキーワードと上画像コンテンツに関する情報とをマッチングし、キーワードと適合する画像コンテンツを選択する。 In addition, the content reproduction method according to the present invention provides external information, an operation according to an external action and / or an operation of a robot apparatus that performs an autonomous operation based on an internal state and / or an image content according to the internal state. A content reproduction method in a content reproduction apparatus for reproduction, the operation of a robot apparatus performing autonomous operation based on external information, operation according to external action and / or internal state and / or operation of receiving internal state And / or the internal state receiving step, the information receiving step for receiving information indicating the content of the image content, and the operation and / or the internal state and the information indicating the content of the image content are compared, and the operation and / or internal state is obtained. It has a content search step of searching the image content adapted, and a content reproduction step of reproducing image content Keywords in the content reproduction apparatus, each item of information indicating the contents of the image content are keywords stored associated with the operation and / or the internal state of the robot apparatus, the content search process, stored in the content reproducing apparatus the basis of, matching and information related to the keyword and the upper image content corresponding to the operation and / or the internal state of the robot apparatus, selects the image content matching a keyword.
また、本発明にかかるコンテンツ再生装置は、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の動作及び/又は内部状態を受信する動作及び/又は内部状態受信手段と、画像コンテンツの内容を示す情報を記憶する記憶手段と、ロボット装置の動作及び/又は内部状態と画像コンテンツの内容を示す情報とを比較し、ロボット装置の動作及び/又は内部状態に適合した画像コンテンツを選択するコンテンツ選択手段と、ロボット装置の動作及び/又は内部状態に適合した画像コンテンツを再生するコンテンツ再生手段とを備え、コンテンツ選択手段は、記憶手段に記憶されている画像コンテンツの内容を示す情報の項目毎にロボット装置の動作及び/又は内部状態に関連するキーワードを記憶しており、ロボット装置の動作及び/又は内部状態に対応するキーワードと画像コンテンツの内容を示す情報とをマッチングし、キーワードと適合する画像コンテンツを選択する。 In addition, the content reproduction apparatus according to the present invention includes external information, an operation according to an external action, and / or an operation of a robot apparatus that performs an autonomous operation based on an internal state and / or an operation of receiving an internal state. Alternatively, the internal state receiving means, the storage means for storing information indicating the content of the image content, the operation and / or the internal state of the robot apparatus and the information indicating the content of the image content are compared, and the operation of the robot apparatus and / or Content selection means for selecting image content adapted to the internal state and content reproduction means for reproducing image content adapted to the operation of the robot apparatus and / or internal state, the content selection means being stored in the storage means key associated with the operation and / or the internal state of the robot apparatus to each item of information indicating the contents of the image content that are Stores the over-de, matching and information indicating the contents of the keyword and image content corresponding to the operation and / or the internal state of the robot apparatus, selects the image content matching a keyword.
本発明は、コンテンツを再生してロボット装置の内部状態を表現するため、ロボット装置の表現力が広がり、ロボット装置のエンターテインメント性が向上する。本発明では、ロボット装置の内部状態とコンテンツに関する情報とを比較し、コンテンツの内部状態に適合したコンテンツを選択する。 Since the present invention reproduces content and expresses the internal state of the robot apparatus, the expressive power of the robot apparatus is expanded, and the entertainment performance of the robot apparatus is improved. In the present invention, the internal state of the robot apparatus is compared with information related to the content, and content that matches the internal state of the content is selected.
また、本発明では、ネットワーク上に存在するコンテンツ及びコンテンツに関する情報を記録した外部記録装置を検索し、この外部記録装置からコンテンツに関する情報を受信する。そして、このコンテンツに関する情報を記録した外部記録装置に対してコンテンツの配信を要求する。ネットワーク上には、無数の外部記録装置が存在するので、コンテンツの選択の幅が広がる。 Further, in the present invention, the external recording device that records the content existing on the network and the information related to the content is searched, and the information related to the content is received from the external recording device. Then, the distribution of the content is requested to the external recording device that records the information related to the content. Since there are innumerable external recording devices on the network, the range of content selection is widened.
以下、本発明を適用したコンテンツ再生システムについて説明する。ロボット装置は、外部環境や外部からの働きかけに応じて内部状態を変更して自律的に動作を行う。コンテンツ再生システムは、コンテンツに付加されたメタ情報とロボット装置の内部状態とを比較し、ロボット装置の内部状態に適合したコンテンツを再生することによりロボット装置の内部状態をユーザに通知するシステムである。 Hereinafter, a content reproduction system to which the present invention is applied will be described. The robot apparatus autonomously operates by changing the internal state in accordance with the external environment or external actions. The content reproduction system is a system for notifying the user of the internal state of the robot apparatus by comparing the meta information added to the content with the internal state of the robot apparatus and reproducing the content suitable for the internal state of the robot apparatus. .
図1は、コンテンツ再生システムの一例を示している。以下に示すコンテンツ再生システム1は、ロボット装置10の内部状態の1つである感情をコンテンツで表現する。コンテンツ再生システム1は、感情を変化し自律的に行動するロボット装置10と、ロボット装置10の感情に適合したコンテンツを選択し再生するコンテンツ再生装置20とから構成される。
FIG. 1 shows an example of a content reproduction system. The
図2はロボット装置10の外観構成を示しており、図3はロボット装置10の内部構成を示している。ロボット装置10は、四肢を有する動物の形状や構造をモデルにして構成された多関節型のロボット装置10である。特に、このロボット装置10は、愛玩動物の代表例であるイヌの形状及び構造を模してデザインされたペット型ロボットであり、例えば、実際のイヌと同じように、人間の住環境において人間と共存するような形態でユーザ操作に応じた動作表現をする。
FIG. 2 shows an external configuration of the
本実施の形態において、ロボット装置10は、4足歩行のロボットとしているが、ロボット装置10は、2足、4足、6足などの脚式歩行を行うロボットのほか、クローラ式など他の移動メカニズムによって移動するロボット装置10にも、本発明を適用することができる。
In the present embodiment, the
ロボット装置10は、胴体部ユニット2と、四肢すなわち脚部ユニット3A〜3Dと、頭部ユニット4と、尻尾5とで構成される。頭部ユニット3は、ロール、ピッチ及びヨーの各軸方向の自由度を持つ首関節5を介して、胴体部ユニット2の略前上端に配設されている。
The
また、頭部ユニット3には、イヌの「目」に相当するCCD(Charge Coupled Device:電荷結合素子)カメラと116、「耳」に相当するマイクロフォン115と、「口」に相当するスピーカ118と、触感に相当するタッチセンサ117が搭載されている。
The
また、ロボット装置10における主制御部11では、加速度センサ14、タッチセンサ117、接地センサ13A〜13D等の各種センサ、及びCCDカメラ16からの画像情報、マイクロフォン15からの音声情報等を統括して処理している。主制御部11は、ロボット装置10の間接部に設けられたアクチュエータ3A1〜3Ak、3B1〜3Bk、3C1〜3Ck、3D1〜3Dk、41〜4L、51、52と接続されている。
The
主制御部11は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM12内の所定位置に順次格納する。また、主制御部11は、バッテリセンサ19から供給されるバッテリ残量データを順次取り込み、これをDRAM12内の所定位置に格納する。DRAM12に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部11がこのロボット装置10の動作制御を行う際に利用される。
The
主制御部11は、上述のように主制御部11よりDRAM12に順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。さらに、主制御部11は、この判断結果及びDRAM12に格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させる。
As described above, the
ロボット装置10の行動生成は、後述する行動生成モジュール51で行う。行動生成モジュール51では、ロボット装置10の行動を認識し、この行動に応じてロボット装置10の感情のパラメータや欲求のパラメータを変化させる。本発明のロボット装置10は、行動生成モジュール51で生成した感情をコンテンツ再生装置20に送信する。なお、行動生成モジュール51の詳しい説明は後述する。
The behavior generation of the
次いでコンテンツ再生装置20について図1を参照して説明する。コンテンツ再生装置20は、コンテンツを記憶するコンテンツ記憶部21と、コンテンツの内容を示すメタデータを記憶するメタデータ記憶部22と、ロボット装置10と無線通信を行う無線通信部23と、ロボット装置10から受信した感情を記憶する感情情報記憶部24と、メタデータとロボット装置10の感情の相関を基にロボット装置10の感情に対応したコンテンツを選択するコンテンツ選択部25と、コンテンツを再生する再生部26とを備える。
Next, the
無線通信部23は、ロボット装置10の感情情報を入力する。無線通信部23は、入力した感情情報を感情情報記憶部24に記憶させる。この感情には、「喜び」、「悲しみ」、「怒り」、「驚き」、「嫌悪」及び「恐れ」などがある。
The
コンテンツ記憶部21は、映画、ドラマ、ニュース、音楽などのコンテンツを記憶する。各コンテンツには、コンテンツに関係する情報であるメタデータが付加されている。メタデータは、メタデータ記憶部22に記憶されている。メタデータは、複数の項目から構成される。メタデータを構成する項目には、コンテンツのタイトル、ジャンル、内容紹介などがある。以下、各コンテンツに1つのメタデータが付加されているものとして説明するが、コンテンツが複数のセグメントから構成される場合には各セグメントにメタデータを付加してもよい。
The
コンテンツ選択部25は、メタデータ記憶部22が記憶しているメタデータと感情情報記憶部24が記憶している感情情報とを比較し、ロボット装置10の感情情報と最も相関が深いメタデータを選択する。コンテンツ選択部25のコンテンツ選択方法の一例を説明する。この例におけるコンテンツ選択部25は、図4に示すようにロボット装置10の感情に関連するキーワードを記録している。キーワードは、メタデータの項目に区分して記憶されている。コンテンツ選択部25は、メタデータの項目内容とキーワードとをマッチングし、キーワードと最も適合度が高いコンテンツを選択する。また、適合度が等しい複数のコンテンツを選択した場合、コンテンツ選択部25は、複数のコンテンツから無作為に1つのコンテンツを選択する。コンテンツをランダムに選択するのは、コンテンツを偏りなく選択するためである。コンテンツ選択部25は、選択したコンテンツを再生部26に出力する。
The
上述したコンテンツ再生システム1がロボット装置10の感情に適合したコンテンツを再生する手順について図5を参照して説明する。ここで、ロボット装置10は、サッカーでゴールを決め嬉しくなっているものとする。ロボット装置10がゴールすると、ロボット装置10の感情は「嬉しい」に変化する(ステップS11)。ロボット装置10は、この感情をコンテンツ再生装置20に送信する(ステップS12)。
The procedure in which the
コンテンツ再生装置20は、ロボット装置10の「嬉しい」という感情に対応するキーワードを読出し、メタデータ記憶部22に記憶されたメタデータとキーワードとを比較する(ステップS13)。例えば、「嬉しい」に対応するキーワードとして“嬉し泣き”が存在し、このキーワードとコンテンツのタイトルが一致すると(ステップS14)、コンテンツ再生装置1は、このコンテンツをコンテンツ記憶部21から読み出して再生部26に出力する(ステップS15)。コンテンツ再生装置1の再生部26には、ロボット装置10のゴールと同時に嬉し泣きのシーンが表示される(ステップS16)。ユーザは、再生部26の表示内容からロボット装置10が喜んでいること知ることができる。
The
また、感情以外の因子からコンテンツを絞り込むことができる。現在のロボット装置10は、動作モードに応じて、絵を描いたり、ゲームをしたり、スポーツをする。ロボット装置10の動作モードがサッカーの試合である場合、コンテンツ再生装置1は、キーワードにサッカーを追加する。そして、サッカーというキーワードとメタデータが一致するコンテンツを検索する。これにより、ロボット装置10がゴールするとサッカー選手がグラウンドでダンスしているシーンや観客の歓声などを表示してロボット装置10の感情を表現することができる。コンテンツを選択する因子を増やすことでより具体的なコンテンツを選択することができる。
In addition, content can be narrowed down from factors other than emotion. The
次いで、ネットワーク上のサーバ30に記録されたコンテンツを再生するコンテンツ再生システム1について説明する。このコンテンツ再生システム1は、図6に示すようにコンテンツ再生装置20とサーバ30とがネットワークを介して接続されたシステムである。このシステムにおけるコンテンツ再生装置20は、サーバからコンテンツを受信するため、選択できるコンテンツの幅が広がる。
Next, the
サーバ30は、図7に示すようにコンテンツを記録するコンテンツ記録部31と、コンテンツのメタデータを記録するメタデータ記録部32と、コンテンツ再生装置20からの情報を受信する受信部33と、コンテンツ再生装置20に情報を送信する情報送信部34と、コンテンツ再生装置20からの要求に応じてサーバ30のサービス内容を返信するサービス内容返信部35とを備える。
As shown in FIG. 7, the
また、このコンテンツ再生システム1におけるコンテンツ再生装置20は、上述した構成の他にサーバに情報を送信する送信部27、サーバが送信した情報を受信する受信部28、コンテンツ及びコンテンツのメタデータを記録したサーバを検索するサーバ検索部29とを備える。
In addition to the configuration described above, the
サーバ30の検索はサーバ検索部29が行う。サーバ検索部29は、例えば、UPnP(Universal Plug and Play)を用いてネットワークに存在するサーバ30が提供しているサービスの内容を問い合わせ、コンテンツ及びメタデータを配信するサービスを行っているサーバに対してメタデータの配信を要求し、受信したメタデータをメタデータ記憶部22に記憶する。
The
このコンテンツ再生システム1では、以下のようなことが可能である。例えば、サーバ検索部29が定期的に新しいサーバ30を検索し、メタデータ記憶部22の内容を定期的に更新することができる。これにより、コンテンツ再生装置20は、常に新しいコンテンツを提供することができ、ユーザの楽しみがより一層向上する。また、このコンテンツ再生システム1では、ロボット装置10の感情に適合するコンテンツが見つからなかった場合、ロボット装置10の感情に適合するコンテンツを所有するサーバをネットワーク上から検索することができる。
The
図8を参照して、コンテンツ再生装置20のサーバ検索処理について説明する。まず、コンテンツ再生装置20は、ネットワーク上に存在するサーバ30のサービス内容を問い合わせ(ステップS21)、コンテンツ及びコンテンツのメタデータを提供するサーバ30を検索する(ステップS22)。コンテンツ再生装置20は、目的のサーバ30を発見すると、このサーバ30に対してメタデータの送信を要求する(ステップS23)。コンテンツ再生装置20は、受信したメタデータをメタデータ記憶部22に記憶する(ステップS24)。
With reference to FIG. 8, the server search process of the
次いで、コンテンツ再生装置20は、ロボット装置10の感情を受信し(ステップS25)、ロボット装置10の感情とメタデータとを比較し、ロボット装置10の感情に適合したコンテンツを選択する(ステップS26)。ステップS26において、感情に適合したコンテンツが選択できた場合(ステップS27;YES)、コンテンツ再生装置20は、このコンテンツを記録するサーバ30にコンテンツの転送を要求し(ステップS28)、受信したコンテンツを再生部26に出力する(ステップS29)。
Next, the
一方、ステップS26において、感情に適合したコンテンツが存在しなかった場合(ステップS27;NO)、コンテンツ再生装置20は、ステップS21に処理を移行し、再度メタデータを収集する(ステップS28)。
On the other hand, in step S26, when the content suitable for emotion does not exist (step S27; NO), the
以上のよう説明したロボット装置10の感情や動作は、主制御部10に組み込まれたソフトウェアによって実現される。ロボット装置10における制御プログラムのソフトウェア構成例について図9〜図14を用いて説明する。
The emotions and actions of the
図9において、デバイス・ドライバ・レイヤ40は、制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット41から構成されている。この場合、各デバイス・ドライバは、CCDカメラやタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
In FIG. 9, the
また、ロボティック・サーバ・オブジェクト42は、デバイス・ドライバ・レイヤ40の最下位層に位置し、例えば上述の各種センサやアクチュエータ等のハードウェアにアクセスするためのインターフェイスを提供するソフトウェア群でなるバーチャル・ロボット43と、電源の切換えなどを管理するソフトウェア群でなるパワーマネージャ44と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ45と、ロボット装置10の機構を管理するソフトウェア群でなるデザインド・ロボット46とから構成されている。
The
マネージャ・オブジェクト47は、オブジェクト・マネージャ48及びサービス・マネージャ49から構成されている。オブジェクト・マネージャ48は、ロボティック・サーバ・オブジェクト42、ミドル・ウェア・レイヤ50、及びアプリケーション・レイヤ51に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ49は、メモリカードに格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
The
ミドル・ウェア・レイヤ50は、ロボティック・サーバ・オブジェクト42の上位層に位置し、画像処理や音声処理などのこのロボット装置10の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ51は、ミドル・ウェア・レイヤ50の上位層に位置し、当該ミドル・ウェア・レイヤ50を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置10の行動を決定するためのソフトウェア群から構成されている。
The
なお、ミドル・ウェア・レイヤ50及びアプリケーション・レイヤ51の具体なソフトウェア構成をそれぞれ図10に示す。
The specific software configurations of the
ミドル・ウェア・レイヤ50は、図10に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、タッチセンサ用、動き検出用及び色認識用の各信号処理モジュール60〜68並びに入力セマンティクスコンバータモジュール69などを有する認識系70と、出力セマンティクスコンバータモジュール78並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、LED点灯用及び音再生用の各信号処理モジュール71〜77などを有する出力系79とから構成されている。
As shown in FIG. 10, the
上述したインタラクション生成部200をプログラムとして用意した場合、インタラクションを生成する処理は、このモーション再用の信号処理モジュール73に含まれる。 When the above-described interaction generation unit 200 is prepared as a program, the process for generating the interaction is included in the signal processing module 73 for motion reuse.
認識系70の各信号処理モジュール60〜68は、ロボティック・サーバ・オブジェクト42のバーチャル・ロボット43によりDRAMから読み出される各センサデータや画像データ及び音声データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール69に与える。ここで、例えば、バーチャル・ロボット43は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
Each of the
入力セマンティクスコンバータモジュール69は、これら各信号処理モジュール60〜68から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ボールを検出した」、「転倒を検出した」、「撫でられた」、「叩かれた」、「ドミソの音階が聞こえた」、「動く物体を検出した」又は「障害物を検出した」などの自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ51に出力する。
Based on the processing result given from each of these
アプリケーション・レイヤ51は、図11に示すように、行動モデルライブラリ80、行動切換モジュール81、学習モジュール82、感情モデル83及び本能モデル84の5つのモジュールから構成されている。
As shown in FIG. 11, the
行動モデルライブラリ80には、図12に示すように、「転倒復帰する」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデルが設けられている。
In the
そして、これら行動モデルは、図11に示すように、それぞれ入力セマンティクスコンバータモジュール69から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル83に保持されている対応する情動のパラメータ値や、本能モデル84に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール81に出力する。
As shown in FIG. 11, these behavior models are necessary when a recognition result is given from the input
なお、この実施の形態の場合、各行動モデルは、次の行動を決定する手法として、図13に示すような1つのノード(状態)NODE0〜NODEnから他のどのノードNODE0〜NODEnに遷移するかを各ノードNODE0〜NODEnの間を接続するアークARC1〜ARCn1に対してそれぞれ設定された遷移確率P1〜Pnに基づいて確率的に決定する有限確率オートマトンと呼ばれるアルゴリズムを用いる。 In the case of this embodiment, each behavior model is a method for determining the next behavior, as shown in FIG. 13, from one node (state) NODE 0 to NODE n to any other node NODE 0 to NODE n. It is called a finite probability automaton that determines probabilistically based on transition probabilities P 1 to P n respectively set for arcs ARC 1 to ARC n1 that connect between nodes NODE 0 to NODE n. Use algorithm.
具体的に、各行動モデルは、それぞれ自己の行動モデルを形成するノードNODE0〜NODEnにそれぞれ対応させて、これらノードNODE0〜NODEn毎に図14に示すような状態遷移表90を有している。 Specifically, each behavior model has a state transition table 90 as shown in FIG. 14 for each of the nodes NODE 0 to NODE n corresponding to each of the nodes NODE 0 to NODE n forming its own behavior model. is doing.
この状態遷移表90では、そのノードNODE0〜NODEnにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の列に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の列における対応する行に記述されている。 In this state transition table 90, input events (recognition results) as transition conditions in the nodes NODE 0 to NODE n are listed in the order of priority in the “input event name” column, and a further condition regarding the transition condition is “data name”. ”And“ data range ”columns are described in corresponding rows.
したがって、図14の状態遷移表90で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果とともに与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果とともに与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。 Therefore, in the node NODE 100 represented by the state transition table 90 of FIG. 14, when the recognition result “ball detected (BALL)” is given, the “size (SIZE)” of the ball given together with the recognition result is given. ) "Is in the range of" 0 to 1000 ", or when the recognition result" OBSTACLE "is given, the" distance (DISTANCE) to the obstacle given along with the recognition result "Is in the range of" 0 to 100 "is a condition for transitioning to another node.
また、このノードNODE100では、認識結果の入力がない場合においても、行動モデルが周期的に参照する感情モデル83及び本能モデル84にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル83に保持された「喜び(Joy)」、「驚き(Surprise)」又は「悲しみ(Sadness)」の何れかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
Further, in the node NODE 100 , even when there is no recognition result input, the emotion value among the emotion and desire parameter values held in the
また、状態遷移表90では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の行にそのノードNODE0〜NODEnから遷移できるノード名が列記されているとともに、「入力イベント名」、「データ名」及び「データの範囲」の列に記述された全ての条件が揃ったときに遷移できるほかの各ノードNODE0〜NODEnへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE0〜NODEnに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。 In the state transition table 90, node names that can be transitioned from the nodes NODE 0 to NODE n are listed in the “transition destination node” row in the “transition probability to other node” column, and “input event name” ”,“ Data name ”, and“ data range ”columns, the transition probabilities to other nodes NODE 0 to NODE n that can transition when all the conditions described are met are“ transition probabilities to other nodes ”. The action to be output when transitioning to the nodes NODE 0 to NODE n is described in the “output action” line in the “transition probability to other nodes” column. Yes. The sum of the probabilities of each row in the “transition probability to other node” column is 100 [%].
したがって、図14の状態遷移表90で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 90 of FIG. 14, for example, “ball is detected (BALL)” and the “SIZE (size)” of the ball is in the range of “0 to 1000”. When the recognition result is given, it is possible to transition to “node NODE 120 (node 120)” with a probability of “30 [%]”, and the action of “
各行動モデルは、それぞれこのような状態遷移表90として記述されたノードNODE0〜NODEnが幾つも繋がるようにして構成されており、入力セマンティクスコンバータモジュール69から認識結果が与えられたときなどに、対応するノードNODE0〜NODEnの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール81に出力するようになされている。
Each behavior model is configured such that a number of nodes NODE 0 to NODE n described as such a state transition table 90 are connected, and when a recognition result is given from the input
図11に示す行動切換モジュール81は、行動モデルライブラリ80の各行動モデルからそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデルから出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、行動コマンドという。)をミドル・ウェア・レイヤ50の出力セマンティクスコンバータモジュール78に送出する。なお、この実施の形態においては、図11において下側に表記された行動モデルほど優先順位が高く設定されている。
The
また、行動切換モジュール81は、行動完了後に出力セマンティクスコンバータモジュール78から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール82、感情モデル83及び本能モデル84に通知する。
Further, the
一方、学習モジュール82は、入力セマンティクスコンバータモジュール69から与えられる認識結果のうち、「叩かれた」や「撫でられた」など、使用者からの働きかけとして受けた教示の認識結果を入力する。
On the other hand, the
そして、学習モジュール82は、この認識結果及び行動切換えモジュール71からの通知に基づいて、「叩かれた(叱られた)」ときにはその行動の発現確率を低下させ、「撫でられた(誉められた)」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ70における対応する行動モデルの対応する遷移確率を変更する。
Based on the recognition result and the notification from the
他方、感情モデル83は、「喜び(Joy)」、「悲しみ(Sadness)」、「怒り(Anger)」、「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐れ(Fear)」の合計6つの情動について、各情動毎にその情動の強さを表すパラメータを保持している。そして、感情モデル83は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール69から与えられる「叩かれた」及び「撫でられた」などの特定の認識結果や、経過時間及び行動切換モジュール81からの通知などに基づいて周期的に更新する。
On the other hand, the
具体的には、感情モデル83は、入力セマンティクスコンバータモジュール69から与えられる認識結果と、そのときのロボット装置10の行動と、前回更新してからの経過時間となどに基づいて所定の演算式により算出されるそのときのその情動の変動量をΔE[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkeとして、(1)式によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル83は、これと同様にして全ての情動のパラメータ値を更新する。
Specifically, the
なお、各認識結果や出力セマンティクスコンバータモジュール78からの通知が各情動のパラメータ値の変動量ΔE[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は「怒り」の情動のパラメータ値の変動量ΔE[t]に大きな影響を与え、「撫でられた」といった認識結果は「喜び」の情動のパラメータ値の変動量ΔE[t]に大きな影響を与えるようになっている。
It is determined in advance how much each notification result or notification from the output
ここで、出力セマンティクスコンバータモジュール78からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル83は、このような情報によっても感情を変化させる。これは、例えば、「叫ぶ」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール78からの通知は、上述した学習モジュール82にも入力されており、学習モジュール82は、その通知に基づいて行動モデルの対応する遷移確率を変更する。
Here, the notification from the output
なお、行動結果のフィードバックは、行動切換モジュール81の出力(感情が付加された行動)によりなされるものであってもよい。 Note that the feedback of the action result may be performed by the output of the action switching module 81 (the action to which the emotion is added).
一方、本能モデル84は、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求毎にその欲求の強さを表すパラメータを保持している。そして、本能モデル84は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール69から与えられる認識結果や、経過時間及び行動切換モジュール81からの通知などに基づいて周期的に更新する。
On the other hand, the instinct model 84 has four independent needs for “exercise”, “affection”, “appetite” and “curiosity” for each of these needs. It holds a parameter that represents the strength of the desire. The instinct model 84 periodically updates the parameter values of these desires based on the recognition result given from the input
具体的には、本能モデル84は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール78からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kiとして、所定周期で(2)式を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル84は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
Specifically, the instinct model 84 uses the predetermined calculation formula for “exercise greed”, “loving lust” and “curiosity” based on the recognition result, elapsed time, notification from the output
なお、認識結果及び出力セマンティクスコンバータモジュール78からの通知などが各欲求のパラメータ値の変動量ΔI[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール78からの通知は、「疲れ」のパラメータ値の変動量ΔI[k]に大きな影響を与えるようになっている。
It is determined in advance how much the recognition result and the notification from the output
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数ke、kiの値も各情動及び各欲求毎に個別に設定されている。 In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range from 0 to 100, respectively, and the values of the coefficients k e and k i are also set for each emotion. And it is set individually for each desire.
一方、ミドル・ウェア・レイヤ50の出力セマンティクスコンバータモジュール78は、図8に示すように、上述のようにしてアプリケーション・レイヤ51の行動切換モジュール81から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系79の対応する信号処理モジュール71〜77に与える。
On the other hand, as shown in FIG. 8, the output
そしてこれら信号処理モジュール71〜77は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動をするために対応するアクチュエータに与えるべきサーボ指令値や、スピーカから出力する音の音声データ及び又はLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト42のバーチャル・ロボット43及び信号処理回路を順次介して対応するアクチュエータ又はスピーカ又はLEDに順次送出する。このようにしてロボット装置10は、上述した制御プログラムに基づいて、自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動ができる。
And these signal processing modules 71-77, when an action command is given, based on the action command, the servo command value to be given to the corresponding actuator to take the action, the sound data of the sound output from the speaker, and / or Drive data to be given to the LED is generated, and these data are sequentially sent to the corresponding actuator or speaker or LED via the
以上説明したように本発明を適用したコンテンツ再生装置は、映画、テレビ、音楽などのコンテンツを再生してロボット装置の感情を表現するため、複雑な感情表現、臨場感あふれる感情表現、あいまいな感情表現などが表現できるようになり、ロボット装置の感情表現の幅が広がる。 As described above, the content reproduction apparatus to which the present invention is applied reproduces contents such as movies, TV, music, etc. to express the emotion of the robot apparatus, so that complex emotion expression, realistic emotion expression, ambiguous emotion Expressions can be expressed, and the range of emotional expression of robotic devices is expanded.
また、コンテンツ再生装置は、コンテンツ及びコンテンツのメタデータを記録したサーバを検索するサーバ検索部を備える。そのため、定期的に新しいサーバを検索して、メタデータを更新したり、現在記憶しているメタデータに適合する感情が存在しないときに新しいサーバを検索することができる。ネットワーク上には、無数のサーバが存在するため、選択するコンテンツの幅が広がる、
なお、本発明は、上述した実施の形態に限定されるものではなく、コンテンツを再生してロボット装置の感情を表現するという本発明の主旨を含む変形、改良は、本発明に含まれるものとする。例えば、内部状態は、感情には限定されず、ロボット装置の欲求、思考内容などの他の内部状態も含む。また、コンテンツを選択する際、「嬉しい」、「悲しい」のような単純な感情だけでなく、「喜び」、「悲しみ」、「怒り」、「驚き」、「嫌悪」、「恐れ」の6つの感情のパラメータをもとにコンテンツを選択してもよい。こうすることにより、より複雑な感情表現が可能である。
In addition, the content reproduction apparatus includes a server search unit that searches for a server that records content and content metadata. Therefore, it is possible to search for a new server periodically to update the metadata, or to search for a new server when there is no emotion that matches the currently stored metadata. Since there are innumerable servers on the network, the range of contents to be selected widens.
It should be noted that the present invention is not limited to the above-described embodiment, and modifications and improvements including the gist of the present invention that expresses the emotion of the robot apparatus by reproducing the content are included in the present invention. To do. For example, the internal state is not limited to emotions, but also includes other internal states such as the desire of the robot device and the content of thought. When selecting content, not only simple emotions such as “happy” and “sad”, but also “joy”, “sadness”, “anger”, “surprise”, “disgust”, “fear” The content may be selected based on one emotion parameter. This makes it possible to express more complex emotions.
さらに、コンテンツ再生装置とサーバとは、外部ネットワークを介して接続されているとしたが、ホームネットワークのような狭域ネットワークを介して接続してもよい。この場合、サーバは、ユーザの家や仕事場などに存在するパーソナルコンピュータ等であると考えられる。このサーバにメタデータ入力部を設け、ユーザがコンテンツのメタデータを定義できるようにしてもよい。例えば、ユーザの撮った写真やビデオなどにタイトルなどのメタデータを入力すると、より親しみのあるコンテンツを再生することができる。 Furthermore, although the content reproduction apparatus and the server are connected via an external network, they may be connected via a narrow area network such as a home network. In this case, the server is considered to be a personal computer or the like that exists in the user's house or workplace. This server may be provided with a metadata input unit so that the user can define metadata of content. For example, if metadata such as a title is input to a photograph or video taken by the user, more familiar content can be reproduced.
1 コンテンツ再生システム、10 ロボット装置、11 主制御部、20 コンテンツ再生装置、21 コンテンツ記憶部、22 メタデータ記憶部、23 無線通信部、24 感情情報記憶部、25 コンテンツ選択部、26 再生部、27 送信部、28 受信部、29 サーバ検索部、30 サーバ、31 コンテンツ記録部、32 メタデータ記録部、33 受信部、34、送信部、35 サービス内容返信部、80 行動モデルライブラリ、81 行動切換モジュール、82 学習モジュール、83 感情モデル、84 本能モデル
DESCRIPTION OF
Claims (8)
画像コンテンツに関する情報を記憶する記憶手段と、上記ロボット装置の動作及び/又は内部状態を受信する動作及び/又は内部状態受信手段と、上記ロボット装置の動作及び/又は内部状態と画像コンテンツに関する情報とを比較し、上記ロボット装置の動作及び/又は内部状態に適合した画像コンテンツを選択するコンテンツ選択手段と、上記コンテンツ選択手段にて選択した画像コンテンツを再生するコンテンツ再生手段とを備えたコンテンツ再生装置とを備え、
上記コンテンツ選択手段は、上記記憶手段に記憶されている画像コンテンツに関する情報の項目毎に上記ロボット装置の動作及び/又は内部状態に関連するキーワードを記憶しており、上記ロボット装置の動作及び/又は内部状態に対応するキーワードと該画像コンテンツに関する情報とをマッチングし、該キーワードと適合する画像コンテンツを選択するコンテンツ再生システム。 A robot apparatus that executes external information, an action according to an external action and / or an autonomous action based on an internal state;
Storage means for storing information on the image content, the operation and / or the internal state receiving unit receives the operation and / or the internal state of the robot apparatus, and information regarding the operation and / or the internal state and the image content of the robot apparatus comparing, operation and / or a content selection means for selecting an image content adapted to the internal state, the content reproducing device and a content reproducing means for reproducing an image content selected by the content selection means of the robot apparatus And
The content selection means stores keywords related to the operation and / or internal state of the robot apparatus for each item of information relating to image content stored in the storage means, and the operation of the robot apparatus and / or matching the information about the keywords and the image content corresponding to the internal state, the content reproduction system selects image content compatible with the keyword.
上記コンテンツ再生装置は、上記コンテンツ選択手段にて上記外部記録装置の画像コンテンツを選択すると、上記外部記録装置に対して該画像コンテンツの配信を要求するコンテンツ配信要求手段を備えた請求項1記載のコンテンツ再生システム。 An external recording device comprising content recording means for recording image content and content-related information recording means for recording information relating to the image content;
2. The content reproduction device according to claim 1, further comprising: a content distribution request unit that requests the external recording device to distribute the image content when the content selection unit selects the image content of the external recording device. Content playback system.
外部ネットワーク上に存在する外部記録装置が提供するサービスの内容を問合せ、コンテンツ記録手段及びコンテンツ関係情報記録手段を備えた外部記録装置を検索する情報処理装置検索手段を備えた請求項3記載のコンテンツ再生システム。 The content playback device
4. The content according to claim 3, further comprising an information processing device search means for inquiring about the contents of a service provided by an external recording device existing on an external network and searching for an external recording device provided with a content recording means and a content related information recording means. Playback system.
複数の画像コンテンツを選択した場合、該複数の画像コンテンツの任意の1つのコンテンツを無作為に選択する請求項1記載のコンテンツ再生システム。 The content selection means is
If you select one or more image contents, the content reproduction system according to claim 1, wherein randomly selecting any one content of the plurality of image contents.
外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行する上記ロボット装置の該動作及び/又は内部状態を受信する動作及び/又は内部状態受信工程と、
画像コンテンツの内容を示す情報を受信する情報受信工程と、
上記動作及び/又は内部状態と上記画像コンテンツの内容を示す情報とを比較し、上記動作及び/又は内部状態に適合した画像コンテンツを検索するコンテンツ検索工程と、
上記画像コンテンツを再生するコンテンツ再生工程とを有し、
上記コンテンツ再生装置には、上記画像コンテンツの内容を示す情報の項目毎に上記ロボット装置の動作及び/又は内部状態に関連するキーワードが記憶されており、
上記コンテンツ検索工程では、上記コンテンツ再生装置に記憶されている上記キーワードに基づき、上記ロボット装置の動作及び/又は内部状態に対応するキーワードと上記画像コンテンツに関する情報とをマッチングし、該キーワードと適合する画像コンテンツを選択するコンテンツ再生方法。 A content playback method in a content playback apparatus that plays back image content according to the operation and / or the internal state of a robotic device that performs autonomous information based on external information, external action and / or internal state. And
External information, and said operating and / or operation and / or the internal state receiving step receives the internal state of the robot apparatus to perform operations and / or based on the internal state autonomous operation in accordance with the intervention from the outside,
An information receiving step for receiving information indicating the content of the image content;
Compares the information indicating the contents of the operation and / or the internal state and the image content, the content search step of searching the image content adapted to the operation and / or the internal state,
A content reproduction step of reproducing the image content,
In the content reproduction device, keywords related to the operation and / or internal state of the robot device are stored for each item of information indicating the content of the image content.
In the content search step, based on the keyword stored in the content reproduction device, the keyword corresponding to the operation and / or internal state of the robot device is matched with the information related to the image content, and the keyword is matched. A content playback method for selecting image content.
画像コンテンツの内容を示す情報を記憶する記憶手段と、
上記ロボット装置の動作及び/又は内部状態と上記画像コンテンツの内容を示す情報とを比較し、ロボット装置の動作及び/又は内部状態に適合した画像コンテンツを選択するコンテンツ選択手段と、
上記ロボット装置の動作及び/又は内部状態に適合した画像コンテンツを再生するコンテンツ再生手段とを備え、
上記コンテンツ選択手段は、上記記憶手段に記憶されている上記画像コンテンツの内容を示す情報の項目毎に上記ロボット装置の動作及び/又は内部状態に関連するキーワードを記憶しており、上記ロボット装置の動作及び/又は内部状態に対応するキーワードと該画像コンテンツの内容を示す情報とをマッチングし、該キーワードと適合する画像コンテンツを選択するコンテンツ再生装置。 External information, and operation and / or the internal state receiving means for receiving operation and / or the internal state of the operation and / or robotic devices to perform autonomous operation based on the internal state corresponding to the intervention from the outside,
Storage means for storing information indicating the content of the image content;
A content selection means for comparing the information indicating the operation and / or the internal state and the contents of the image content of the robot apparatus, selects the image content that matches operation and / or the internal state of the robot apparatus,
Content reproduction means for reproducing image content adapted to the operation and / or internal state of the robot apparatus,
The content selection means stores a keyword related to the operation and / or internal state of the robot apparatus for each item of information indicating the content of the image content stored in the storage means. operation and / or matching the information indicating the contents of the keyword and the image content corresponding to the internal state, the content reproducing apparatus for selecting an image content compatible with the keyword.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003413427A JP4556425B2 (en) | 2003-12-11 | 2003-12-11 | Content reproduction system, content reproduction method, and content reproduction apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003413427A JP4556425B2 (en) | 2003-12-11 | 2003-12-11 | Content reproduction system, content reproduction method, and content reproduction apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005169567A JP2005169567A (en) | 2005-06-30 |
JP4556425B2 true JP4556425B2 (en) | 2010-10-06 |
Family
ID=34733568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003413427A Expired - Fee Related JP4556425B2 (en) | 2003-12-11 | 2003-12-11 | Content reproduction system, content reproduction method, and content reproduction apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4556425B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2448883A (en) * | 2007-04-30 | 2008-11-05 | Sony Comp Entertainment Europe | Interactive toy and entertainment device |
JP5172049B2 (en) | 2011-06-14 | 2013-03-27 | パナソニック株式会社 | Robot apparatus, robot control method, and robot control program |
CN106292424A (en) * | 2016-08-09 | 2017-01-04 | 北京光年无限科技有限公司 | Music data processing method and device for anthropomorphic robot |
JP7092110B2 (en) | 2017-03-07 | 2022-06-28 | ソニーグループ株式会社 | Information processing equipment, information processing methods, and programs |
WO2019026420A1 (en) * | 2017-08-04 | 2019-02-07 | ソニー株式会社 | Information processing apparatus, information processing method and program |
JP6533848B1 (en) * | 2018-04-09 | 2019-06-19 | 株式会社Liberaware | Flying body |
JP7049672B2 (en) * | 2019-05-27 | 2022-04-07 | 株式会社Liberaware | Flying object |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049385A (en) * | 2000-08-07 | 2002-02-15 | Yamaha Motor Co Ltd | Voice synthesizer, pseudofeeling expressing device and voice synthesizing method |
JP2002127059A (en) * | 2000-10-20 | 2002-05-08 | Sony Corp | Action control device and method, pet robot and control method, robot control system and recording medium |
JP2002305781A (en) * | 2001-01-31 | 2002-10-18 | Nippon Telegr & Teleph Corp <Ntt> | Control system, device control signal generating method, device control method, recording medium and program |
JP2003036090A (en) * | 2001-05-11 | 2003-02-07 | Sony France Sa | Method and apparatus for synthesizing voice, and robot apparatus |
JP2003076376A (en) * | 2001-09-03 | 2003-03-14 | Hitachi Information & Control Systems Inc | Method and device for reproducing event music |
JP2003084783A (en) * | 2001-09-17 | 2003-03-19 | Sharp Corp | Method, device, and program for playing music data and recording medium with music data playing program recorded thereon |
JP2003111981A (en) * | 2001-10-09 | 2003-04-15 | Sony Corp | Robot device and its controlling method, information providing system and information providing method for robot and storing media |
JP2003205483A (en) * | 2001-11-07 | 2003-07-22 | Sony Corp | Robot system and control method for robot device |
JP2003208161A (en) * | 2001-11-12 | 2003-07-25 | Sony Corp | Robot apparatus and method of controlling the same |
-
2003
- 2003-12-11 JP JP2003413427A patent/JP4556425B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049385A (en) * | 2000-08-07 | 2002-02-15 | Yamaha Motor Co Ltd | Voice synthesizer, pseudofeeling expressing device and voice synthesizing method |
JP2002127059A (en) * | 2000-10-20 | 2002-05-08 | Sony Corp | Action control device and method, pet robot and control method, robot control system and recording medium |
JP2002305781A (en) * | 2001-01-31 | 2002-10-18 | Nippon Telegr & Teleph Corp <Ntt> | Control system, device control signal generating method, device control method, recording medium and program |
JP2003036090A (en) * | 2001-05-11 | 2003-02-07 | Sony France Sa | Method and apparatus for synthesizing voice, and robot apparatus |
JP2003076376A (en) * | 2001-09-03 | 2003-03-14 | Hitachi Information & Control Systems Inc | Method and device for reproducing event music |
JP2003084783A (en) * | 2001-09-17 | 2003-03-19 | Sharp Corp | Method, device, and program for playing music data and recording medium with music data playing program recorded thereon |
JP2003111981A (en) * | 2001-10-09 | 2003-04-15 | Sony Corp | Robot device and its controlling method, information providing system and information providing method for robot and storing media |
JP2003205483A (en) * | 2001-11-07 | 2003-07-22 | Sony Corp | Robot system and control method for robot device |
JP2003208161A (en) * | 2001-11-12 | 2003-07-25 | Sony Corp | Robot apparatus and method of controlling the same |
Also Published As
Publication number | Publication date |
---|---|
JP2005169567A (en) | 2005-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4985805B2 (en) | Robot apparatus and operation control method | |
KR101137205B1 (en) | Robot behavior control system, behavior control method, and robot device | |
US7089083B2 (en) | Electronic pet system, network system, robot, and storage medium | |
US7117190B2 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
US7076334B2 (en) | Robot apparatus and method and system for controlling the action of the robot apparatus | |
US6684127B2 (en) | Method of controlling behaviors of pet robots | |
JP7400923B2 (en) | Information processing device and information processing method | |
US7063591B2 (en) | Edit device, edit method, and recorded medium | |
KR20010095176A (en) | Robot and action deciding method for robot | |
JP2004283959A (en) | Robot device, method of controlling behavior and program thereof | |
JP2001212782A (en) | Robot device and control method for robot device | |
JP4556425B2 (en) | Content reproduction system, content reproduction method, and content reproduction apparatus | |
JP2004298975A (en) | Robot device and obstacle searching method | |
JP2004302644A (en) | Face identification device, face identification method, recording medium and robot device | |
JP4411900B2 (en) | Mutual growth system between electronic devices, electronic devices and robotic devices | |
WO2002030629A1 (en) | Robot apparatus, information display system, and information display method | |
KR20020067694A (en) | Robot apparatus and robot apparatus motion control method | |
JP2001154707A (en) | Robot device and its controlling method | |
JP2001157979A (en) | Robot device, and control method thereof | |
JP4379052B2 (en) | Moving object detection apparatus, moving object detection method, and robot apparatus | |
JP2001191279A (en) | Behavior control system, behavior controlling method, and robot device | |
JP2003136439A (en) | Robot device, and method and program for controlling gait of robot device | |
JP2004130426A (en) | Robot device and its operation control method | |
JP2002120180A (en) | Robot device and control method for it | |
JP4595407B2 (en) | Robot apparatus and content management method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090526 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100629 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100712 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130730 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |