[go: up one dir, main page]

JP4757979B2 - Electronic toy - Google Patents

Electronic toy Download PDF

Info

Publication number
JP4757979B2
JP4757979B2 JP2000145693A JP2000145693A JP4757979B2 JP 4757979 B2 JP4757979 B2 JP 4757979B2 JP 2000145693 A JP2000145693 A JP 2000145693A JP 2000145693 A JP2000145693 A JP 2000145693A JP 4757979 B2 JP4757979 B2 JP 4757979B2
Authority
JP
Japan
Prior art keywords
electronic toy
personality
display unit
data
dog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000145693A
Other languages
Japanese (ja)
Other versions
JP2001327765A (en
JP2001327765A5 (en
Inventor
美絵 上田
智彦 大西
優一 青地
栄司 田熊
Original Assignee
株式会社セガ トイズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社セガ トイズ filed Critical 株式会社セガ トイズ
Priority to JP2000145693A priority Critical patent/JP4757979B2/en
Priority to KR1020000077882A priority patent/KR20010091876A/en
Publication of JP2001327765A publication Critical patent/JP2001327765A/en
Publication of JP2001327765A5 publication Critical patent/JP2001327765A5/ja
Application granted granted Critical
Publication of JP4757979B2 publication Critical patent/JP4757979B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、外部からの音声や接触に応じて任意の動作を行うように制御する電子玩具に関する。
【0002】
【従来の技術】
従来から犬、猫、熊等の動物の縫いぐるみが動物玩具として広く使用されている。また、動物の縫いぐるみあるいは動物の形状とされた合成樹脂製の胴体内部にモータ及びスピーカを内蔵し、例えば頭部に接触して押圧することにより、足や口を動かすといった所定の動作を行うと共に、所定の鳴き声を発声させるよう構成された動物玩具もある。
【0003】
この種の動物玩具では、同じ動作を繰り返すと共に、同じ鳴き声を繰り返し発声させるものであるので、ユーザーが直ぐに飽きてしまうことが多い。
【0004】
逆にランダムに動作が選択されると、ユーザーにとっては期待した動作が起こらず、やはりすぐに飽きてしまう場合がある。
【0005】
このような従来からある動物玩具に対して、ユーザーが飽きないように様々な動作を行うように制御するマイクロコンピュータを搭載された電子玩具の開発が進められている。
【0006】
電子玩具としては、例えば頭を撫でたり、抱き上げたり、声をかけたりするとマイクロコンピュータの指令によりある種の動作(例えば、予め記憶されている言葉をスピーカから発声したり、体を揺らしたりする動作等)を行うよう構成したものがある。また、この種の電子玩具では、頭を撫でた回数、抱き上げた回数、声をかけた回数をカウントし、例えばカウント値が増えるにつれてスピーカから発声させる言葉がかわいらしい表現に段階的に変化させるように制御している。
【0007】
【発明が解決しようとする課題】
上記従来の電子玩具においては、頭を撫でた回数、抱き上げた回数、声をかけた回数等が増えるのに伴ってしゃべる言葉が徐々にかわらしい表現に変化するだけなので、その動作パターンを予測できてしまう。
【0008】
従って、従来の電子玩具では、接触している時間が長くなるにつれて次はどのような言葉を発声するのかが分かってしまうため、ユーザーが比較的短期間で飽きてしまうといった問題がある。
【0009】
そこで、本発明は、外部からの音声や接触等の入力回数や時間によって変化するパラメータを組み合わせた結果に応じて動作パターンを変化させることにより上記課題を解決した電子玩具を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記課題を解決するため、本発明は以下のような特徴を有する。
請求項1記載の発明は、表示部を配置した頭形状に形成された頭部形状部材を備えた電子玩具であって、前記表示部は、前記頭部形状部材の顔部に重ねて配置された複数のプレートと、前記プレートのそれぞれに対応して配置された複数の光源とを備え、前記プレートのそれぞれには他のプレートとは異なる所定パターンに配置された一群の穴が形成されており、前記光源のそれぞれは、対応するプレートの側面から前記プレート内に光を入射するように配置されており、前記光源の何れかが発光したとき当該光が対応するプレート内に側面から入射され、前記穴部分で光をプレート外に放射して当該プレートに形成された前記穴パターンを表示するように構成されており、さらに、前記複数のプレートを覆うように配置された半透明のカバー部材と、複数の目の表現パターンを表示するためのデータが記憶された記憶媒体と、前記記憶媒体に記憶された前記データに基づき、前記複数の光源を選択的に点灯させる制御手段とを備え、前記制御手段は、前記目の表現パターンの一つまたは複数に対応するデータを選択して当該データに基づき前記光源の一つまたは複数を選択的に点灯し、当該点灯した光源に対応するプレートに光を入射して前記穴によって構成されるパターンを表示することによって、前記選択されたデータに対応する目の表現パターンが前記カバー部材を介して目視可能に点灯することを特徴とするものである。
請求項2記載の発明は、胴部と、頭部と、前記胴部の下部に可動的に形成された脚部とを備えた電子玩具であって、前記頭部の顔部分に配置され、互いに異なった表現パターンに配置された一群の小孔が設けられた複数の板状部材を重ね若しくは並べて構成された表示部と、前記表示部の前記複数の板状部材のいずれかに選択的に該表示部の外側から光を入射するように前記電子玩具内に配置された複数の光源と、少なくとも前記表示部を覆うように配置された半透明カバーと、外部からの入力を検出する複数のセンサと、前記脚部に動力を伝達する駆動機構と、前記表示部に目の表現を表示するための複数の表現パターンデータと、前記脚部の動作を制御するための複数の動作パターンデータが記憶された記憶媒体と、前記記憶媒体に記憶された前記データに基づき、前記複数の光源を選択的に点灯させる制御および前記脚部の動作の制御を行う制御手段と、を備え、前記表示部に配置された前記板状部材に設けられた前記一群の小孔のそれぞれは、前記光源から入射される光を前記板状部材外に放射するように構成されており、前記制御手段は、前記センサからの信号に応答して、前記複数の表現パターンデータの何れかを選択し、選択された当該表現パターンデータに基づき選択された光源を点灯し当該点灯した光源に対応する前記板状部材に入射される光によって対応する当該板状部材に設けられた前記一群の小孔を発光させることで前記表示部に選択された目の表現パターンを表示する制御と前記複数の動作パターンの何れかを選択し、当該選択された動作パターンデータに基づき前記脚部に対応する動作を行わせる制御とを行うことを特徴とするものである。
請求項3記載の発明は、前記駆動機構が、駆動モータと、該駆動モータに接続され、前記駆動モータの回転力を伝達する伝達機構と、該伝達機構によって伝達される回転力によって駆動されるカム機構と、を備え、前記脚部は、前記カム機構から伝達される回転力によって動作制御されるように構成されたことを特徴とするものである。
請求項4記載の発明は、前記頭部には、さらに耳形状部が設けており、該耳形状部は、前記伝達機構によって伝達される回転力によって駆動されることを特徴とするものである。
請求項5記載の発明は、電源投入により、初期設定モードを設定する初期設定手段と、前記センサで検出される信号をカウントするカウンタと、性格形成手段とをさらに備えてなり、前記性格形成手段は、前記初期設定手段が初期設定モードを設定している期間に前記カウンタにより得られたカウント数に応じた性格に関するデータを登録し、前記制御手段は、前記性格形成手段によって登録された性格に関するデータに基づき前記複数の光源を選択的に点灯させる制御および前記脚部の動作の制御を行うことを特徴とするものである。
請求項6記載の発明は、前記性格形成手段が、前記カウンタから得られたカウント値が偶数であるか奇数であるかに基づき性格に関するデータを登録することを特徴とするものである。
【0011】
さらに、本発明は以下のような特徴を有する。
(1)本発明は、検出手段から検出信号が出力されたとき、カウンタ手段のカウント値及びパラメータ変更手段により設定される第1のパラメータの値に基づいて記憶手段に記憶された複数の動作パターンの中から任意の動作パターンの情報を選択するものであり、例えば外部からの音声や接触等の入力があると、入力のタイミングによって異なる動作を行うようにできる。さらに、動作パターンを予測することが難しいので、入力に対して意外な行動を起こすように制御できるので、長期間遊んでも飽きることがない。
【0012】
(2)また、発明は、時間の経過と共に変化する制御パラメータに基づいて所定の周期でご機嫌モードと不機嫌モードとを交互に繰り返すものであり、入力のタイミングによってご機嫌モードあるいは不機嫌モードに切り替わり、予測していない動作を行って面白さを増大させることができる。
【0013】
(3)また、発明は、検出回数に応じてご機嫌モード及び/又は不機嫌モードの周期を変化させるものであり、ユーザーの接し方によってご機嫌モードの周期が長くなったり、不機嫌モードの周期が長くなったりするので、そのとき動作パターンを予測することが難しくなって意外な動作を行うことにより面白さを増大させることができる。
【0014】
(4)また、発明は、第1のパラメータの変化を示す値とカウンタ手段のカウント値とが一致したときに特別の動作パターンを選択するものであり、通常と異なる思いがけないリアクションにより、通常の動作が行われる場合よりも一層楽しむことができる。
【0015】
(5)また、発明は、外部からの音声や外部からの接触や周囲の光強度の変化を検出するものであり、可愛がられていることを認識し、その検出内容に応じて動作させることが可能になる
【0016】
(6)また、発明は、第1乃至第3のカウンタ手段によりカウントされた音声検出回数、接触検出回数、光変化回数に応じて選択される動作パターンが変化して入力があったときのタイミングと共に同じ動作を繰り返さないようにして、入力に対するリアクションの面白さを演出することができる。
【0017】
(7)また、発明は、選択手段がパラメータの変化を示す値と第1乃至第3のカウンタ手段のカウント値とが一致したときに特別の動作パターンの情報を選択するものであり、各カウント値に応じて異なる特別の動作パターンを選択して思いがけない動作を行ってよりも一層楽しむことができる。
【0018】
(8)また、発明は、カウンタ手段のカウント値及びパラメータ変更手段により設定される第1のパラメータの値に基づいて第1の記憶部に記憶された姿勢動作パターン、第2の記憶部に記憶された音声パターン、第3の記憶部に記憶された表情パターンのデータから任意の動作を選択するものであり、上記(1)の作用・効果を奏することができる。
【0019】
(9)また、発明は、カウンタ手段のカウント値及びパラメータ変更手段により設定される第1のパラメータの値に基づいて姿勢動作パターン、音声パターン、表情パターンの組み合わせを選択するものであり、上記(1)の作用・効果を奏することができる。
【0020】
(10)また、発明は、表情パターンが、少なくとも目の大きさ又は形状を変化させる動作パターンを含むように動作させるものであり、カウンタ手段のカウント値及びパラメータ変更手段により設定される第1のパラメータの値に基づいて目の大きさ又は形状を変化させ、そのときの性格変化に応じた表情を演出することができる。
【0021】
(11)また、発明は、検出信号の回数をカウントする第1の過程、第1のパラメータの値を変化させる第2の過程、動作パターンを選択する第3の過程、選択された動作パターンで制御を行う第4の過程を行う制御方法であり、上記(1)の作用・効果を奏することができる。
【0022】
(12)また、発明は、記憶媒体に記憶された第1乃至第4の制御プログラムを実行するものであり、上記(1)と同様の作用・効果を奏することができる。
【0023】
(13)また、発明は、第1乃至第3の検出手段から検出信号が出力されたタイミングに応じて記憶手段に記憶された複数の動作パターンの中から任意の動作パターンを選択し、選択された動作パターンに応じて駆動モータ及び表示部の表示パターンを制御するものであり、上記(1)と同様の作用・効果を奏することができる。
【0024】
(14)また、発明は、初期設定手段により初期設定モードが設定されている間に検出手段により検出された検出回数のカウント値に応じて個体差を設定するものであり、例えば初めて電池を装着されて初期設定モードが設定されている間にユーザーが接触する回数によって性別等の個体差を初期値として予め設定することができ、初期設定期間後のユーザーの接触に対応する表情や音声、動きに個体差が現れ、電子玩具があたかも動物のように性別や性格を持ったかのような演出が可能になる。
【0025】
(15)また、発明は、複数の検出手段のうち最も多い検出回数の検出手段に応じた個体差を設定するため、ユーザーの接触方法に応じた性別等の個体差を初期値として予め設定するものであり、初期設定期間後のユーザーの接触に対応する表情や音声、動きに個体差が現れ、電子玩具があたかも動物のように性別や性格を持ったかのような演出が可能になる。
【0026】
(16)また、発明は、初期設定モードが設定されている間に検出された入力回数のカウント値が偶数か奇数かによって個体差を設定するものであり、初期設定期間後のユーザーの接触に対応する表情や音声、動きに個体差が現れ、電子玩具があたかも動物のように性別や性格を持ったかのような演出が可能になる。
【0027】
(17)また、発明は、初期設定モードが設定されている間に検出された入力回数のカウント値に応じて性別を設定し、設定された当該性別に対応する目の表情、音声、動きのうち少なくとも一を変化させるものであり、ユーザーの接触方法や接触方法に応じた性別を初期値として予め設定することができ、目の表情、音声、動きに個体差が現れ、電子玩具があたかも動物のように性別や性格を持ったかのような演出が可能になる。
【0028】
(18)また、発明は、電池装着時、外部から入力された音声を登録する音声登録手段と、音声登録手段により登録された音声による指示に応じた動作制御を行う制御手段とを有しており、登録された音声の指示に対して優先的に従うように動作させることができる。
【0029】
(19)また、発明は、電池装着時、標準仕様の性格で動作させる性格標準モードまたは性格を育成させる性格育成モードを選択する選択スイッチの操作に応じて性格標準モードまたは性格育成モードの何れかを設定し、設定された性格標準モードまたは性格育成モードで動作させるものであり、ユーザーの要望に応じて電池装着後、性格育成モードを省略して性格標準モードで動作させることができ、あるいは性格育成モードでユーザーの育成方法に応じた性格を育成することができる。
【0030】
(20)また、発明は、初期設定手段により性格標準モードが設定されたとき、予め設定された標準モードの制御データに基づいて動作制御するものであり、性格育成モードを省略して一般的な性格の制御データに基づいて動作制御させることができる。
【0031】
(21)また、発明は、性格育成モードが設定されたとき、制御データを所定時間内に外部から入力された入力数に応じた制御レベルの感情データに更新し、当該更新した感情データに基づいて動作制御するものであり、ユーザーが所定時間内にどれだけ接触したかによって性格が変化し、ユーザーの対応の仕方に応じた感情データに基づいて動作制御することが可能になる。
【0032】
(22)また、発明は、性格育成モードが設定されたとき、所定時間毎に制御データが更新されない未熟時期、外部から入力された入力数に応じた制御レベルの感情データに更新する育成時期、育成時期に更新された制御レベルの感情データに応じて動作制御される育成完了時期を設定するものであり、性格育成モードの実行により所定時間毎に未熟時期、育成時期、育成完了時期を経てユーザーの接触回数や接触方法に応じた感情データに更新することができる。
【0033】
(23)また、発明は、育成時期に入力される音声、餌、接触等の入力回数に応じて感情データを更新し、更新された感情データに応じて動作制御するものであり、ユーザーの接触回数や接触方法に応じた感情データに更新することができる。
【0034】
(24)また、発明は、音声登録手段により登録された音声による指示に応じて育成時期に感情データを更新するものであり、音声登録されたユーザーの音声に優先的に反応して感情データを更新することができる。
【0035】
(25)また、発明は、育成時期に入力される餌の入力回数に応じて満腹具合を示す第2のパラメータを更新し、更新された第2のパラメータに応じて動作制御するものであり、育成時期に入力される餌の入力回数に応じて動作させることができるので、実際のペットを飼育するのと同じような感覚で育成することができ、育成時期を楽しむことができる。
【0036】
(26)また、発明は、育成時期に更新された第2のパラメータに応じて第1のパラメータを変更するものであり、育成時期にユーザーが行う餌の入力回数に応じて第1のパラメータを変化させてご機嫌モードの周期が長くなったり、不機嫌モードの周期が長くなったりするので、そのとき動作パターンを予測することが難しくなって意外な動作を行うことにより面白さを増大させることができる。
【0037】
(27)また、発明は、育成時期に更新された制御レベルの感情データをメモリに記憶させるものであり、育成時期が終了した後は育成時期に設定された感情データに基づいて動作でき、電池交換を行なった場合でもメモリに記憶された感情データが保存されているので、育成時期をやり直す必要がない。
【0038】
(28)また、発明は、少なくとも前記感情データに応じて入力された指示に対して指示内容に忠実な行動を行う第1の制御フラグ、あるいは入力された指示に対して指示内容と異なる行動を行う第2の制御フラグのうち何れかをセットし、当該セットされたフラグに応じた動作制御を行うものであり、育成時期に更新された感情データに対応してセットされたフラグに基づいて動作させることができ、セットされたフラグに対応する性格を選択できる。
【0039】
【発明の実施の形態】
以下図面と共に本発明の実施の形態について説明する。
【0040】
図1は本発明の第1実施例に係る電子玩具の正面図である。また、図2は図1に示す電子玩具の側面図である。また、図3は図1に示す電子玩具の平面図である。また、図4は図1に示す電子玩具の背面図である。また、図5は図1に示す電子玩具の底面図である。また、図6は図1に示す電子玩具の斜視図である。
【0041】
図1乃至図6に示されるように、電子玩具10は、大略、頭部12、胴部14、脚部16〜19とを有する犬型玩具である。また、本実施例の電子玩具10は、胴部14の両側面に4本の脚部16〜19を有する構成であるが、歩行するものではない。すなわち、電子玩具10は、後述するようにそのときの感情変化に応じて脚部16〜19を所定角度回動させ、脚部16〜19の回動動作により姿勢を変化させるように構成されている。
【0042】
4本の脚部16〜19は、夫々胴部14の両側面に対して回動可能に支持される円形の軸部16a〜19aと、軸部16a〜19aより半径方向に延在するすね部16b〜19bと、すね部16b〜19bの先端に設けられた指部16c〜19cからなる。
【0043】
尚、脚部16〜19は、軸部16a〜19a、すね部16b〜19b、指部16c〜19cが一体成形されており、脚部16〜19に実際の犬ような間接は設けられていない。また、軸部16a〜19aの側面には、半球形状のキャップ16d〜19dが取り付けられており、各キャップ16d〜19dは、任意の色に着色されている。
【0044】
頭部12の前面には、目の表情を表示する表示部20が設けられている。この表示部20は、通常、発光ダイオード(LED)の点灯により楕円形の目を表示しているが、後述するように複数の発光ダイオード(LED)を選択的に点灯させ、そのときの感情を表現できるように目の表示パターンを変化させることができる。
【0045】
また、頭部12の前面より前方に突出する鼻部22の先端面には、周囲の音声を検出するマイクからなる音センサ24(音声検出手段)が内臓されており、鼻部22の上部角部には周囲の光強度を検出する光センサ25が収納されている。本実施例の光センサ25は、例えば、CdS cell(硫化カドニウムセル)からなり、受光した光強度に応じた検出信号を出力する。
【0046】
さらに、頭部12の上面には鳴き声を発声させたりメロディを演奏するためのスピーカ26が設けられている。このスピーカ26は、後述するように上下方向に摺動可能に取り付けられており、例えば頭部12が押圧されると、下方に移動して撫でられたことを検出できるように設けられている。
【0047】
また、頭部12の両側には、頭部12と異なる任意の色に着色された半透明材からなる耳部28が設けられている。この耳部28は、上端付近が頭部12の側面に対し回動可能に連結されており、後述するようにそのときの感情変化に応じて上方あるいは下方に回動する。
【0048】
また、鼻部22の下側に設けられた顎部30は、開位置又は閉位置に回動可能に設けられており、後述するようにそのときの感情変化に応じて口31を開いた状態あるいは口31を閉じた状態に動作する。
【0049】
さらに、胴部14の後部には、尻尾32が揺動可能に設けられており、尻尾32はそのときの感情変化に応じて上方あるいは下方に移動する。
【0050】
次に、上記のような構成とされた電子玩具10の動作パターンについて説明する。
【0051】
図7は脚部16〜19の回動方向及び回動角度を示す電子玩具10の側面図である。
【0052】
図7に示されるように、脚部16〜19のうち前脚となる脚部16,17は、静止位置Bから前方(a方向)に60度回動した動作位置Aに可能であり、静止位置Bから後方に30度回動した動作位置Cに可能に設けられている。また、後ろ脚となる脚部18,19は、静止位置Bから前方(a方向)に90度回動した動作位置Aに可能であり、静止位置Bから後方に45度回動した動作位置Cに可能に設けられている。
【0053】
図8は電子玩具10が寝ている姿勢Aのときの動作状態を示す側面図である。
図8に示されるように、電子玩具10が寝ている姿勢Aのときは、各脚部16〜19が動作位置Aに回動している。そのため、電子玩具10は、各脚部16〜19が胴部14の両側面に沿うように前方に延在しており、胴部14の底面が床面34に接近した姿勢Aとなる。
【0054】
従って、電子玩具10は、例えば眠いとき、あるいは拗ねているときには、上記のような姿勢Aをとることにより体全体でそのときの感情を表現することができる。
【0055】
図9は電子玩具10が立っている姿勢Bのときの動作状態を示す側面図である。
【0056】
図9に示されるように、電子玩具10が立っている姿勢Bのときは、各脚部16〜19が動作位置Bに回動している。そのため、電子玩具10は、各脚部16〜19が胴部14の両側面より下方に延在する向きとなる位置(静止位置B)に回動しており、胴部14の底面が床面から離間した姿勢Bとなる。また、姿勢Bのときは、各脚部16〜19の底面(脚の裏)が床面34に密着した状態で当接する。
【0057】
従って、電子玩具10は、例えば何もしないときは、通常、上記のような立っている姿勢Bを維持する。
【0058】
図10は電子玩具10が前のめり姿勢Cのときの動作状態を示す側面図である。
【0059】
図10に示されるように、電子玩具10が前のめり姿勢Cのときは、各脚部16〜19が姿勢Bに対しb方向へ回動して動作位置Cにある。そのため、電子玩具10は、各脚部16〜19が指部16c〜19cの先端でつま先立つような恰好になり、各脚部16〜19の踵が床面34から浮いた姿勢Cとなる。また、姿勢Cのときは、顎部30が下方(c方向)に回動して口31を開いた状態に動作すると共に、尻尾32を上方(d方向)に回動させる。さらに、図1では現れていないが、図1に示されるように耳部28が上方(e方向)に回動している。
【0060】
電子玩具10は、例えば嬉しいとき、喜んでいるときには、上記のような姿勢Cをとることにより体全体でそのときの感情を表現することができる。
【0061】
本実施例の電子玩具10では、上記図8〜図10に示す3種類の姿勢A〜Cの動作パターンが基本動作となっている。
【0062】
ここで、電子玩具10の内部構造について説明する。
【0063】
図11は電子玩具10の内部構造を示す正面縦断面図である。また、図12は電子玩具10の内部構造を示す側面縦断面図である。また、図13は電子玩具10の内部構造を示す平面縦断面図である。
【0064】
図11乃至図13に示されるように、電子玩具10は、頭部12の内部にモータ36とモータ36の回転駆動力を脚部16〜19、耳部28、顎部30、尻尾32に伝達する伝達機構(伝達手段)38とが設けられている。上記脚部16〜19、耳部28、顎部30、尻尾32は、夫々1台のモータ36で駆動されており、上記各姿勢A,B,Cに応じて伝達機構38によりモータ36の回転駆動力が選択的に伝達される。
【0065】
モータ36及び伝達機構38は、頭部12及び胴部14の内部に設けられたブラケット41に支持されている。従って、モータ36及び伝達機構38は、コンパクトな構成となっており、電子玩具10の小型化にも対応するように構成されている。
【0066】
また、伝達機構38は、モータ36の駆動軸36aに取り付けられた駆動ギヤ40と、駆動ギヤ40に噛合する第1の伝達ギヤ42と、第1の伝達ギヤ42に噛合する第2の伝達ギヤ44と、第2の伝達ギヤ44に噛合する第3の伝達ギヤ46と、第3の伝達ギヤ46に噛合する第4の伝達ギヤ47と、第4の伝達ギヤ47と同軸的に配された第1のカムギヤ48と、第1のカムギヤ48を支持する第1のシャフト50と、第1のシャフト50に支持された第5の伝達ギヤ52と、第5の伝達ギヤ52に噛合する第2のカムギヤ54とを有する。
【0067】
尚、各伝達ギヤ42,44,46は、夫々大径ギヤ42a,44a,46aと、小径ギヤ42b ,44b ,46bとが一体成形されており、モータ36からの回転を所定の減速比で減速する。また、各伝達ギヤ42,44,46が嵌合された軸42c,44c,46cは、ブラケット41に支持されている。
【0068】
第1のカムギヤ48は、前足となる脚部16,17を駆動するための駆動手段であり、モータ36の駆動軸36aの回転方向及び回転量に応じて脚部16,17を上記回動位置A,B,Cに回動させるように形成されている。また、第3、第4のカムギヤ54,55は、後足となる脚部18,19を駆動するための駆動手段であり、モータ36の駆動軸36aの回転方向及び回転量に応じて脚部18,19を上記動作位置A,B,Cに回動させるように形成されている。
【0069】
また、第2のカムギヤ54は、尻尾32を駆動すると共に、耳部28、顎部30を駆動するための伝達経路56が連結されている。この伝達経路56は、例えば一点鎖線で示すようにワイヤとプーリ等からなり、第2のカムギヤ54の回動角度により脚部18,19を動作位置Bから動作位置Cへ回動させる過程で耳部28、顎部30、尻尾32をe,c,d方向に回動させる。
【0070】
また、頭部12の内部には、電源としての電池58を収納する電池収納部60が設けられている。さらに、鼻部22の内部には、制御部62が搭載された基板64が収容されている。また、スピーカ26は、上下方向に摺動可能に設けられており、その下方にはスピーカ26が下方に押圧されて下動したことを検出するプッシュ式の検出スイッチ(接触検出手段)59が設けられている。
【0071】
検出スイッチ59は、ユーザーが頭部12を撫でたり、ノックすることにより、スピーカ26が下動したことを検出するものであり、ユーザーの接したことを意識させずに検出することができる。
【0072】
上記各構成部品のうち比較的重量の重いモータ36及び電池58は、電子玩具10の重心に近い位置、すなわち頭部12のほぼ中央に配置されている。そのため、電子玩具10のバランスは、各姿勢に動作するときでも安定している。
【0073】
次に、目の表情を表示する表示部20の構成について説明する。
【0074】
表示部20は、前面に黒色に着色されたスモ−ク板(カバー部材)68が装着されており、スモ−ク板68の内側には、端面発光の4枚の赤色アクリル板(プレート)71〜74が積重されている。また、各赤色アクリル板71〜74の上部及び下部には、発光ダイオ−ド(LED)75〜79が配置されている。尚、表示部20として、端面発光式のものに限らず、他の形式の表示装置(例えばバックライト付き液晶ディスプレイ等)を用いても良い。
【0075】
図14(A)〜(D)は表示部20に組み込まれる赤色アクリル板71〜74を個別に示す正面図である。
【0076】
図14(A)に示されるように、赤色アクリル板71は、楕円形状の下部が削除された形状に形成された発光部71a,71bを有する。この発光部71a,71bは、小孔が一定間隔で設けられており、端面に設けられた入射部71c,71dに発光ダイオ−ド75,76からの光が入射されると、各小孔の内壁から赤色光が放射される。従って、発光部71a,71bが発光することにより左右丸目上が逆U字形に光って見える。
【0077】
また、発光部71aと71bとの中間には、光を遮断する遮蔽部71eが設けられている。そのため、発光ダイオ−ド75,76のいずれか一方のみから光が入射されると、発光部71a,71bのいずれか一方が発光してあたかもウインクしているように見える。
【0078】
図14(B)に示されるように、赤色アクリル板72は、ハ−ト形に形成された発光部72a,72bを有する。この発光部72a,72bは、小孔が一定間隔でハ−ト形に設けられており、端面に設けられた入射部72cに発光ダイオ−ド77からの光が入射されると、各小孔の内壁から赤色光が放射される。従って、発光部72a,72bが発光することにより左右の目がハート形に光って見える。
【0079】
図14(C)に示されるように、赤色アクリル板73は、図14(A)に示される発光部71a,71bの下部に連続するように形成された小さな半円形の発光部73a,73bを有する。この発光部73a,73bは、小孔が一定間隔で半円形に設けられており、端面に設けられた入射部73cに発光ダイオ−ド78からの光が入射されると、各小孔の内壁から赤色光が放射される。従って、発光部73a,73bが発光することにより左右の目が怒っているような小さい目に光って見える。
【0080】
図14(D)に示されるように、赤色アクリル板74は、図14(A)に示される発光部71a,71bの下部に連続するように形成された小さな点が放射状に設けられた発光部74a,74bを有する。この発光部74a,74bは、端面に設けられた入射部74cに発光ダイオ−ド79からの光が入射されると、各小孔の内壁から赤色光が放射される。従って、発光部73a,73bが発光することにより左右の目が怒っているような小さい目に光って見える。
【0081】
また、上記発光ダイオ−ド75〜79は、隣接する他の赤色アクリル板に光が入射しないように配置が赤色アクリル板71〜74の上部または下部に分散されており、且つ周囲に光が漏れないように仕切り壁(図示せず)により覆われている。これにより、赤色アクリル板71〜74を重ね合わせても各表示パターンが干渉しないようにできると共に、頭部12内の狭いスペースでも取り付けことが可能になる。
【0082】
図15は表示部20で発光表示される表示パターンの組み合わせを示す図である。
【0083】
図15に示されるように、表示部20では、例えば、9種類の表示パターン▲1▼〜▲9▼を選択的に表示することが可能である。
【0084】
表示パターン▲1▼では、発光ダイオ−ド77が点灯されてハート形の発光部72a,72bが発光する。
【0085】
表示パターン▲2▼では、発光ダイオ−ド76が点灯されて右丸目上の発光部71bが発光する。
【0086】
表示パターン▲3▼では、発光ダイオ−ド78が点灯されて左右の怒り目の発光部73a,73bが発光する。
【0087】
表示パターン▲4▼では、発光ダイオ−ド75,78が点灯されて左目の発光部71aが発光すると共に、左右の怒り目の発光部73a,73bが発光して右目ウインクを表示する。
【0088】
表示パターン▲5▼では、発光ダイオ−ド75,76,79が点灯されて左右の発光部71a,71bが発光すると共に、左右の涙を表す発光部74a,74bが発光して泣き目を表示する。
【0089】
表示パターン▲6▼では、発光ダイオ−ド75,76,78が点灯されて左右丸目上の発光部71a,71bが発光すると共に、左右丸目下の発光部73a,73bが発光して楕円形状の丸目全体を表示する。
【0090】
表示パターン▲7▼では、発光ダイオ−ド75が点灯されて左丸目上の発光部71aが発光する。
【0091】
表示パターン▲8▼では、発光ダイオ−ド76,78が点灯されて右目の発光部71bが発光すると共に、左右の怒り目の発光部73a,73bが発光して左目ウインクを表示する。
【0092】
表示パターン▲9▼では、各発光ダイオ−ド75〜79が消灯されて表示部20の発光表示を無くす。
【0093】
表示部20では、制御部62からの制御信号により各発光ダイオ−ド75〜79の点灯制御が行われ、上記9種類の表示パターン▲1▼〜▲9▼のいずれかで目の表情を表現することによりそのときの感情の変化を演出することができる。
【0094】
ここで、上記のように構成された電子玩具10の制御系統の構成について説明する。
【0095】
図16は電子玩具10の制御系統の構成を示すブロック図である。
【0096】
図16に示されるように、制御部62は、表示部20、音センサ24、光センサ25、スピ−カ26、モ−タ36、電池58、検出スイッチ59と接続されており、後述するように音センサ24、光センサ25、検出スイッチ59からの検出信号をカウントし、このカウント値と経過時間の関係から制御データを抽出して表示部20、スピ−カ26、モ−タ36を駆動制御する。
【0097】
図17は制御部62の構成を示すブロック図である。
【0098】
図17に示されるように、制御部62は、中央演算処理部としてのCPU80と、ROM82(記憶手段、第1〜第3の記憶部)と、RAM84と、タイマ86とを有する。ROM82には、表示部20、スピ−カ26、モ−タ36を駆動制御するための動作制御プログラム82Aと、そのときの性格変化(ご機嫌モードの値、又は不機嫌モードの値)に応じてモ−タ36の回転方向及び回転量を制御して動作姿勢A〜Cに切り替えるための姿勢制御データ82B、そのときの性格変化に応じた鳴き声やメロディをスピ−カ26から発声させるための音声制御データ82Cと、そのときの性格変化に応じて表示部20の表示パターンを切り替える表示制御データ82Dと、性格(ご機嫌モード、又は不機嫌モード)を周期的に変化させるペットバイオリズムデータ82Eと、上記検出信号のカウント値に基づいてペットバイオリズムの周期を補正するバイオリズム補正データ82Fとが格納されている。
【0099】
ROM82に格納された動作制御プログラム82Aは、外部からの入力を検出する検出手段から出力された検出信号の回数をカウントする第1の制御プログラムと、所定時間間隔に応じて第1のパラメータの値を変化させる第2の制御プログラムと、検出手段から検出信号が出力されたとき検出信号の回数及びパラメータの値に基づいて複数の動作パターンの中から任意の動作パターンを選択する第3の制御プログラムと、選択された動作パターンで動作するように制御を行う第4の制御プログラムと、を有する。
【0100】
また、RAM84には、音センサ24、光センサ25、検出スイッチ59からの検出信号をカウントするカウンタ84Aと、カウンタ84Aのカウント値により作成されるコミュニケーションバイオリズムデータ84Bとが格納されている。
【0101】
尚、カウンタ84Aでは、音センサ24、光センサ25、検出スイッチ59からの検出信号を選別せずにカウントするカウントモード1と、各音センサ24、光センサ25、検出スイッチ59からの検出信号を個別にカウントして各センサ毎のコミュニケーションバイオリズムデータを作成する為の第1〜第3のカウンタ(図示せず)を有するカウントモード2とを設定することができる。
【0102】
次に、制御部62のCPU80が実行する制御処理について説明する。
【0103】
図18は制御部62のCPU80が実行する制御処理を説明するためのフローチャートである。また、図19はペットバイオリズム及びコミュニケーションバイオリズムの変化を示すグラフである。
【0104】
尚、CPU80は、ROM82に格納されている動作制御プログラム82Aに基づいて図18に示す制御処理を例えば50msec毎に繰り返し実行する。
【0105】
図18に示されるように、CPU80は、ステップS11(以下「ステップ」を省略する)で音センサ24、光センサ25、検出スイッチ59からの入力があるかどうかを確認する。音センサ24、光センサ25、検出スイッチ59からの検出信号が入力された場合、S12に進み、カウンタ84Aのカウント値に1を加算する。
【0106】
次のS13では、タイマ86により計測された経過時間を読み込む。
【0107】
続いて、S14に進み、カウンタ84Aのカウント値に基づいてコミュニカーションバイオリズムのグラフII(後述する図19を参照)を作成すると共に、RAM84にコミュニカーションバイオリズムデータを最新のものに更新する。
【0108】
S15では、ROM82に格納されているペットバイオリズムデータのグラフI(後述する図19を参照)を読み込む。
【0109】
そして、S16に進み、ペットバイオリズムデータとコミュニカーションバイオリズムデータとの関係からこのときの第1のパラメータ(後述する図20、図21に示すご機嫌モードの値、不機嫌モードの値)を抽出する(パラメータ変更手段)。
【0110】
続いて、S17では、性格デ−タに基づいて動作パターン(1)〜(12)(後述する図20、図21参照)を選択する(選択手段)。
【0111】
次のS18では、選択されえた動作パターンに応じてモータ36を駆動制御して指定された動作姿勢となるように脚部16〜19を動作させると共に、表示部20による目の表示を切り替えながらスピーカ26から鳴き声やメロディを発声させる(制御手段)。
【0112】
尚、S12において、各センサ毎のカウント値、すなわち音センサ24、光センサ25、検出スイッチ59の各カウント値をカウントし、各カウント値に応じたコミュニカーションバイオリズムのグラフを作成して姿勢や表示部20による目の表情やスピーカ26からの鳴き声等を制御することもできる。
【0113】
次に、ペットバイオリズムとコミュニケーションバイオリズムとの関係について説明する。
【0114】
図19に示されるように、本実施例では、ペットバイオリズムのグラフIとコミュニケーションバイオリズムのグラフIIとの関係に基づいて電子玩具10の制御姿勢や鳴き声、メロディ、目の表情を制御する。尚、図19においては、説明の便宜上、ペットバイオリズムの値の変化をグラフIで示し、コミュニケーションバイオリズムの値の変化をグラフIIで示しているが、制御部62では、第1のパラメータの変化を示す値と前記カウンタ手段のカウント値とを比較して制御処理を行っている。
【0115】
ペットバイオリズムは、ペットバイオリズムデータ82Eに格納されたデータにより作成され、図19のグラフIに示されるように、周期的(例えが15分毎)にご機嫌モード(良い性格)と不機嫌モード(悪い性格)とが交互に繰り返されるように設定されている。また、ペットバイオリズムに基づくご機嫌モード及び不機嫌モードでは、夫々時間の経過に伴ってレベル0〜50の範囲でそのときの第1のパラメータの値が変化する。
【0116】
また、コミュニケーションバイオリズムは、コミュニケーションバイオリズムデータ84Bに格納されたデータにより作成されるグラフIIに示されるように、音センサ24、光センサ25、検出スイッチ59への入力回数に応じて変化するため、電子玩具10のユーザーがどのくらい電子玩具10を可愛がっているかによって電子玩具10の動作や表情が変化する。従って、電子玩具10は、ユーザーの接触回数、声をかける回数等によって姿勢を動作姿勢A〜C及び表示部20による目の表情(図8乃至図10及び図13参照)を変化させることができる。
また、制御部62では、バイオリズム補正データ82Fに基づいてユーザーの接触回数、すなわち音センサ24、光センサ25、検出スイッチ59への入力回数が多くなると、ご機嫌モードの周期を延長して不機嫌モードを短縮したり、入力回数が減少すると不機嫌モードを延長してご機嫌モードを短縮して、周期を変更しており、ご機嫌モードと不機嫌モードとが一定時間で繰り返すことがないようにしている。
【0117】
そのため、ユーザーは、同じように接していても電子玩具10のリアクションが一定でなく、そのときの性格変化に応じた動作、表情を行うので、飽きることがない。また、ユーザーは、電子玩具10の性格変化を予想できないので、意外な動作、表情を楽しむことができる。
【0118】
例えば、ご機嫌モードにおいて、性格レベルが0のときにユーザーが電子玩具10の頭部12を撫でて検出スイッチ59から検出信号が出力されたり、声をかけて音センサ24から検出信号が出力されたり、あるいは鼻先で手を振ることにより光センサ25から検出信号が出力されたりすると、お知らせイベント▲1▼(鳴き声▲1▼を2回発生+表示部20でハート目を点滅(図15参照))を行ってご機嫌モードに入ったことを知らせる。
【0119】
また、ご機嫌モードにおいて、ペットバイオリズムの性格レベルが0から50に変化する間に、例えばユーザーが電子玩具10に対して5回の接触(入力)を行うと、イベント▲3▼(遠吠え▲2▼+特別メロディの演奏(結婚行進曲等))を行う。 また、ご機嫌モードにおいて、コミュニケーションバイオリズムのグラフIIがペットバイオリズムのグラフIと交差した場合、イベント発生・(効果音+メロディ+スロットゲーム開始)を行う。このスロットゲームは、表示部20で表示パターン▲1▼〜▲9▼を順次表示させ、スピーカ26が押圧されて検出スイッチ59がオンになると、表示パターン▲1▼〜▲9▼のいずれか停止して表示されるといったスロットゲームを楽しむこともできる。
【0120】
また、ご機嫌モードにおいて、ペットバイオリズムにより性格レベルが0に戻ると、お知らせイベント▲2▼(鳴き声▲2▼を2回発生+表示部20で怒り目を点滅(図15参照))を行って不機嫌モードに入ったことを知らせる。
【0121】
また、不機嫌モードにおいて、コミュニケーションバイオリズムのグラフIIがペットバイオリズムのグラフIと交差した場合、イベント発生▲2▼(効果音+メロディ+スロットゲーム開始)を行う。
【0122】
また、不機嫌モードにおいて、ペットバイオリズムの性格レベルが50付近であるときは、電子玩具10はユーザーが何をやっても無反応になり、とても不機嫌な状態になる。たとえば、ユーザーの動作入力に対し、表示部20の表示が怒り目になり、スピーカ26からため息が発声される。
【0123】
また、不機嫌モードにおいて、ペットバイオリズムの性格レベルが0に戻ると、上記お知らせイベント▲1▼(鳴き声▲1▼を2回発生+表示部20でハート目を点滅(図15参照))を行ってご機嫌モードに入ったことを知らせる。
【0124】
尚、カウンタ84Aでは、音センサ24、光センサ25、検出スイッチ59からに入力回数をカウントとしているが、上記のようにコミュニケーションバイオリズムのグラフIIがペットバイオリズムのグラフIと交差した場合、あるいはカウントが予め設定された最大値(max値)に達した時点でリセットされ0に戻される。
【0125】
図20はご機嫌モードのときの各センサからの動作入力に応じて行われる動作及び表情の制御方法を示す図である。
【0126】
図20に示されるように、例えば、電子玩具10は、性格がご機嫌モードであるときにユーザーからの入力があると、次のような動作パターン(1)〜(12)に応じた姿勢、表情に変化させる。
(1)何も入力が無い場合、動作姿勢B(図9参照)から動作姿勢A(図8参照)に変化させ、表示部20の表示を丸目から消灯に変化させ、スピーカ26からいびきを発声させる。
(2)音センサ24のみから入力がある場合、動作姿勢B→Aに変化させ、表示部20の表示を消灯から泣き目に変化させ、スピーカ26から喜びの声を発声させる。
(3)光センサ25のみから入力がある場合、動作姿勢Bを維持し、表示部20で丸目を表示させ、スピーカ26からひとり言や効果音を発声させる。
(4)検出スイッチ59のみから入力がある場合、動作姿勢B→動作姿勢C(図10参照)→動作姿勢Bへ変化させ、表示部20の表示を消灯から丸目に変化させ、スピーカ26から喜びの声を発声させる。
(5)音センサ24及び光センサ25から入力がある場合、動作姿勢Bを維持し、表示部20の表示を丸目の点滅に切り替え、スピーカ26からワン▲1▼の声を発声させる。あるいは、動作姿勢B→C→Bへ変化させ、表示部20でハート目を表示させ、スピーカ26から遠吠え▲1▼を発声させる。
(6)音センサ24及び光センサ25、検出スイッチ59から入力がある場合、動作姿勢B→C→B→C→Bを行い、表示部20の表示を丸目からハート目に変化、あるいは表示部20でウインクを表示させると共にスピーカ26から笑い▲1▼の声を発声させる。
(7)光センサ25からの入力が繰り返しある場合、動作姿勢Bを維持し、表示部20で丸目を点滅させ、スピーカ26から喜びの声と笑い▲1▼の声を発声させる。
(8)音センサ24からの入力と光センサ25からの入力が繰り返しある場合、動作姿勢B→C→B→C→Bを行い、表示部20でハート目を点滅させ、スピーカ26からひとり言▲1▼〜▲3▼を発声させる。
(9)音センサ24、検出スイッチ59からの入力と光センサ25からの入力が繰り返しある場合、動作姿勢B→C→B→C→Bを行い、表示部20でハート目を点滅させ、スピーカ26から笑い声とメロディを発声させる。
(10)検出スイッチ59からの入力と光センサ25からの入力が繰り返しある場合、動作姿勢B→C→B→C→Bを行い、表示部20でハート目を点滅させ、スピーカ26から喜び声とメロディを発声させる。
(11)音センサ24、検出スイッチ59からの入力がある場合、動作姿勢B→Aに変化させ、表示部20で丸目を点滅させ、スピーカ26からひとり言▲2▼を発声させる。
(12)光センサ25、検出スイッチ59からの入力がある場合、動作姿勢B→C→B→C→Bを行い、表示部20でハート目を点滅させ、スピーカ26から喜び声とメロディを発声させる。
【0127】
図21は不機嫌モードのときの各センサからの動作入力に応じて行われる動作及び表情の制御方法を示す図である。
【0128】
図21に示されるように、例えば、電子玩具10は、性格が不機嫌モードであるときにユーザーからの入力があると、次のような動作パターン(1)〜(12)に応じた姿勢、表情に変化させる。
(1)何も入力が無い場合、動作姿勢B→Aに変化させ、表示部20の表示を丸目から消灯に変化させ、スピーカ26からいびきを発声させる。
(2)音センサ24のみから入力がある場合、動作姿勢B→Aに変化させ、表示部20の表示を消灯から怒り目に変化させ、スピーカ26から唸るような怒りの声を発声させる。
(3)光センサ25のみから入力がある場合、動作姿勢Bを維持し、表示部20で怒り目を表示させ、スピーカ26から低音化されたひとり言や効果音を発声させる。
(4)検出スイッチ59のみから入力がある場合、動作姿勢B→Aへ変化させ、表示部20の表示を消灯から怒りに変化させ、スピーカ26からため息を発声させる。
(5)音センサ24及び光センサ25から入力がある場合、動作姿勢Bを維持し、表示部20で怒り目を表示させると共に、スピーカ26で鳴き声▲2▼を発声させる。あるいは、動作姿勢Bを維持し、表示部20でウインクを表示させ、スピーカ26から笑い声▲2▼を発声させる。
(6)音センサ24及び光センサ25、検出スイッチ59から入力がある場合、動作姿勢B→C→Bを行い、表示部20の表示を怒り目から消灯に変化、あるいは表示部20でウインクを表示させると共にスピーカ26から鳴き声▲2▼を発声させる。あるいは、動作姿勢B→C→Bを行い、表示部20で丸目を点滅させ、スピーカ26から遠吠え▲2▼を発声させる。
(7)光センサ25からの入力が繰り返しある場合、動作姿勢Bを維持し、表示部20で丸目を点滅させ、スピーカ26からくしゃみを発声させる。
(8)音センサ24からの入力と光センサ25からの入力が繰り返しある場合、動作姿勢Bを維持し、表示部20で怒り目を点滅させ、スピーカ26から怒り+鳴き声▲2▼を発声させる。
(9)音センサ24、検出スイッチ59からの入力と光センサ25からの入力が繰り返しある場合、動作姿勢B→C→Bを行い、表示部20で丸目を点滅させ、スピーカ26から遠吠え▲1▼を発声させる。
(10)検出スイッチ59からの入力と光センサ25からの入力が繰り返しある場合、動作姿勢Bを維持し、表示部20で丸目を点滅させ、スピーカ26からウヒヒ▲2▼を発声させる。
(11)音センサ24、検出スイッチ59からの入力がある場合、動作姿勢B→Aに変化させ、表示部20で怒り目を表示させ、スピーカ26からため息を発声させる。
(12)光センサ25、検出スイッチ59からの入力がある場合、動作姿勢Bを維持し、表示部20で丸目を点滅させ、スピーカ26からウヒヒ▲2▼を発声させる。
このように電子玩具10は、コミュニカーションバイオリズムによる性格変化に基づいて性格が所定の周期でご機嫌モードあるいは不機嫌モードに切り替わるため、ユーザーが入力に対する反応を予測することが難しく、飽きさせることがない。
【0129】
また、各センサによる検出回数に応じてご機嫌モード及び/又は不機嫌モードの周期を変化させることもできる。そのため、ユーザーの接し方によってご機嫌モードの周期が長くなったり、不機嫌モードの周期が長くなったりするので、そのとき動作パターンを予測することが難しくなって意外な動作を行うことにより面白さを増大させることができる。
【0130】
ここで、制御部62のCPU80が実行する初期設定モードの制御処理について説明する。
【0131】
図22は初期設定処理を説明するためのフローチャートである。
【0132】
図22に示されるように、制御部62のCPU80は、S20において、新しい電池58が装着されたかどうかをチェックする。初めて電池58が電池収納部60に装着される場合、あるいは電池交換が行なわれた場合、S21に進み、メモリ(図示せず)に記憶されている初期値をリセットする。続いて、S22では、初期設定モードを設定する。尚、この初期設定モードのときは、性格が子犬モードになっており、比較的おとなしい性格になっている。
【0133】
次のS23では、スイッチ入力があったかどうかをチェックする。この場合、検出手段としての音センサ24と検出スイッチ59の検出動作を監視しており、各音センサ24、検出スイッチ59からの検出信号が出力されると、S24に進み、その検出回数nを積算し、その積算値(カウント値n+1)をメモリに記憶させる。
【0134】
次のS25では、所定時間T(例えば、T=1時間)が経過したかどうかをチェックする。従って、電池58が装着されてから1時間が経過するまで、S23〜S25の処理が繰り返される。
【0135】
そして、S25において、1時間が経過すると、S26に進み、音センサ24のカウント値nと検出スイッチ59のカウント値nとを比較する。
【0136】
次のS27では、音センサ24のカウント値nが検出スイッチ59のカウント値nより大きいとき(n>n)はS28に進み、性別データをオスに設定する。
【0137】
また、S27において、音センサ24のカウント値nが検出スイッチ59のカウント値nより大きくないとき、すなわち、▲1▼音センサ24のカウント値nが検出スイッチ59のカウント値nより小さいとき(n<n)、▲2▼音センサ24のカウント値nが検出スイッチ59のカウント値nと等しいとき(n=n)、▲3▼音センサ24のカウント値n及び検出スイッチ59のカウント値nとがゼロのとき(n=0、n=0)はS29に進み、性別データをメスに設定する。尚、上記▲2▼▲3▼の場合には、上記のように予め決められた性別に設定されるようにしても良いし、あるいは乱数を用いて性別が設定されるようにするもできる。 上記S28で、性別データがオスに設定されたとき、あるいはS29で性別データがメスに設定された後は、S30に進み、初期設定モードが解除される。そして、前述した図18に示すメインの制御処理に移行する。
【0138】
このようにして電池装着時にオスかメスかの初期設定が行われると、これ以降は設定された性別(個体差)に応じた表情や動作を行う。
【0139】
尚、性別の違いによる表情や動作としては、例えば図23(A)〜(B)に示す例がある。
【0140】
例えば、性別データがオスに設定された場合の特徴は、図23(A)に示されるように、▲1▼声が低音バージョンに設定、▲2▼目の通常パターンが図23(B)に示すパターンAに設定、▲3▼オスだけの特別曲を持っている。また、性別データがメスに設定された場合の特徴は、図23(A)に示されるように、▲1▼声がベーシックパターンに設定、▲2▼目の通常パターンが図23(C)に示すパターンBに設定、▲3▼メスだけの特別ダンスを持っている。このように、初期設定モードが設定されている間に音センサ24、検出スイッチ59により検出された検出回数のカウント値n、nに応じて性別(個体差)を設定するため、例えば初めて電池を装着されて初期設定モードが設定されている間にユーザーが接触する回数によって性別等の個体差を初期値として予め設定することができ、ユーザーが予想していないような個性的な表情や動作を演出することができる。
【0141】
また、上記説明では、音センサ24、検出スイッチ59の検出回数をカウントしてそのカウント値を比較して性別を設定したが、これ以外の検出手段としては、例えば、光センサ25などからの検出信号をカウントするようにしても良いのは勿論である。
【0142】
さらに、性別データがオスまたはメスに設定された場合の特徴は、図23(A)〜(C)に示す動作パターンに限らず、これ以外の表情や動作を行うように初期設定しても良いのは勿論である。
【0143】
図24は初期設定処理の変形例を説明するためのフローチャートである。
【0144】
図24に示されるように、制御部62のCPU80が実行する制御処理のうちS31〜S34の処理は前述したS20〜S23の処理と同一処理なので、その説明を省略する。
【0145】
S35においては、この場合、検出手段としての検出スイッチ59の検出動作を監視しており、検出スイッチ59からの検出信号が出力されると、S35に進み、その検出回数nを積算し、その積算値(カウント値n+1)をメモリに記憶させる。
次のS36では、所定時間T(例えば、T=1時間)が経過したかどうかをチェックする。従って、電池58が装着されてから1時間が経過するまで、S34〜S36の処理が繰り返される。
【0146】
そして、S36において、1時間が経過すると、S37に進み、検出スイッチ59のカウント値nを読み込む。S38において、検出スイッチ59のカウント値nが奇数かどうかをチェックする。
【0147】
次のS38において、検出スイッチ59のカウント値nが奇数であるときは、性別データをオスに設定する。
【0148】
また、S38で検出スイッチ59のカウント値nが奇数でないとき、すなわち、検出スイッチ59のカウント値nが偶数であるか、あるいはゼロであるため、S40に進み、性別データをメスに設定する。
【0149】
上記S39で、性別データがオスに設定されたとき、あるいはS40で性別データがメスに設定された後は、S41に進み、初期設定モードが解除される。そして、前述した図18に示すメインの制御処理に移行する。
【0150】
このようにして電池装着時にオスかメスかの初期設定が行われると、これ以降は設定された性別(個体差)に応じた表情や動作を行う(図23(A)〜(B)を参照)。従って、初期設定モードが設定されている間に検出された入力回数のカウント値が偶数か奇数かによって性別を設定するため、ユーザーの意思に関係なく設定された性別や性格に応じた表情や動作を演出することができる。すなわち、初期設定期間後のユーザーの接触に対応する表情や音声、動きに個体差が現れ、電子玩具があたかも動物のように性別や性格を持ったかのような演出が可能になる。
【0151】
また、上記説明では、検出スイッチ59の検出回数をカウントしてそのカウント値が奇数か偶数かを判定して性別を設定したが、これ以外の検出手段としては、例えば、音センサ24、光センサ25などからの検出信号をカウントしてそのカウント値が奇数か偶数かを判定して性別を設定するようにしても良いのは勿論である。
【0152】
尚、上記図20及ぶ図21において、スピーカ26からの音声は、各項目毎に複数種類が用意されており、且つ不機嫌モードのときはご機嫌モードのときよりも低音(低音も複数段階ある)で発声するようになっている。
【0153】
次に、本発明の第2実施例について説明する。
【0154】
図25は本発明の第2実施例に係る電子玩具の正面図である。また、図26は図25に示す電子玩具の側面図である。また、図27は図25に示す電子玩具の平面図である。また、図28は図25に示す電子玩具の背面図である。また、図29は図25に示す電子玩具の底面図である。また、図30は図25に示す電子玩具の斜視図である。尚、図25乃至図30において、前述した第1実施例の電子玩具10と同一構成部分には同一符号を付してその説明は省略する。
【0155】
図25乃至図30に示されるように、電子玩具90は、前述した電子玩具10と同様に頭部12、胴部14、脚部16〜19とを有する犬型玩具である。また、電子玩具90において、前述した電子玩具10と異なる動作としては、頭部12を左右方向に振ることができる点と、尻尾32を左右方向に揺動可能に設けられている点がある。
【0156】
さらに、電子玩具90は、胴部14の胸部分に2つのプッシュ式のモード選択スイッチ91A,91Bが設けられている。このモード選択スイッチ91A,91Bは、例えば後述する音声登録モードをスタートさせる際、あるいは性格育成モード、性格標準モード等を選択する際に何れか一方が選択的に操作される。また、モード選択スイッチ91A,91Bは、両方同時にオン操作されたときはメモリに記憶された制御データをリセットするためのリセットスイッチとして機能するものである。
【0157】
また、電子玩具90は、15種類の動作を行うことができる。
【0158】
図31は電子玩具90の動作種類と脚部16〜19の動作位置との組み合わせを示す図であり、(A)は動作種類と脚部16〜19の動作位置との組み合わせを示す図であり、(B)は各脚部16〜19の回動角度を示す図である。
【0159】
図31(A)(B)に示されるように、電子玩具90の前足となる脚部16,17は、垂直位置Aまたは水平位置Bの何れかに回動し、後足となる脚部18,19は垂直位置C、前傾斜位置D,水平位置E,後ろ傾斜位置Fの何れかに回動する。そして、脚部16,17が垂直位置Aまたは水平位置Bの何れかに回動し、脚部18,19が位置C〜Fの何れかに回動することにより立ち、座り、伏せ、威嚇、お手、良し、じたばた1、じたばた2、伸び1、伸び2、伸び3、腕立てフセ、バック1、バック2、演奏の各動作を行うことができる。
【0160】
例えば図32に示されるように、電子玩具90は、ユーザーから「立て」という言葉が入力されると、各脚部16〜19が垂直位置A、Cに回動して立ち状態となる。また、図33に示されるように、電子玩具90は、ユーザーから「お座り」という言葉が入力されると、脚部16、17が垂直位置Aに回動したまま後ろ側の脚部18、19が前傾斜位置Dに回動しておすわり状態となる。
【0161】
また、図34に示されるように、電子玩具90は、ユーザーから「お手」という言葉が入力されると、脚部17〜19が垂直位置A、Cに回動した状態で右前足となる脚部16を水平位置Bに回動してお手状態となる。また、図35に示されるように、電子玩具90は、ユーザーから「伏せ」という言葉が入力されると、各脚部16〜19が前方の水平位置B、Eに回動した伏せ状態となる。
【0162】
電子玩具90は、頭部12の前面に目の表情を表示する表示部20が設けられている。この表示部20は、前述したように複数の発光ダイオード(LED)を選択的に点灯させ、そのときの感情を目の表示パターンで表現できる。
【0163】
ここで、表示部20の表示パターンについて説明する。
【0164】
図36は表示部20の表示パターンの一例を示す図であり、(A)はニコ目を示す図、(B)は?目を示す図、(C)はハート目を示す図、(D)はジト目を示す図、(E)はマル目を示す図である。
【0165】
図36(A)〜(E)に示されるように、第2実施例の表示部20では、例えば、5種類の表示パターン▲1▼〜▲5▼を選択的に表示することが可能である。
【0166】
表示パターン▲1▼では、円弧形のニコ目パターンが発光部92a,92bで発光する。
【0167】
表示パターン▲2▼では、クエッションマーク状の?目パターンが発光部94a,94bで発光する。
【0168】
表示パターン▲3▼では、ハート形のハート目パターンが発光部96a,96bで発光する。
【0169】
表示パターン▲4▼では、三日月形のジト目パターンが発光部98a,98bで発光する。
【0170】
表示パターン▲5▼では、上記ニコ目パターンとジト目パターンとが同時に表示されたマル目パターンが発光部100a,100bで発光する。
【0171】
次に、電子玩具90に電池を装着した時に実行される音声登録モードについて説明する。
【0172】
図37は音声登録を説明するための図であり、(A)は音声登録の使用される登録単語の一例を示す図、(B)は音声登録の手順を説明するためのフローチャート、(C)は音声登録失敗例を説明するためのフローチャート、(D)は音声登録成功例を説明するためのフローチャートである。
【0173】
図37(A)に示されるように、本実施例では、▲1▼犬の名前、▲2▼お手、▲3▼伏せ、▲4▼お座り、▲5▼よしよし、▲6▼あそぼーよの6種類の言葉が音声登録用の単語として用いられる。
【0174】
次に、制御部62のCPU80が実行する音声登録の手順を説明する。
【0175】
図37(B)に示されるように、先ず、S51で電池を電子玩具90に装着した後、モード選択スイッチ91Aがオンに操作されると、音声登録モードをスタートする。次のS52では、電子玩具90のスピーカ26から「名前を言ってください」といったメッセージを発声するとともに表示部20にニコ目(図36(A)参照)を点滅表示する。これに対し、ユーザーが犬の名前(例えば、プーチ)を言うと、音センサ24に犬の名前が入力される。
【0176】
犬の名前の音声入力が登録されると、S53に進み、スピーカ26から「お手と言ってください」といったメッセージを発声するとともに表示部20にニコ目(図36(A)参照)を点滅表示する。これに対し、ユーザーが「お手」を言うと、音センサ24に「お手」といった言葉が入力される。
【0177】
お手の音声入力が登録されると、S54に進み、スピーカ26から「お座りと言ってください」といったメッセージを発声するとともに表示部20にニコ目(図36(A)参照)を点滅表示する。これに対し、ユーザーが「お座り」を言うと、音センサ24に「お座り」といった言葉が入力される。
【0178】
お座りの音声入力が登録されると、S55に進み、スピーカ26から「伏せと言ってください」といったメッセージを発声するとともに表示部20にニコ目(図36(A)参照を点滅表示する。これに対し、ユーザーが「伏せ」を言うと、音センサ24に「伏せ」といった言葉が入力される。
【0179】
伏せの音声入力が登録されると、S56に進み、スピーカ26から「よしよしと言ってください」といったメッセージを発声するとともに表示部20にニコ目(図36(A)参照)を点滅表示する。これに対し、ユーザーが「よしよし」を言うと、音センサ24に「よしよし」といった言葉が入力される。
【0180】
よしよしの音声入力が登録されると、S57に進み、スピーカ26から「あそぼーよと言ってください」といったメッセージを発声するとともに表示部20にニコ目(図36(A)参照)を点滅表示する。これに対し、ユーザーが「あそぼーよ」を言うと、音センサ24に「あそぼーよ」といった言葉が入力される。
【0181】
あそぼーよの音声入力が完了すると、S58に進み、スピーカ26から例えば、ピロリンといったような電子音が発声されて音声登録モードが終了する。
【0182】
このように、上記▲1▼犬の名前、▲2▼お手、▲3▼伏せ、▲4▼お座り、▲5▼よしよし、▲6▼あそぼーよの6種類の言葉がユーザーの音声で登録される。この後は、登録されたユーザーの音声が他の音声よりも優先される。
【0183】
次に、音声登録を失敗した場合について説明する。
【0184】
図37(C)に示されるように、S61でスピーカ26から「名前を言ってください」といったメッセージを発声するとともに表示部20にニコ目(図36(A)参照)を点滅表示した場合、ユーザーが犬の名前(例えば、プーチ)を言っても音センサ24から犬の名前が入力されず登録されなかったときは、S62に進み、スピーカ26からブブーといったエラー音を発声させると共に、表示部20に?目(図36(B)参照)を表示する。これにより、ユーザーは、音声登録が失敗したことを確認できる。
【0185】
そして、S63では「もう一度名前を言って下さい」といったメッセージをスピーカ26から発声させる。
【0186】
また、音声登録が成功した場合の動作について説明する。
【0187】
図37(D)に示されるように、S71でスピーカ26から「名前を言ってください」といったメッセージを発声するとともに表示部20にニコ目(図36(A)参照)を点滅表示した場合、ユーザーが言った犬の名前(例えば、プーチ)が登録されたときは、S72に進み、スピーカ26からピンポンといった電子音を発声させると共に、表示部20にハート目(図36(C)参照)を表示する。これにより、ユーザーは、音声登録が成功したことを確認できる。
【0188】
次に、電子玩具90の音声登録モードが完了すると、電子玩具90の性格を登録する性格登録モードに移行する。
【0189】
ここで、図38乃至図40を参照して電子玩具90の性格登録モードについて説明する。図38は性格形成の条件の一例を説明するための図であり、(A)は性格特徴を示す図、(B)は性格形成パラメータMAPの一例を示す図、(C)は性格変化の条件の一例を示す図である。
【0190】
図38(A)に示されるように、電子玩具90で登録可能な性格は、▲1▼駄犬(特徴は例えば、下品な声で下品な歌を歌う、主人の指示内容を聞かず異なる行動を行ったり、寝てばかりいる)、▲2▼忠犬(特徴は主人の指示内容に忠実な行動を行うと共に、歌も歌える)▲3▼芸犬(特徴は忠犬と同様に忠実な性格と愛嬌を併せ持つ、例えば「あそぼーよ」と言うと特別な芸を行うなど)の3種類がある。
【0191】
図38(B)に示されるように、電子玩具90の性格を形成する性格形成パラメータMAP102には、忠犬パラメータと芸犬パラメータとがある。この性格形成パラメータは、ユーザーが電池を装着した後、所定時間(例えば、4時間)以内に行った接触(しつけ)の仕方や回数に応じてポイントがカウントされる。
忠犬パラメータとしてカウントされる接触(しつけ)方法は、例えばお手、お座り、伏せ等の呼びかけがある。また、芸犬パラメータとしてカウントされる接触(しつけ)方法としては、「あそぼうよ」という呼びかけがある。
【0192】
例えば、ユーザーがお手と言った場合、電子玩具90が図34に示すお手の動作を行った場合、お手のポイントが増加される。このように電子玩具90がユーザーの命令に従うと性格形成パラメータMAP102の各項目が丸印で埋まり忠犬パラメータ及び芸犬パラメータのポイントが増加する。
【0193】
そして、図38(C)に示されるように、性格変化の条件としては、例えば、4時間以内に性格形成パラメータMAP102のすべての項目が25ポイントになった場合、電子玩具90の性格は芸犬となる。また、4時間以内に性格形成パラメータMAP102のうち忠犬パラメータの各項目が25ポイントになった場合、電子玩具90の性格は忠犬となる。また、4時間以内に性格形成パラメータMAP102のうち忠犬パラメータ及び芸犬パラメータの各項目が25ポイントに達していない場合、電子玩具90の性格は駄犬となる。
【0194】
図39は性格登録動作の一例を説明するための図であり、(A)は不正解の動作例を示す図、(B)は正解の動作例を示す図である。
【0195】
図39(A)に示されるように、例えば、ユーザーが「お手」と命令したのに動作候補のなかからオスワリが選択されて電子玩具90がオスワリの動作(図33参照)を行った場合、間違った動作をしたので、ユーザーは電子玩具90の頭部12の上面に設けられたスピーカ26をたたく。これにより、スピーカ26の下方に設けられた検出スイッチ59が強い力で押圧されてオンに操作される。
【0196】
判定処理で検出スイッチ59が強い力で押圧されたことが検出されると、性格形成パラメータMAP102のポイントとして登録されず、制御部62は次回動作候補を選択する。
【0197】
しかしながら、図39(B)に示されるように、例えば、ユーザーが「お手」と命令したのに動作候補のなかからオテが選択されて電子玩具90がオテの動作(図34参照)を行った場合、ユーザーがヨシヨシと言うと、音センサ24に「よしよし」といった言葉が入力される。これで、制御部62は、次回動作候補からオテをリセットして性格形成パラメータMAP102のポイントとして登録する。
図40は上記性格形成パラメータMAP102に登録された忠犬パラメータI及び芸犬パラメータIIのポイント数の変化(増加)に応じて設定される電子玩具90の性格を示すグラフであり、(A)は忠犬設定モードを示すグラフ、(B)は芸犬設定モードを示すグラフ、(C)(D)は駄犬設定モードを示すグラフである。尚、性格形成は、小犬の時期(例えば、電池装着から4時間)に行われる。
【0198】
図40(A)に示されるように、電子玩具90は、電池が装着されたときは幼犬であり、学習機能が機能しないので、ユーザーの命令に対して動作が予測できない。そして、幼犬期(未熟期)が過ぎると、小犬期(育成時期)に入り性格形成が可能になる。そして、ユーザーが小犬期に接触した回数と接触方法に応じて性格形成パラメータMAP102に登録された忠犬パラメータI及び芸犬パラメータIIのポイント数が変化(増加)する。
【0199】
例えば、小犬期に忠犬パラメータIのポイントが芸犬パラメータIIのポイントよりも先に目標(ポイント25)を達成すると、成犬期(育成完了時期)に入ったとき電子玩具90の性格は忠犬となり、忠犬フラグ(第1の制御フラグ)がセットされる。
【0200】
また、図40(B)に示されるように、小犬期に芸犬パラメータIIのポイントが忠犬パラメータIのポイントよりも先に目標(ポイント25)を100%達成すると、成犬期に入ったとき電子玩具90の性格は芸犬となり、芸犬フラグがセットされる。
【0201】
また、図40(C)に示されるように、小犬期の当初は芸犬パラメータIIのポイントが忠犬パラメータIのポイントと同じように増加し、途中から芸犬パラメータIIが急激に増加して目標(ポイント25)を達成すると、成犬期に入ったとき電子玩具90の性格は駄犬となり、駄犬フラグ(第2の制御フラグ)がセットされる。
【0202】
また、図40(D)に示されるように、小犬期の当初は芸犬パラメータIIのポイントが忠犬パラメータIのポイントよりも低く変化し、途中から芸犬パラメータIIが急激に増加して忠犬パラメータIのポイントより大きな値に増加した場合、成犬期に入ったとき電子玩具90の性格は駄犬となる。
【0203】
このように、電子玩具90が小犬期にユーザーの接触方法や接触回数などによって忠犬パラメータI及び芸犬パラメータIIのポイント数が変化(増加)して電子玩具90の性格が忠犬、芸犬、駄犬の何れかに設定されるため、ユーザーが電池装着後の所定時間内に十分に接触した場合は忠犬または芸犬に育成することができ、接触回数が少ないときは駄犬になってしまうので、育成方法を楽しむことができる。
【0204】
次に、性格育成時期が終わって電子玩具90が成犬になったときの動作制御を行うための感情パラメータについて説明する。
【0205】
この感情パラメータは、時間の経過に伴なって変化する気分パラメータと、えさの供給回数によって変化する満腹パラメータとを有する。
【0206】
図41は気分パラメータを説明するための図であり、(A)は気分パラメータのレベルを示す図、(B)は各レベルの状態を示す図、(C)は気分パラメータのプラス条件を示す図、(D)は気分パラメータのマイナス条件を示す図である。
【0207】
図41(A)に示されるように、気分パラメータの値Pは、レベル1〜5の5段階に変化するように設定されている。レベル1ではP=0〜20、レベル2ではP=20〜40、レベル3ではP=40〜60、レベル4ではP=60〜80、レベル5ではP=80〜100、100〜127となる。
【0208】
尚、スタート当初は、気分パラメータの値Pは、初期値がP=50に登録されている。
【0209】
図41(B)に示されるように、気分パラメータの値Pがレベル1であるとき、電子玩具90は制御モードが超不機嫌な状態となる。また、気分パラメータの値Pがレベル2であるとき、電子玩具90は制御モードが不機嫌な状態となる。また、気分パラメータの値Pがレベル3であるとき、電子玩具90は制御モードが普通(ノーマル)の状態となる。また、気分パラメータの値Pがレベル4であるとき、電子玩具90は制御モードがゴキゲンな状態となる。また、気分パラメータの値Pがレベル5であるとき、電子玩具90は制御モードが超ゴキゲンの状態となる。
【0210】
図41(C)に示されるように、ユーザーが電子玩具90の頭部12をなでると気分パラメータの値Pが2ポイント増加され、ユーザーからの音声による命令で動作した後に誉められたとき(例えば、「よしよし」等の言葉)は気分パラメータの値Pが4ポイント増加される。また、ユーザーからの音声による命令で動作した後に駄目と言われたときは気分パラメータの値Pが4ポイント増加される。
【0211】
図41(D)に示されるように、ユーザーが電子玩具90の頭部12をたたいたときは、気分パラメータの値Pが1ポイントマイナスされる。また、エサの供給時間が経過(例えば、1分間毎)するとともに満腹レベルが段階的に低下して気分パラメータの値Pが満腹レベル5では2ポイントマイナス、満腹レベル4では4ポイントマイナス、満腹レベル3では6ポイントマイナス、満腹レベル2では8ポイントマイナス、満腹レベル1では10ポイントマイナスとなる。従って、気分パラメータは、満腹パラメータの値Pに応じて変化するように設定されている。
【0212】
また、電子玩具90が眠る時点で気分パラメータの値Pが100を越えていた場合は、レベル5であるのでP=100に修正する。
【0213】
また、気分パラメータの値Pが127(レベル5の最大値)を越えた場合は、超ゴキゲン状態がかなり続いたので、P=20に修正して超不機嫌状態に変化させる。
【0214】
図42は満腹パラメータを説明するための図であり、(A)は満腹パラメータのレベルを示す図、(B)は各レベルの状態を示す図、(C)は満腹パラメータのプラス条件を示す図、(D)は満腹パラメータのマイナス条件を示す図である。
【0215】
図42(A)に示されるように、満腹パラメータの値Pは、レベル1〜5の5段階に変化するように設定されている。レベル1ではP=0〜20、レベル2ではP=20〜40、レベル3ではP=40〜60、レベル4ではP=60〜80、レベル5ではP=80〜100、100〜127となる。
【0216】
尚、スタート当初は、満腹パラメータの値Pの初期値がP=50に登録されている。
【0217】
図42(B)に示されるように、気分パラメータの値Pがレベル1であるとき、電子玩具90は制御モードが超空腹な状態となる。また、満腹パラメータの値Pがレベル2であるとき、電子玩具90は制御モードが空腹な状態となる。また、満腹パラメータの値Pがレベル3であるとき、電子玩具90は制御モードが普通(ノーマル)の状態となる。また、満腹パラメータの値Pがレベル4であるとき、電子玩具90は制御モードが満腹状態となる。また、満腹パラメータの値Pがレベル5であるとき、電子玩具90は制御モードが超満腹状態となる。
【0218】
尚、満腹パラメータの値PがP=127以上になると、おなかがパンクするため、P=20に減少させる。
【0219】
図42(C)に示されるように、ユーザーが電子玩具90にエサを与えると満腹パラメータの値Pが4ポイント増加される。
【0220】
図42(D)に示されるように、電子玩具90がエサを要求する音声を発したとき、あるいはエサを要求する動作を行ったときは、満腹パラメータの値Pが1ポイントマイナスされる。
【0221】
また、電子玩具90が空腹になってエサを要求してから所定時間(例えば、1分間)が経過する度に満腹パラメータの値Pが4ポイントマイナスされる。従って、ユーザーが定期的にエサを与えると満腹パラメータの値Pが増加し、ユーザーがエサを与えないと満腹パラメータの値Pが減少して空腹になるとともに、気分パラメータPも減少して不機嫌な状態に変化する。
【0222】
尚、エサとしては、例えば骨に似た形状の樹脂材に磁石を埋め込み、電子玩具90の口31の内部に磁気センサを設けることによりエサが与えられたことを検出することができる。あるいは、電子玩具90の口31の内部に光センサを設けてエサを検出するようにして良い。
【0223】
図43は気分パラメータの変化の一例を示すグラフである。
【0224】
図43に示されるように、時間0からtの間は、ユーザーがかまってあげているので気分パラメータの値Pが上昇する。また、時間tからtの間は、ユーザーがかまってあげないので気分パラメータの値Pが低下する。
【0225】
時間tでは、気分パラメータの値PがP=127以上になるため、満腹パラメータの値Pによって急激に低下する。これにより、超御機嫌モードが連続してユーザーが飽きてしまうのを防止する。
【0226】
図44は満腹パラメータの値Pに応じた気分パラメータの変動値の一例を示す図である。
【0227】
図44に示されるように、本実施例では、▲1▼満腹パラメータの値Pが0〜20のときは、気分パラメータの値Pの変動値が100ポイントマイナス、▲2▼満腹パラメータの値Pが20〜40のときは、気分パラメータの値Pの変動値が90ポイントマイナス、▲3▼満腹パラメータの値Pが40〜60のときは、気分パラメータの値Pの変動値が80ポイントマイナス、▲4▼満腹パラメータの値Pが60〜80のときは、気分パラメータの値Pの変動値が70ポイントマイナス、▲5▼満腹パラメータの値Pが80〜127のときは、気分パラメータの値Pの変動値が60ポイントマイナスとなる。
【0228】
従って、空腹なときほど気分パラメータのマイナス変動値が大きく、満腹なときほど気分パラメータのマイナス変動値が小さい。よって、気分パラメータは、ユーザーからの音声入力や頭部12をなでたりするとともに、エサの供給回数や供給間隔によって変動する満腹パラメータに影響されて変動する。そのため、ユーザーは、実際の犬と同様にエサを与える時間や回数にも注意する必要があり、実際の犬を飼っているような感覚で電子玩具90と遊ぶことができる。
【0229】
ここで、上記のように構成された電子玩具90の制御部62が実行する制御処理について説明する。
【0230】
図45は電子玩具90の制御部62が実行するメイン処理のフローチャートである。また、図46は図45の処理に続いて実行されるメイン処理のフローチャートである。
【0231】
図45に示されるように、電子玩具90に電池が装着されると、S80で音声認識用の言葉を登録する。この音声登録処理は、前述した図37(A)〜(D)を参照のこと。
【0232】
次のS81では、電子玩具90の性格を小犬期に育成する性格育成モードと、性格育成を省略して性格標準モードとの何れか一方を選択する。例えば、S81において、ユーザーがモード選択スイッチ91Aをオンに操作したときは、性格育成モードが選択され、ユーザーがモード選択スイッチ91Bをオンに操作したときは、性格標準モードが選択される。
【0233】
従って、S81において、モード選択スイッチ91Aがオンになったときは、S82に進み、性格育成モードがセットされる。また、S81において、モード選択スイッチ91Bがオンになったときは、S83に進み、性格標準モードとして設定された忠犬モードがセットされる。
【0234】
S83で忠犬モードがセットされたときは、S84で忠犬モードの制御データをROM82から読み込む。続いて、S85では忠犬モードの制御が行われる。そして、S86でリセットされるまで、忠犬モードの制御が継続される。
【0235】
また、上記S82で性格育成モードがセットされると、S87に進み、幼犬期の動作制御を行う。この幼犬期の動作制御としては、各音声入力や頭部12をなでるなどの入力に対する動作、入力がないときの動作、気分パラメータ及び満腹パラメータに基づく動作などを行う。次のS88では、幼犬期が終了したかどうかをチェックする。
【0236】
S88で幼犬期が終了すると、S89に進み、小犬期の動作制御を行う。この小犬期の動作制御は、前述した学習モード(図38乃至図40参照)であり、頭部12のスイッチ、音声、エサ等の各入力に対する処理、入力がないときの処理、気分パラメータ及び満腹パラメータの処理、言葉に対する性格形成パラメータMAP102への記入(忠犬パラメータ処理)、芸犬パラメータ処理などがある。 次のS90では、小犬期が終了したかどうかをチェックする。この小犬期が終了するまで、S88の小犬期の動作制御が実行される。
【0237】
S90において、小犬期が終了すると、S91に進み、上記S88の処理で育成された性格データ(忠犬パラメータ、芸犬パラメータ)に応じた忠犬、芸犬、駄犬の何れかのフラグをセットする(図40(A)〜(D)参照)。
【0238】
次のS92(図46参照)では、忠犬フラグがセットされたかどうかをチェックする。S92において、忠犬フラグがセットされたときは、S93に進み、芸犬フラグがセットされたかどうかをチェックする。S93において、芸犬フラグがセットされたときは、S94に進み、芸犬モードを設定した後、S95で芸犬モードの制御データをROM82から読み込む。続いて、S96では芸犬モードの制御が行われる。そして、S97でリセットされるまで、芸犬モードの制御が継続される。
【0239】
また、上記S92において、忠犬フラグがセットされていないときは、駄犬フラグがセットされているものと判断してS98に進み、駄犬モードを設定した後、S99で駄犬モードの制御データをROM82から読み込む。続いて、S100では駄犬モードの制御が行われる。そして、S101でリセットされるまで、駄犬モードの制御が継続される。
【0240】
また、上記S93において、芸犬フラグがセットされていないときは、上記S83に移行してS83〜S86の処理を実行する。
【0241】
このように、第2実施例では、小犬期にユーザーの対応の仕方に応じた性格育成処理を行うことによって個性的な性格データ(忠犬パラメータ、芸犬パラメータ)を形成することができ、実際のペットを飼育するのと同じような感覚で遊ぶことができる。
【0242】
また、上記実施例では、犬形の電子玩具を一例として説明したが、これに限らず、他の動物、例えば猫、虎、ライオン、猿、馬、象、キリン等の動物に似せた電子玩具にも適用できるのは勿論である。
【0243】
【発明の効果】
上述の如く、上記請求項1記載の発明によれば、目の表現パターンの一つまたは複数に対応するデータを選択して当該データに基づき光源の一つまたは複数を選択的に点灯し、当該点灯した光源に対応するプレートに光を入射して穴によって構成されるパターンを表示することによって選択されたデータに対応する目の表現パターンがカバー部材を介して目視可能に点灯するため、目の表現パターンを予測することが難しいので、長期間遊んでも飽きることがない。
【0244】
また、請求項2記載の発明によれば、センサからの信号に応答して、複数の表現パターンデータの何れかを選択し、選択された当該表現パターンデータに基づき選択された光源を点灯し当該点灯した光源に対応する板状部材に入射される光によって対応する当該板状部材に設けられた一群の小孔を発光させることで表示部に選択された目の表現パターンを表示する制御と複数の動作パターンの何れかを選択し、当該選択された動作パターンデータに基づき前記脚部に対応する動作を行わせる制御とを行うため、センサからの入力のタイミングによって異なる動作を行うようにできる。さらに、動作パターンを予測することが難しいので、入力に対して意外な行動を起こすように制御できるので、長期間遊んでも飽きることがない。
【0245】
また、上記請求項3記載の発明によれば、脚部がカム機構から伝達される回転力によって動作制御されるため、表示部に表示される目の表現パターンに連動して脚部を動作させて長期間遊んでも飽きることがない。
【0246】
また、上記請求項4記載の発明によれば、頭部に設けられた耳形状部が伝達機構によって伝達される回転力によって駆動されるため、脚部を駆動する駆動機構により耳形状部も動作させることができ、入力に対して意外な行動を起こすように制御できるので、長期間遊んでも飽きることがない。
【0247】
また、上記請求項5記載の発明によれば、初期設定手段が初期設定モードを設定している期間にカウンタにより得られたカウント数に応じた性格に関するデータを登録し、制御手段は、性格形成手段によって登録された性格に関するデータに基づき複数の光源を選択的に点灯させる制御および脚部の動作の制御を行うため、初期設定期間後のユーザーの接触に対応する表情や音声、動きに個体差が現れ、電子玩具があたかも動物のように性別や性格を持ったかのような演出が可能になる。
【0249】
また、上記請求項記載の発明によれば、性格形成手段がカウンタから得られたカウント値が偶数であるか奇数であるかに基づき性格に関するデータを登録するため、複雑な演算を行なわずに異なる性格を適宜設定することができる。
【図面の簡単な説明】
【図1】本発明の第1実施例に係る電子玩具の正面図である。
【図2】図1に示す電子玩具の側面図である。
【図3】図1に示す電子玩具の平面図である。
【図4】図1に示す電子玩具の背面図である。
【図5】図1に示す電子玩具の底面図である。
【図6】図1に示す電子玩具の斜視図である。
【図7】脚部16〜19の回動方向及び回動角度を示す電子玩具10の側面図である。
【図8】電子玩具10が寝ている姿勢Aのときの動作状態を示す側面図である。
【図9】電子玩具10が立っている姿勢Bのときの動作状態を示す側面図である。
【図10】電子玩具10が前のめり姿勢Cのときの動作状態を示す側面図である。
【図11】電子玩具10の内部構造を示す正面縦断面図である。
【図12】電子玩具10の内部構造を示す側面縦断面図である。
【図13】電子玩具10の内部構造を示す平面縦断面図である。
【図14】表示部20に組み込まれる赤色アクリル板71〜74を個別に示す正面図である。
【図15】表示部20で発光表示される表示パターンの組み合わせを示す図である。
【図16】電子玩具10の制御系統の構成を示すブロック図である。
【図17】制御部62の構成を示すブロック図である。
【図18】制御部62のCPU80が実行する制御処理を説明するためのフローチャートである。
【図19】ペットバイオリズム及びコミュニケーションバイオリズムの変化を示すグラフである。
【図20】ご機嫌モードのときの各センサからの動作入力に応じて行われる動作及び表情の制御方法を示す図である。
【図21】不機嫌モードのときの各センサからの動作入力に応じて行われる動作及び表情の制御方法を示す図である。
【図22】初期設定処理を説明するためのフローチャートである。
【図23】性格データがオスまたはメスに設定されたときの性別毎の特徴を示す図であり、(A)はオスとメスの特徴を示す一覧、(B)は性格データがオスに設定された場合の目の表情を示す図、(C)は性格データがメスに設定された場合の目の表情を示す図である。
【図24】初期設定処理の変形例を説明するためのフローチャートである。
【図25】本発明の第2実施例に係る電子玩具の正面図である。
【図26】図25に示す電子玩具の側面図である。
【図27】図25に示す電子玩具の平面図である。
【図28】図25に示す電子玩具の背面図である。
【図29】図25に示す電子玩具の底面図である。
【図30】図25に示す電子玩具の斜視図である。
【図31】電子玩具90の動作種類と脚部16〜19の動作位置との組み合わせを示す図であり、(A)は動作種類と脚部16〜19の動作位置との組み合わせを示す図であり、(B)は各脚部16〜19の回動角度を示す図である。
【図32】電子玩具90の立ち動作を説明するための側面図である。
【図33】電子玩具90のお座り動作を説明するための側面図である。
【図34】電子玩具90のお手動作を説明するための側面図である。
【図35】電子玩具90の伏せ動作を説明するための側面図である。
【図36】表示部20の表示パターンの一例を示す図であり、(A)はニコ目を示す図、(B)は?目を示す図、(C)はハート目を示す図、(D)はジト目を示す図、(E)はマル目を示す図である。
【図37】音声登録を説明するための図であり、(A)は音声登録の使用される登録単語の一例を示す図、(B)は音声登録の手順を説明するためのフローチャート、(C)は音声登録失敗例を説明するためのフローチャート、(D)は音声登録成功例を説明するためのフローチャートである。
【図38】性格形成の条件の一例を説明するための図であり、(A)は性格特徴を示す図、(B)は性格形成パラメータMAPの一例を示す図、(C)は性格変化の条件の一例を示す図である。
【図39】性格登録動作の一例を説明するための図であり、(A)は不正解の動作例を示す図、(B)は正解の動作例を示す図である。
【図40】性格形成パラメータMAP102に登録された忠犬パラメータI及び芸犬パラメータIIのポイント数の変化(増加)に応じて設定される電子玩具90の性格を示すグラフであり、(A)は忠犬設定モードを示すグラフ、(B)は芸犬設定モードを示すグラフ、(C)(D)は駄犬設定モードを示すグラフである。
【図41】気分パラメータを説明するための図であり、(A)は気分パラメータのレベルを示す図、(B)は各レベルの状態を示す図、(C)は気分パラメータのプラス条件を示す図、(D)は気分パラメータのマイナス条件を示す図である。
【図42】満腹パラメータを説明するための図であり、(A)は満腹パラメータのレベルを示す図、(B)は各レベルの状態を示す図、(C)は満腹パラメータのプラス条件を示す図、(D)は満腹パラメータのマイナス条件を示す図である。
【図43】気分パラメータの変化の一例を示すグラフである。
【図44】満腹パラメータの値Pに応じた気分パラメータの変動値の一例を示す図である。
【図45】電子玩具90の制御部62が実行するメイン処理のフローチャートである。
【図46】図45の処理に続いて実行されるメイン処理のフローチャートである。
【符号の説明】
10 電子玩具
12 頭部
14 胴部
16〜19 脚部
20 表示部
22 鼻部
24 音センサ
25 光センサ
26 スピーカ
28 身部
30 顎部
31 口
32 尻尾
36 モータ
38 伝達機構
40 駆動ギヤ
42 第1の伝達ギヤ
44 第2の伝達ギヤ
46 第3の伝達ギヤ
48 第1のカムギヤ
52 第4の伝達ギヤ
54 第2のカムギヤ
56 伝達経路
58 電池
59 検出スイッチ
62 制御部
64 基板
71〜74 赤色アクリル板
75〜79 発光ダイオ−ド(LED)
80 CPU
82 ROM
82A 動作制御プログラム
82B 姿勢制御データ
82C 音声制御データ
82D 表示制御データ
82E ペットバイオリズムデータ
82F バイオリズム補正データ
84 RAM
84A カウンタ
84B コミュニケーションバイオリズムデータ
86 タイマ
90 電子玩具
91A,91B 選択スイッチ
102 性格形成パラメータMAP
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an electronic toy that is controlled so as to perform an arbitrary operation in response to an external voice or contact.IngredientsRelated.
[0002]
[Prior art]
Traditionally, animal stuffed animals such as dogs, cats and bears have been widely used as animal toys. In addition, a motor and a speaker are built in a synthetic resin body that is shaped like an animal stuffed animal or animal, and performs a predetermined operation such as moving a foot or a mouth by touching and pressing the head. There is also an animal toy configured to utter a predetermined cry.
[0003]
In this type of animal toy, the same operation is repeated and the same cry is repeatedly uttered, so the user often gets bored quickly.
[0004]
On the other hand, if an operation is selected at random, the operation expected by the user may not occur and the user may get bored immediately.
[0005]
Development of an electronic toy equipped with a microcomputer for controlling such a conventional animal toy so as to perform various operations so as not to get tired of the user has been promoted.
[0006]
As an electronic toy, for example, when the head is stroked, hugged, or voiced, a certain kind of operation (for example, an operation that utters a pre-stored word from a speaker or shakes the body by a command of a microcomputer) Etc.). Also, with this type of electronic toy, the number of strokes of the head, the number of times it is picked up, the number of times it is spoken is counted, and for example, as the count value increases, the words uttered from the speaker are changed step by step into a cute expression. I have control.
[0007]
[Problems to be solved by the invention]
In the above-mentioned conventional electronic toys, the spoken words gradually change into cute expressions as the number of strokes of the head, the number of times of picking up, the number of times of calling, etc. increase, so the movement pattern can be predicted. End up.
[0008]
Therefore, the conventional electronic toy has a problem that the user gets bored in a relatively short period of time because it becomes clear what word is spoken next as the time of contact increases.
[0009]
  Accordingly, the present invention provides an electronic toy that solves the above-mentioned problems by changing the operation pattern in accordance with the result of combining parameters that change depending on the number of times and time of input such as external voice and contact.IngredientsThe purpose is to provide.
[0010]
[Means for Solving the Problems]
  In order to solve the above problems, the present invention has the following features.
  The invention according to claim 1 is an electronic toy provided with a head-shaped member formed in a head shape in which a display unit is arranged, and the display unit is arranged so as to overlap a face part of the head-shaped member. A plurality of plates and a plurality of light sources arranged corresponding to each of the plates, and each of the plates is formed with a group of holes arranged in a predetermined pattern different from the other plates. Each of the light sources is arranged so that light enters the plate from the side surface of the corresponding plate, and when any one of the light sources emits light, the light enters the corresponding plate from the side surface, The hole portion is configured to emit light to the outside of the plate to display the hole pattern formed on the plate, and further, a translucent cover disposed so as to cover the plurality of plates. A member, a storage medium storing data for displaying a plurality of eye expression patterns, and control means for selectively lighting the plurality of light sources based on the data stored in the storage medium. The control means selects data corresponding to one or more of the expression patterns of the eyes, selectively lights one or more of the light sources based on the data, and a plate corresponding to the lit light source By displaying light and entering a pattern formed by the holes, the expression pattern of the eyes corresponding to the selected data is lit in a visible manner through the cover member. is there.
  The invention according to claim 2 is an electronic toy comprising a torso, a head, and a leg movably formed at a lower portion of the torso, and is disposed on a face part of the head,Different expressionspatternA plurality of plate-like members provided with a group of small holes arranged on each other are stacked or arrangedThe configured display unit and the display unitSelective to any of the plurality of plate-like membersA plurality of light sources arranged in the electronic toy so that light enters from the outside of the display unit, a translucent cover arranged to cover at least the display unit, and a plurality of external inputs Sensors, a drive mechanism for transmitting power to the legs, a plurality of expression pattern data for displaying an expression of eyes on the display, and a plurality of operation pattern data for controlling the operation of the legs And a control means for selectively turning on the plurality of light sources and controlling the operation of the legs based on the data stored in the storage medium, and the display Placed in the departmentThe group of small holes provided in the plate-like memberEach of which is incident from the light sourceTo radiate out of the plate-like memberThe control means is configured to respond to a signal from the sensor and which of the plurality of expression pattern dataOrSelect and the selectedExpressionTurn on the light source selected based on the pattern dataRightThe lit light sourceInto the plate-shaped member corresponding toCorresponding to the lightThe group of small holes provided in the plate memberThe expression pattern of the selected eye is displayed on the display unit by emitting lightControl to,Select one of the plurality of operation patterns, andThe leg based on the selected motion pattern dataCorresponding toActionDocontrolAnd doIt is characterized by this.
  According to a third aspect of the present invention, the drive mechanism is driven by a drive motor, a transmission mechanism connected to the drive motor and transmitting a rotational force of the drive motor, and a rotational force transmitted by the transmission mechanism. A cam mechanism, wherein the leg portion is configured to be controlled by a rotational force transmitted from the cam mechanism.
  The invention according to claim 4 is characterized in that the head is further provided with an ear-shaped portion, and the ear-shaped portion is driven by a rotational force transmitted by the transmission mechanism. .
  The invention according to claim 5 further includes initial setting means for setting an initial setting mode upon power-on, a counter for counting signals detected by the sensor, and character forming means, wherein the character forming means. Registers data relating to the personality according to the count obtained by the counter during the period in which the initial setting means sets the initial setting mode, and the control means relates to the personality registered by the personality forming means. Control of selectively turning on the plurality of light sources and control of the operation of the leg portions are performed based on the data.
  The invention described in claim 6 is characterized in that the personality forming means registers data relating to personality based on whether the count value obtained from the counter is an even number or an odd number.
[0011]
  Furthermore, the present invention has the following features.
  (1) BookAccording to the present invention, when a detection signal is output from the detection means, any one of a plurality of operation patterns stored in the storage means is selected based on the count value of the counter means and the value of the first parameter set by the parameter change means. The operation pattern information is selected. For example, when there is an input such as an external voice or a touch, a different operation can be performed depending on the input timing. Furthermore, since it is difficult to predict an operation pattern, it can be controlled to cause an unexpected action with respect to an input, so that it does not get bored even if it plays for a long time.
[0012]
  (2)Also,BookThe invention repeats the mood mode and the mood mode alternately at a predetermined cycle based on a control parameter that changes with the passage of time, and switches to the mood mode or the mood mode depending on the input timing, and is not predicted. It is possible to increase the fun by performing the operation.
[0013]
  (3)Also,BookThe invention changes the period of the mood mode and / or the mood mode according to the number of detections, and the period of the mood mode becomes longer or the period of the mood mode becomes longer depending on how the user touches. At that time, it becomes difficult to predict the operation pattern, and it is possible to increase the fun by performing an unexpected operation.
[0014]
  (4)Also,BookThe present invention selects a special operation pattern when the value indicating the change in the first parameter matches the count value of the counter means, and the normal operation is performed by an unexpected reaction different from the normal operation. You can enjoy it even more.
[0015]
  (5)Also,BookThe invention detects external voices, external contacts and changes in ambient light intensity, and recognizes being cute and can be operated according to the detected content.Become.
[0016]
  (6)Also,BookThe invention repeats the same operation together with the timing when the operation pattern selected according to the number of times of sound detection, the number of contact detections, and the number of light changes counted by the first to third counter means is changed. In this way, it is possible to produce the fun of the reaction to the input.
[0017]
  (7)Also,BookIn the invention, the selection means selects the information of the special operation pattern when the value indicating the change of the parameter matches the count value of the first to third counter means, and differs depending on each count value. It is possible to enjoy more than selecting a special operation pattern and performing an unexpected operation.
[0018]
  (8)Also,BookThe invention includes a posture action pattern stored in the first storage unit based on a count value of the counter unit and a value of the first parameter set by the parameter changing unit, a voice pattern stored in the second storage unit, An arbitrary action is selected from the facial expression pattern data stored in the third storage unit,(1)The effects and effects of can be achieved.
[0019]
  (9)Also,BookThe invention selects the combination of the posture action pattern, the voice pattern, and the expression pattern based on the count value of the counter means and the value of the first parameter set by the parameter changing means.(1)The effects and effects of can be achieved.
[0020]
  (10)Also,BookIn the invention, the expression pattern is operated so as to include at least an operation pattern that changes the size or shape of the eyes, and is based on the count value of the counter means and the value of the first parameter set by the parameter changing means. By changing the size or shape of the eye, it is possible to produce a facial expression according to the personality change at that time.
[0021]
  (11)Also,BookThe present invention provides a first process for counting the number of detection signals, a second process for changing the value of the first parameter, a third process for selecting an operation pattern, and a fourth process for performing control with the selected operation pattern. Is a control method for performing the above process.(1)The effects and effects of can be achieved.
[0022]
  (12)Also,BookThe present invention executes the first to fourth control programs stored in the storage medium.(1)The same actions and effects can be achieved.
[0023]
  (13)Also,BookThe invention selects an arbitrary operation pattern from a plurality of operation patterns stored in the storage unit according to the timing at which the detection signal is output from the first to third detection units, and corresponds to the selected operation pattern. Control the display pattern of the drive motor and the display unit, and(1)The same actions and effects can be achieved.
[0024]
  (14)Also,BookThe invention sets the individual difference according to the count value of the number of detections detected by the detection means while the initial setting mode is set by the initial setting means. The individual difference such as gender can be preset as the initial value depending on the number of times the user touches while the is set, and individual differences appear in the facial expression, voice and movement corresponding to the user's contact after the initial setting period This makes it possible to produce an electronic toy as if it had gender and character like an animal.
[0025]
  (15)Also,BookThe invention sets an individual difference according to a user's contact method in advance as an initial value in order to set an individual difference according to the detection means having the largest number of detection times among a plurality of detection means, Individual differences appear in the facial expression, voice, and movement corresponding to the user's contact after the set period, and it is possible to produce an electronic toy as if it had gender and personality like an animal.
[0026]
  (16)Also,BookThe invention sets individual differences depending on whether the count value of the number of inputs detected while the initial setting mode is set is an even number or an odd number, and a facial expression or voice corresponding to the user's contact after the initial setting period. Individual differences appear in the movement, and the electronic toy can be produced as if it had gender and personality like an animal.
[0027]
  (17)Also,BookThe invention sets gender according to the count value of the number of inputs detected while the initial setting mode is set, and changes at least one of the facial expression, voice, and movement corresponding to the set gender. The user's contact method and gender according to the contact method can be preset as initial values, individual differences appear in the facial expression, voice, movement, and the electronic toy looks like an animal It is possible to produce as if having personality.
[0028]
  (18)Also,BookThe invention has voice registration means for registering voice input from the outside when the battery is mounted, and control means for performing operation control according to instructions by voice registered by the voice registration means. It can be operated to preferentially follow voice instructions.
[0029]
  (19)Also,BookThe invention sets and sets either the personality standard mode or the personality development mode according to the operation of the selection switch for selecting the personality standard mode for operating with the personality of the standard specification or the personality development mode for developing the personality when the battery is mounted. It can be operated in the personality standard mode or personality development mode, and can be operated in the personality standard mode by omitting the personality development mode after installing the battery according to the user's request, or in the personality development mode The personality according to the training method can be trained.
[0030]
  (20)Also,BookWhen the personality standard mode is set by the initial setting means, the invention controls the operation based on the control data of the standard mode set in advance. The operation can be controlled based on this.
[0031]
  (21)Also,BookWhen the personality development mode is set, the invention updates the control data to emotion data of a control level according to the number of inputs input from outside within a predetermined time, and controls the operation based on the updated emotion data Thus, the personality changes depending on how much the user touches within a predetermined time, and it becomes possible to control the operation based on the emotion data according to the way the user responds.
[0032]
  (22)Also,BookThe invention is updated at an immature time when the control data is not updated every predetermined time when the personality development mode is set, an upbringing time when the emotional data is updated to a control level according to the number of inputs input from the outside, and the upbringing time. The training completion time is controlled according to the emotional data of the control level, and the number of touches and contact of the user through the immature time, the training time, and the training completion time every predetermined time by executing the personality development mode The emotion data can be updated according to the method.
[0033]
  (23)Also,BookThe invention updates emotion data according to the number of inputs of voice, bait, contact, etc. input at the breeding time, and controls the operation according to the updated emotion data. The emotion data can be updated accordingly.
[0034]
  (24)Also,BookThe present invention updates emotion data during the training period in response to an instruction by voice registered by the voice registration means, and can update emotion data in response to the voice of the user who has been voice-registered. .
[0035]
  (25)Also,BookThe invention updates the second parameter indicating the state of fullness according to the number of times of food input during the breeding time, and controls the operation according to the updated second parameter. Since it can be operated in accordance with the number of times the food is input, it can be raised with the same feeling as raising an actual pet, and the breeding time can be enjoyed.
[0036]
  (26)Also,BookThe invention changes the first parameter according to the second parameter updated at the breeding time, and is happy to change the first parameter according to the number of bait inputs performed by the user at the breeding time. Since the period of the mode becomes longer or the period of the moody mode becomes longer, it becomes difficult to predict the operation pattern at that time, and it is possible to increase the fun by performing an unexpected operation.
[0037]
  (27)Also,BookThe invention is to store emotion level data at the control level updated at the breeding time in the memory, and can operate based on the emotion data set at the breeding time after the breeding time is completed, and the battery is replaced. However, since the emotion data stored in the memory is saved, there is no need to redo the training period.
[0038]
  (28)Also,BookThe invention provides a first control flag for performing an action faithful to the instruction content in response to an instruction input according to at least the emotion data, or a second control for performing an action different from the instruction content in response to the input instruction. One of the flags is set and operation control is performed according to the set flag, and can be operated based on the flag set corresponding to the emotion data updated at the breeding time, The personality corresponding to the set flag can be selected.
[0039]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0040]
FIG. 1 is a front view of an electronic toy according to a first embodiment of the present invention. FIG. 2 is a side view of the electronic toy shown in FIG. FIG. 3 is a plan view of the electronic toy shown in FIG. FIG. 4 is a rear view of the electronic toy shown in FIG. FIG. 5 is a bottom view of the electronic toy shown in FIG. FIG. 6 is a perspective view of the electronic toy shown in FIG.
[0041]
As shown in FIGS. 1 to 6, the electronic toy 10 is generally a dog-type toy having a head portion 12, a trunk portion 14, and leg portions 16 to 19. Moreover, although the electronic toy 10 of a present Example is the structure which has the four leg parts 16-19 on the both sides | surfaces of the trunk | drum 14, it does not walk. That is, as will be described later, the electronic toy 10 is configured to rotate the legs 16 to 19 by a predetermined angle according to the emotional change at that time, and to change the posture by the rotation of the legs 16 to 19. Yes.
[0042]
The four leg portions 16 to 19 are circular shaft portions 16a to 19a supported so as to be rotatable with respect to both side surfaces of the body portion 14, and a shin portion extending in the radial direction from the shaft portions 16a to 19a. It consists of 16b-19b and the finger | toe parts 16c-19c provided in the front-end | tip of shin part 16b-19b.
[0043]
In addition, as for leg parts 16-19, axial parts 16a-19a, shin parts 16b-19b, and finger parts 16c-19c are integrally formed, and indirect like an actual dog is not provided in leg parts 16-19. . Moreover, hemispherical caps 16d to 19d are attached to the side surfaces of the shaft portions 16a to 19a, and the caps 16d to 19d are colored in an arbitrary color.
[0044]
A display unit 20 that displays the facial expression of the eyes is provided on the front surface of the head 12. The display unit 20 normally displays an oval eye by turning on a light emitting diode (LED). As will be described later, a plurality of light emitting diodes (LED) are selectively turned on, and emotions at that time are displayed. The display pattern of the eyes can be changed so that it can be expressed.
[0045]
In addition, a sound sensor 24 (sound detection means) including a microphone for detecting surrounding sounds is built in on the front end surface of the nose portion 22 protruding forward from the front surface of the head 12, and an upper corner of the nose portion 22. The part houses an optical sensor 25 for detecting ambient light intensity. The optical sensor 25 of the present embodiment is composed of, for example, a CdS cell (cadmium sulfide cell) and outputs a detection signal corresponding to the received light intensity.
[0046]
Further, a speaker 26 is provided on the upper surface of the head 12 for screaming or playing a melody. As will be described later, the speaker 26 is slidably attached in the vertical direction. For example, when the head 12 is pressed, the speaker 26 is moved downward to detect that it has been stroked.
[0047]
Further, ears 28 made of a translucent material colored in an arbitrary color different from the head 12 are provided on both sides of the head 12. The ear portion 28 is pivotally connected to the side surface of the head 12 so that the vicinity of the upper end of the ear portion 28 is rotated upward or downward according to the emotional change at that time, as will be described later.
[0048]
The jaw 30 provided below the nose 22 is provided so as to be pivotable to an open position or a closed position, and the mouth 31 is opened in accordance with the emotional change at that time as will be described later. Or it operates in the state where mouth 31 is closed.
[0049]
Further, a tail 32 is swingably provided at the rear part of the trunk portion 14, and the tail 32 moves upward or downward according to the emotional change at that time.
[0050]
Next, an operation pattern of the electronic toy 10 configured as described above will be described.
[0051]
FIG. 7 is a side view of the electronic toy 10 showing the rotation direction and rotation angle of the legs 16 to 19.
[0052]
As shown in FIG. 7, the leg portions 16 and 17 serving as the front legs among the leg portions 16 to 19 are possible at the operation position A rotated 60 degrees forward (direction a) from the rest position B. It is provided at an operation position C rotated 30 degrees rearward from B. Further, the leg portions 18 and 19 serving as the rear legs are possible at an operation position A rotated 90 degrees forward (a direction) from the stationary position B, and an operation position C rotated 45 degrees rearward from the stationary position B. Is possible.
[0053]
FIG. 8 is a side view showing an operation state when the electronic toy 10 is in the sleeping posture A. FIG.
As shown in FIG. 8, when the electronic toy 10 is in the sleeping posture A, the legs 16 to 19 are rotated to the operating position A. Therefore, the electronic toy 10 extends forward so that the leg portions 16 to 19 are along the both side surfaces of the trunk portion 14, and assumes a posture A in which the bottom surface of the trunk portion 14 approaches the floor surface 34.
[0054]
Therefore, for example, when the electronic toy 10 is sleepy or wandering, it can express the emotion at that time by taking the posture A as described above.
[0055]
FIG. 9 is a side view showing an operation state when the electronic toy 10 is in the posture B where it stands.
[0056]
As shown in FIG. 9, when the electronic toy 10 is in the standing posture B, the leg portions 16 to 19 are rotated to the operating position B. Therefore, the electronic toy 10 is rotated to a position (stationary position B) in which each of the leg portions 16 to 19 extends downward from both side surfaces of the trunk portion 14, and the bottom surface of the trunk portion 14 is a floor surface. The posture B is separated from the position B. In the posture B, the bottom surfaces (backs of the legs) of the leg portions 16 to 19 are in contact with the floor surface 34.
[0057]
Therefore, the electronic toy 10 normally maintains the standing posture B as described above when nothing is done, for example.
[0058]
FIG. 10 is a side view showing an operation state when the electronic toy 10 is in the forward turning posture C. FIG.
[0059]
As shown in FIG. 10, when the electronic toy 10 is in the forward turning posture C, the legs 16 to 19 are rotated in the b direction with respect to the posture B and are in the operating position C. Therefore, the electronic toy 10 is in such a posture that the leg portions 16 to 19 stand on the tip of the finger portions 16 c to 19 c, and the posture of the leg portions 16 to 19 floats from the floor surface 34. When the posture is C, the jaw 30 is rotated downward (c direction) to open the mouth 31, and the tail 32 is rotated upward (d direction). Further, although not appearing in FIG. 1, the ear portion 28 is rotated upward (direction e) as shown in FIG.
[0060]
For example, when the electronic toy 10 is happy or happy, the electronic toy 10 can express the emotion at that time by taking the posture C as described above.
[0061]
In the electronic toy 10 of the present embodiment, the operation patterns of the three types of postures A to C shown in FIGS. 8 to 10 are basic operations.
[0062]
Here, the internal structure of the electronic toy 10 will be described.
[0063]
FIG. 11 is a front longitudinal sectional view showing the internal structure of the electronic toy 10. FIG. 12 is a side longitudinal sectional view showing the internal structure of the electronic toy 10. FIG. 13 is a plan longitudinal sectional view showing the internal structure of the electronic toy 10.
[0064]
As shown in FIGS. 11 to 13, the electronic toy 10 transmits the motor 36 and the rotational driving force of the motor 36 to the legs 16 to 19, the ear 28, the jaw 30, and the tail 32 inside the head 12. A transmission mechanism (transmission means) 38 is provided. The legs 16 to 19, the ears 28, the jaws 30, and the tail 32 are each driven by a single motor 36, and the motor 36 is rotated by the transmission mechanism 38 according to the postures A, B, and C. A driving force is selectively transmitted.
[0065]
The motor 36 and the transmission mechanism 38 are supported by a bracket 41 provided inside the head portion 12 and the trunk portion 14. Therefore, the motor 36 and the transmission mechanism 38 have a compact configuration and are configured to cope with the downsizing of the electronic toy 10.
[0066]
The transmission mechanism 38 includes a drive gear 40 attached to the drive shaft 36 a of the motor 36, a first transmission gear 42 that meshes with the drive gear 40, and a second transmission gear that meshes with the first transmission gear 42. 44, a third transmission gear 46 that meshes with the second transmission gear 44, a fourth transmission gear 47 that meshes with the third transmission gear 46, and the fourth transmission gear 47. The first cam gear 48, the first shaft 50 that supports the first cam gear 48, the fifth transmission gear 52 that is supported by the first shaft 50, and the second that meshes with the fifth transmission gear 52. Cam gear 54.
[0067]
Each transmission gear 42, 44, 46 is integrally formed with a large-diameter gear 42a, 44a, 46a and a small-diameter gear 42b, 44b, 46b, respectively, and the rotation from the motor 36 is reduced at a predetermined reduction ratio. To do. The shafts 42 c, 44 c, 46 c with which the transmission gears 42, 44, 46 are fitted are supported by the bracket 41.
[0068]
The first cam gear 48 is a driving means for driving the leg portions 16 and 17 serving as the forefoot, and the leg portions 16 and 17 are moved to the rotational position according to the rotation direction and the rotation amount of the drive shaft 36a of the motor 36. A, B, and C are formed to rotate. The third and fourth cam gears 54 and 55 are driving means for driving the leg portions 18 and 19 as rear legs, and the leg portions according to the rotation direction and the rotation amount of the drive shaft 36a of the motor 36. 18 and 19 are formed to rotate to the operation positions A, B and C.
[0069]
Further, the second cam gear 54 is connected to a transmission path 56 for driving the tail 32 and driving the ear portion 28 and the jaw portion 30. The transmission path 56 is composed of a wire and a pulley, for example, as indicated by a one-dot chain line, and the ears 18 and 19 are turned from the operation position B to the operation position C according to the rotation angle of the second cam gear 54. The part 28, the jaw part 30, and the tail 32 are rotated in the e, c, and d directions.
[0070]
In addition, a battery storage unit 60 that stores a battery 58 as a power source is provided inside the head 12. Further, a substrate 64 on which the control unit 62 is mounted is accommodated in the nose portion 22. The speaker 26 is provided so as to be slidable in the vertical direction, and a push type detection switch (contact detection means) 59 for detecting that the speaker 26 has been pushed downward and moved downward is provided below the speaker 26. It has been.
[0071]
The detection switch 59 detects that the speaker 26 has moved down when the user strokes or knocks the head 12 and can detect without touching the user's contact.
[0072]
Among the components described above, the relatively heavy motor 36 and the battery 58 are disposed at a position close to the center of gravity of the electronic toy 10, that is, approximately at the center of the head 12. Therefore, the balance of the electronic toy 10 is stable even when operating in each posture.
[0073]
Next, the configuration of the display unit 20 that displays the facial expression of the eyes will be described.
[0074]
  The display unit 20 is a smoke plate colored black on the front surface.(Cover member)68 is mounted, and inside the smoke plate 68, there are four red acrylic plates emitting end faces.(plate)71 to 74 are stacked. In addition, light emitting diodes (LEDs) 75 to 79 are disposed above and below the red acrylic plates 71 to 74, respectively. Note that the display unit 20 is not limited to the edge-emitting type, and other types of display devices (for example, a liquid crystal display with a backlight) may be used.
[0075]
14A to 14D are front views individually showing red acrylic plates 71 to 74 incorporated in the display unit 20.
[0076]
As shown in FIG. 14A, the red acrylic plate 71 has light emitting portions 71a and 71b formed in a shape in which an elliptical lower portion is deleted. The light emitting portions 71a and 71b are provided with small holes at regular intervals. When light from the light emitting diodes 75 and 76 is incident on the incident portions 71c and 71d provided on the end faces, Red light is emitted from the inner wall. Accordingly, the left and right round eyes appear to shine in an inverted U shape when the light emitting portions 71a and 71b emit light.
[0077]
In addition, a shielding part 71e that blocks light is provided between the light emitting parts 71a and 71b. Therefore, when light is incident from only one of the light emitting diodes 75 and 76, one of the light emitting portions 71a and 71b emits light as if winking.
[0078]
As shown in FIG. 14B, the red acrylic plate 72 has light emitting portions 72a and 72b formed in a heart shape. The light emitting portions 72a and 72b have small holes provided in a heart shape at regular intervals. When light from the light emitting diode 77 is incident on the incident portion 72c provided on the end face, the small holes are formed. Red light is emitted from the inner wall. Accordingly, the left and right eyes appear to shine in a heart shape when the light emitting units 72a and 72b emit light.
[0079]
As shown in FIG. 14C, the red acrylic plate 73 includes small semi-circular light emitting portions 73a and 73b formed so as to be continuous with the lower portions of the light emitting portions 71a and 71b shown in FIG. Have. The light emitting portions 73a and 73b have small holes provided in a semicircular shape at regular intervals. When light from the light emitting diode 78 is incident on the incident portion 73c provided on the end surface, the inner walls of the small holes are provided. Red light is emitted from Accordingly, the left and right eyes appear to be shining with small eyes as the light emitting units 73a and 73b emit light.
[0080]
As shown in FIG. 14 (D), the red acrylic plate 74 is a light emitting section provided with small dots radially formed so as to be continuous with the lower portions of the light emitting sections 71a and 71b shown in FIG. 14 (A). 74a and 74b. When the light from the light emitting diode 79 is incident on the incident portion 74c provided on the end surface of the light emitting portions 74a and 74b, red light is emitted from the inner wall of each small hole. Accordingly, the left and right eyes appear to be shining with small eyes as the light emitting units 73a and 73b emit light.
[0081]
The light emitting diodes 75 to 79 are arranged in the upper part or the lower part of the red acrylic plates 71 to 74 so that the light does not enter other adjacent red acrylic plates, and light leaks to the surroundings. It is covered with a partition wall (not shown) so that it does not. Thereby, even if the red acrylic plates 71 to 74 are overlapped, the display patterns can be prevented from interfering with each other and can be attached even in a narrow space in the head 12.
[0082]
FIG. 15 is a diagram showing combinations of display patterns that are light-emitting displayed on the display unit 20.
[0083]
As shown in FIG. 15, the display unit 20 can selectively display, for example, nine types of display patterns (1) to (9).
[0084]
In the display pattern (1), the light emitting diode 77 is turned on and the heart-shaped light emitting portions 72a and 72b emit light.
[0085]
In the display pattern (2), the light emitting diode 76 is turned on and the light emitting portion 71b on the right round eye emits light.
[0086]
In the display pattern (3), the light emitting diode 78 is turned on and the left and right angry light emitting portions 73a and 73b emit light.
[0087]
In the display pattern (4), the light emitting diodes 75 and 78 are turned on to emit light from the left eye light emitting portion 71a, and the right and left angry light emitting portions 73a and 73b emit light to display the right eye wink.
[0088]
In the display pattern (5), the light emitting diodes 75, 76, and 79 are turned on to emit light from the left and right light emitting portions 71a and 71b, and the light emitting portions 74a and 74b representing left and right tears emit light to display a crying eye. To do.
[0089]
In the display pattern (6), the light emitting diodes 75, 76, and 78 are turned on, the light emitting portions 71a and 71b on the left and right round eyes emit light, and the light emitting portions 73a and 73b below the left and right round eyes emit light to form an elliptical shape. Display the entire circle.
[0090]
In the display pattern (7), the light emitting diode 75 is turned on, and the light emitting portion 71a on the left round eye emits light.
[0091]
In the display pattern (8), the light emitting diodes 76 and 78 are turned on and the right eye light emitting portion 71b emits light, and the left and right angry light emitting portions 73a and 73b emit light to display the left eye wink.
[0092]
In the display pattern {circle over (9)}, the light emitting diodes 75 to 79 are turned off, and the light emission display on the display unit 20 is eliminated.
[0093]
In the display unit 20, lighting control of each of the light emitting diodes 75 to 79 is performed by a control signal from the control unit 62, and the expression of the eyes is expressed by any one of the above nine types of display patterns (1) to (9). By doing so, it is possible to produce a change in emotion at that time.
[0094]
Here, the configuration of the control system of the electronic toy 10 configured as described above will be described.
[0095]
FIG. 16 is a block diagram showing the configuration of the control system of the electronic toy 10.
[0096]
As shown in FIG. 16, the control unit 62 is connected to the display unit 20, the sound sensor 24, the optical sensor 25, the speaker 26, the motor 36, the battery 58, and the detection switch 59, which will be described later. In addition, the detection signals from the sound sensor 24, the optical sensor 25, and the detection switch 59 are counted, control data is extracted from the relationship between the count value and the elapsed time, and the display unit 20, the speaker 26, and the motor 36 are driven. Control.
[0097]
FIG. 17 is a block diagram showing the configuration of the control unit 62.
[0098]
As illustrated in FIG. 17, the control unit 62 includes a CPU 80 as a central processing unit, a ROM 82 (storage means, first to third storage units), a RAM 84, and a timer 86. In the ROM 82, an operation control program 82A for driving and controlling the display unit 20, the speaker 26, and the motor 36, and a personality change at that time (a value of a mood mode or a value of a mood mode). Attitude control data 82B for controlling the rotation direction and amount of rotation of the motor 36 to switch to the operating attitudes A to C, and voice for uttering a cry or melody according to the personality change from the speaker 26 at that time Control data 82C, display control data 82D for switching the display pattern of the display unit 20 in accordance with the personality change at that time, pet biorhythm data 82E for periodically changing the personality (a mood mode or a mood mode), and the above Stored is biorhythm correction data 82F for correcting the period of the pet biorhythm based on the count value of the detection signal.
[0099]
The operation control program 82A stored in the ROM 82 includes a first control program for counting the number of detection signals output from the detection means for detecting an input from the outside, and a value of the first parameter according to a predetermined time interval. And a third control program for selecting an arbitrary operation pattern from a plurality of operation patterns based on the number of detection signals and the value of the parameter when the detection signal is output from the detection means And a fourth control program for performing control so as to operate in the selected operation pattern.
[0100]
Further, the RAM 84 stores a counter 84A that counts detection signals from the sound sensor 24, the optical sensor 25, and the detection switch 59, and communication biorhythm data 84B that is created based on the count value of the counter 84A.
[0101]
The counter 84A counts the detection signals from the sound sensor 24, the optical sensor 25, and the detection switch 59 without selecting them, and the detection signals from the sound sensor 24, the optical sensor 25, and the detection switch 59. A count mode 2 having first to third counters (not shown) for individually counting and creating communication biorhythm data for each sensor can be set.
[0102]
Next, control processing executed by the CPU 80 of the control unit 62 will be described.
[0103]
FIG. 18 is a flowchart for explaining a control process executed by the CPU 80 of the control unit 62. FIG. 19 is a graph showing changes in pet biorhythm and communication biorhythm.
[0104]
The CPU 80 repeatedly executes the control process shown in FIG. 18 every 50 msec, for example, based on the operation control program 82A stored in the ROM 82.
[0105]
As shown in FIG. 18, the CPU 80 confirms whether or not there is an input from the sound sensor 24, the optical sensor 25, and the detection switch 59 in step S <b> 11 (hereinafter, “step” is omitted). When detection signals from the sound sensor 24, the optical sensor 25, and the detection switch 59 are input, the process proceeds to S12, and 1 is added to the count value of the counter 84A.
[0106]
In the next S13, the elapsed time measured by the timer 86 is read.
[0107]
Subsequently, the process proceeds to S 14, where a communication biorhythm graph II (see FIG. 19 described later) is created based on the count value of the counter 84 A, and the communication biorhythm data is updated to the latest in the RAM 84.
[0108]
In S15, the graph I of pet biorhythm data stored in the ROM 82 (see FIG. 19 described later) is read.
[0109]
Then, the process proceeds to S16, and the first parameter at this time is extracted from the relationship between the pet biorhythm data and the communication biorhythm data (the values of the mood mode and the mood mode shown in FIGS. 20 and 21 described later). (Parameter changing means).
[0110]
Subsequently, in S17, operation patterns (1) to (12) (see FIGS. 20 and 21 described later) are selected (selection means) based on the personality data.
[0111]
In the next S18, the motors 36 are driven and controlled according to the selected operation pattern to operate the legs 16 to 19 so as to be in the designated operation posture, and the display unit 20 switches the eye display and the speaker. 26 utters a cry or melody (control means).
[0112]
In S12, the count value for each sensor, that is, each count value of the sound sensor 24, the optical sensor 25, and the detection switch 59 is counted, and a communication biorhythm graph corresponding to each count value is created to represent the posture and It is also possible to control the expression of eyes by the display unit 20, the cry from the speaker 26, and the like.
[0113]
Next, the relationship between pet biorhythm and communication biorhythm will be described.
[0114]
As shown in FIG. 19, in this embodiment, the control posture, cry, melody, and facial expression of the electronic toy 10 are controlled based on the relationship between the pet biorhythm graph I and the communication biorhythm graph II. In FIG. 19, for convenience of explanation, the change in the pet biorhythm value is shown by graph I and the change in the communication biorhythm value is shown by graph II. However, in the control unit 62, the change in the first parameter is shown. Control processing is performed by comparing the indicated value with the count value of the counter means.
[0115]
The pet biorhythm is created from the data stored in the pet biorhythm data 82E, and as shown in the graph I of FIG. 19, the mood mode (good personality) and the mood mode (bad) are periodically (eg every 15 minutes). And personality) are repeated alternately. In the mood mode and the mood mode based on the pet biorhythm, the value of the first parameter at that time changes in the range of level 0 to 50 with the passage of time.
[0116]
The communication biorhythm changes depending on the number of inputs to the sound sensor 24, the optical sensor 25, and the detection switch 59 as shown in the graph II created by the data stored in the communication biorhythm data 84B. The operation and expression of the electronic toy 10 change depending on how much the user of the toy 10 loves the electronic toy 10. Accordingly, the electronic toy 10 can change the posture of the electronic toy 10 according to the number of times the user touches, the number of times the user speaks, etc. and the facial expression (see FIGS. 8 to 10 and 13) on the display unit 20. .
Further, in the control unit 62, when the number of times the user touches, that is, the number of inputs to the sound sensor 24, the optical sensor 25, and the detection switch 59 increases based on the biorhythm correction data 82F, the period of the mood mode is extended to increase the mood mode. When the number of inputs decreases, the mood mode is extended to shorten the mood mode and the period is changed so that the mood mode and the mood mode do not repeat in a certain time. .
[0117]
Therefore, even if the user is in contact in the same manner, the reaction of the electronic toy 10 is not constant, and the user performs an action and an expression according to the personality change at that time, so that the user does not get bored. Moreover, since the user cannot anticipate the personality change of the electronic toy 10, he can enjoy an unexpected operation | movement and a facial expression.
[0118]
For example, in the mood mode, when the personality level is 0, the user strokes the head 12 of the electronic toy 10 and a detection signal is output from the detection switch 59, or a detection signal is output from the sound sensor 24 with a voice. Or when a detection signal is output from the optical sensor 25 by waving a hand at the tip of the nose, the notification event (1) (screaming (1) is generated twice + the heart of the display blinks (see FIG. 15) ) To let you know that you are in mood mode.
[0119]
Also, in the mood mode, if the user makes five touches (inputs) to the electronic toy 10 while the personality level of the pet biorhythm changes from 0 to 50, the event (3) (distance (2) ▼ + Perform a special melody (such as a wedding march)). In addition, when the communication biorhythm graph II intersects the pet biorhythm graph I in the mood mode, an event is generated (sound effect + melody + slot game start). In this slot game, display patterns (1) to (9) are sequentially displayed on the display unit 20, and when the speaker 26 is pressed and the detection switch 59 is turned on, any one of the display patterns (1) to (9) is stopped. You can also enjoy the slot game that is displayed.
[0120]
Also, in the mood mode, when the personality level returns to 0 due to the pet biorhythm, the notification event (2) (screaming (2) is generated twice + the angry eye blinks on the display unit 20 (see FIG. 15)). Notify you that you are in moody mode.
[0121]
In addition, when the communication biorhythm graph II intersects the pet biorhythm graph I in the moody mode, event occurrence {circle around (2)} (sound effect + melody + slot game start) is performed.
[0122]
Further, in the moody mode, when the personality level of the pet biorhythm is around 50, the electronic toy 10 becomes unresponsive regardless of what the user does and becomes very moody. For example, the display of the display unit 20 becomes angry with respect to the user's operation input, and a sigh is produced from the speaker 26.
[0123]
In addition, when the personality level of the pet biorhythm returns to 0 in the moody mode, the above notification event (1) (screaming (1) is generated twice + the heart of the display blinks (see FIG. 15)) is performed. Notify you that you are in mood mode.
[0124]
The counter 84A counts the number of inputs from the sound sensor 24, the optical sensor 25, and the detection switch 59. However, when the communication biorhythm graph II intersects the pet biorhythm graph I as described above, or the count is counted. When the preset maximum value (max value) is reached, it is reset and returned to zero.
[0125]
FIG. 20 is a diagram illustrating a motion and facial expression control method performed in response to motion input from each sensor in the mood mode.
[0126]
As shown in FIG. 20, for example, when the electronic toy 10 has an input from the user when the personality is in the mood mode, the posture corresponding to the following operation patterns (1) to (12), Change to facial expression.
(1) When there is no input, the movement posture B (see FIG. 9) is changed to the movement posture A (see FIG. 8), the display on the display unit 20 is changed from rounded to off, and snoring is made from the speaker 26. Let
(2) When there is an input only from the sound sensor 24, the operation posture is changed from B to A, the display on the display unit 20 is changed from turning off to crying, and a joyful voice is emitted from the speaker 26.
(3) When there is an input from only the optical sensor 25, the operation posture B is maintained, a round eye is displayed on the display unit 20, and a single word or sound effect is uttered from the speaker 26.
(4) When there is an input only from the detection switch 59, the operation posture B → the operation posture C (refer to FIG. 10) → the operation posture B is changed, and the display on the display unit 20 is changed from the off state to the round shape. Utter a voice.
(5) When there is an input from the sound sensor 24 and the optical sensor 25, the operation posture B is maintained, the display on the display unit 20 is switched to blinking of the rounded eyes, and the voice of the one (1) is uttered from the speaker 26. Alternatively, the movement posture is changed from B → C → B, the heart is displayed on the display unit 20, and the howling (1) is uttered from the speaker 26.
(6) When there is input from the sound sensor 24, the optical sensor 25, and the detection switch 59, the operation posture B → C → B → C → B is performed, and the display on the display unit 20 is changed from a round eye to a heart eye, or the display unit A wink is displayed at 20 and a laughter (1) is uttered from the speaker 26.
(7) When the input from the optical sensor 25 is repeated, the operation posture B is maintained, the round eyes are blinked on the display unit 20, and the voice of joy and laughter (1) are uttered from the speaker 26.
(8) When the input from the sound sensor 24 and the input from the optical sensor 25 are repeated, the operation posture B → C → B → C → B is performed, the heart eye blinks on the display unit 20, and the speaker 26 speaks alone. Say (1)-(3).
(9) When the input from the sound sensor 24 and the detection switch 59 and the input from the optical sensor 25 are repeated, the operation posture B → C → B → C → B is performed, the heart eye blinks on the display unit 20, and the speaker 26 laughs and melody.
(10) When the input from the detection switch 59 and the input from the optical sensor 25 are repeated, the motion posture B → C → B → C → B is performed, the heart eye blinks on the display unit 20, and the pleasant voice from the speaker 26 And utter a melody.
(11) When there is an input from the sound sensor 24 and the detection switch 59, the operation posture is changed from B to A, the rounded eyes are blinked on the display unit 20, and a single word (2) is uttered from the speaker 26.
(12) When there is an input from the optical sensor 25 and the detection switch 59, the operation posture B → C → B → C → B is performed, the heart eye blinks on the display unit 20, and a joyful voice and a melody are produced from the speaker 26. Let
[0127]
FIG. 21 is a diagram illustrating a motion and facial expression control method performed according to motion input from each sensor in the moody mode.
[0128]
As shown in FIG. 21, for example, when the electronic toy 10 has an input from the user when the personality is in the moody mode, the posture and expression according to the following operation patterns (1) to (12) To change.
(1) When there is no input, the operation posture is changed from B to A, the display on the display unit 20 is changed from rounded to off, and snoring is made from the speaker 26.
(2) When there is an input from only the sound sensor 24, the operation posture is changed from B to A, the display on the display unit 20 is changed from turning off to angry, and an angry voice uttering from the speaker 26 is uttered.
(3) When there is an input from only the optical sensor 25, the operation posture B is maintained, the anger is displayed on the display unit 20, and the low-pitched monologue or sound effect is uttered from the speaker 26.
(4) When there is an input only from the detection switch 59, the operation posture is changed from B to A, the display on the display unit 20 is changed from off to anger, and a sigh is produced from the speaker 26.
(5) When there is an input from the sound sensor 24 and the optical sensor 25, the operation posture B is maintained, the anger is displayed on the display unit 20, and the cry 2 is uttered by the speaker 26. Alternatively, the operation posture B is maintained, a wink is displayed on the display unit 20, and a laughter (2) is uttered from the speaker 26.
(6) When there is an input from the sound sensor 24, the optical sensor 25, and the detection switch 59, the operation posture B → C → B is performed and the display on the display unit 20 is changed from angry to off, or the display unit 20 winks. In addition to the display, the cry 2 is uttered from the speaker 26. Alternatively, the operation posture B → C → B is performed, the rounded eyes are blinked on the display unit 20, and the howling (2) is uttered from the speaker 26.
(7) When the input from the optical sensor 25 is repeated, the operation posture B is maintained, the round eyes are blinked on the display unit 20, and the sneezing is made from the speaker 26.
(8) When the input from the sound sensor 24 and the input from the optical sensor 25 are repeated, the operation posture B is maintained, the angry eyes are blinked on the display unit 20, and the angry + screaming (2) is uttered from the speaker 26. .
(9) When the input from the sound sensor 24 and the detection switch 59 and the input from the optical sensor 25 are repeated, the operation posture B → C → B is performed, the round eyes are blinked on the display unit 20, and the sound is distant from the speaker 26. Say ▼.
(10) When the input from the detection switch 59 and the input from the optical sensor 25 are repeated, the operation posture B is maintained, the rounded eyes are blinked on the display unit 20, and the baboon (2) is uttered from the speaker 26.
(11) When there is an input from the sound sensor 24 and the detection switch 59, the posture is changed from B to A, the anger is displayed on the display unit 20, and a sigh is produced from the speaker 26.
(12) When there is an input from the optical sensor 25 and the detection switch 59, the operation posture B is maintained, the round eyes are blinked on the display unit 20, and the baboon 2 is uttered from the speaker 26.
As described above, since the electronic toy 10 is switched to the mood mode or the mood mode in a predetermined cycle based on the personality change caused by the communication biorhythm, it is difficult for the user to predict the reaction to the input, and the user is bored. Absent.
[0129]
Further, the period of the mood mode and / or the mood mode can be changed according to the number of detections by each sensor. Therefore, depending on how the user interacts, the period of the mood mode becomes longer, or the period of the mood mode becomes longer, so it is difficult to predict the operation pattern at that time, and it makes fun by performing unexpected operations. Can be increased.
[0130]
Here, control processing in the initial setting mode executed by the CPU 80 of the control unit 62 will be described.
[0131]
FIG. 22 is a flowchart for explaining the initial setting process.
[0132]
As shown in FIG. 22, the CPU 80 of the control unit 62 checks whether or not a new battery 58 is installed in S20. When the battery 58 is first installed in the battery storage unit 60 or when the battery is replaced, the process proceeds to S21, and the initial value stored in the memory (not shown) is reset. Subsequently, in S22, an initial setting mode is set. In this initial setting mode, the personality is the puppy mode, and the personality is relatively gentle.
[0133]
In the next S23, it is checked whether or not there is a switch input. In this case, the detection operation of the sound sensor 24 and the detection switch 59 as the detection means is monitored. When detection signals are output from the sound sensors 24 and the detection switch 59, the process proceeds to S24, and the number of detections n is set. Integration is performed, and the integrated value (count value n + 1) is stored in the memory.
[0134]
In next S25, it is checked whether or not a predetermined time T (for example, T = 1 hour) has elapsed. Therefore, the processes of S23 to S25 are repeated until one hour has elapsed since the battery 58 was installed.
[0135]
And in S25, when 1 hour passes, it progresses to S26 and the count value n of the sound sensor 24 is reached.AAnd the count value n of the detection switch 59BAnd compare.
[0136]
In the next S27, the count value n of the sound sensor 24AIs the count value n of the detection switch 59BGreater than (nA> NB) Goes to S28 and sets the sex data to male.
[0137]
In S27, the count value n of the sound sensor 24 is set.AIs the count value n of the detection switch 59BWhen it is not larger, that is, (1) the count value n of the sound sensor 24AIs the count value n of the detection switch 59BLess than (nA<NB), (2) Count value n of the sound sensor 24AIs the count value n of the detection switch 59BIs equal to (nA= NB), (3) Count value n of the sound sensor 24AAnd the count value n of the detection switch 59BAnd are zero (nA= 0, nB= 0), the process proceeds to S29, and the sex data is set to female. In the case of (2) and (3), the gender may be set in advance as described above, or the gender may be set using a random number. When the sex data is set to male in S28 or after the sex data is set to female in S29, the process proceeds to S30 and the initial setting mode is canceled. Then, the process proceeds to the main control process shown in FIG.
[0138]
In this way, when the initial setting of male or female is performed when the battery is attached, facial expressions and actions according to the set gender (individual difference) are performed thereafter.
[0139]
Examples of facial expressions and actions depending on gender are shown in FIGS. 23A to 23B, for example.
[0140]
For example, when gender data is set to male, as shown in FIG. 23 (A), (1) the voice is set to the bass version, and (2) the normal pattern is shown in FIG. 23 (B). Set to Pattern A shown, (3) Has a special song only for males. In addition, when the gender data is set to female, as shown in FIG. 23 (A), (1) voice is set to the basic pattern, and (2) normal pattern is shown in FIG. 23 (C). Set to Pattern B shown, (3) Has a special dance only for females. Thus, the count value n of the number of detections detected by the sound sensor 24 and the detection switch 59 while the initial setting mode is set.A, NBIn order to set the gender (individual difference) according to, for example, the individual difference such as gender can be preset as an initial value depending on the number of times the user touches while the battery is attached for the first time and the initial setting mode is set. It is possible to produce unique facial expressions and actions that the user does not expect.
[0141]
In the above description, the number of detections of the sound sensor 24 and the detection switch 59 is counted, and the count value is compared to set the gender. However, as other detection means, for example, detection from the optical sensor 25 or the like is possible. Of course, the signal may be counted.
[0142]
Further, the characteristics when the gender data is set to male or female are not limited to the operation patterns shown in FIGS. 23A to 23C, but may be initialized to perform other facial expressions and operations. Of course.
[0143]
FIG. 24 is a flowchart for explaining a modification of the initial setting process.
[0144]
As shown in FIG. 24, among the control processes executed by the CPU 80 of the control unit 62, the processes of S31 to S34 are the same as the processes of S20 to S23 described above, and thus description thereof is omitted.
[0145]
In S35, the detection operation of the detection switch 59 as the detection means is monitored in this case, and when a detection signal is output from the detection switch 59, the process proceeds to S35, where the number of detections n is integrated and the integration is performed. The value (count value n + 1) is stored in the memory.
In the next S36, it is checked whether or not a predetermined time T (for example, T = 1 hour) has elapsed. Therefore, the processes of S34 to S36 are repeated until one hour has elapsed since the battery 58 was installed.
[0146]
In S36, when one hour has elapsed, the process proceeds to S37, and the count value n of the detection switch 59 is read. In S38, it is checked whether the count value n of the detection switch 59 is an odd number.
[0147]
In the next S38, when the count value n of the detection switch 59 is an odd number, the sex data is set to male.
[0148]
If the count value n of the detection switch 59 is not an odd number in S38, that is, the count value n of the detection switch 59 is an even number or zero, the process proceeds to S40, and the sex data is set to female.
[0149]
When the gender data is set to male in S39 or after the gender data is set to female in S40, the process proceeds to S41 and the initial setting mode is canceled. Then, the process proceeds to the main control process shown in FIG.
[0150]
Thus, when the initial setting of male or female is performed when the battery is mounted, facial expressions and actions corresponding to the set gender (individual difference) are performed thereafter (see FIGS. 23A to 23B). ). Therefore, because the gender is set depending on whether the count value of the number of inputs detected during the initial setting mode is even or odd, facial expressions and actions according to the gender and personality set regardless of the user's intention Can be produced. That is, individual differences appear in the facial expression, voice, and movement corresponding to the user's contact after the initial setting period, and it is possible to produce an electronic toy as if it had gender and personality like an animal.
[0151]
In the above description, the number of detections of the detection switch 59 is counted, and the gender is set by determining whether the count value is an odd number or an even number. As other detection means, for example, a sound sensor 24, an optical sensor Of course, it is also possible to set the sex by counting the detection signals from 25 or the like and determining whether the count value is odd or even.
[0152]
In FIG. 20 and FIG. 21, a plurality of types of sound from the speaker 26 are prepared for each item, and the sound is lower in the mood mode than in the mood mode (there are also multiple levels of bass). It comes to speak.
[0153]
Next, a second embodiment of the present invention will be described.
[0154]
FIG. 25 is a front view of an electronic toy according to the second embodiment of the present invention. FIG. 26 is a side view of the electronic toy shown in FIG. FIG. 27 is a plan view of the electronic toy shown in FIG. FIG. 28 is a rear view of the electronic toy shown in FIG. FIG. 29 is a bottom view of the electronic toy shown in FIG. FIG. 30 is a perspective view of the electronic toy shown in FIG. 25 to 30, the same components as those of the electronic toy 10 of the first embodiment described above are denoted by the same reference numerals, and the description thereof is omitted.
[0155]
As shown in FIGS. 25 to 30, the electronic toy 90 is a dog-type toy having a head 12, a torso 14, and legs 16 to 19 like the electronic toy 10 described above. Further, in the electronic toy 90, as operations different from the electronic toy 10 described above, there are a point that the head 12 can be swung in the left-right direction and a tail 32 that is swingable in the left-right direction.
[0156]
Further, the electronic toy 90 is provided with two push-type mode selection switches 91A and 91B on the chest portion of the trunk portion 14. One of these mode selection switches 91A and 91B is selectively operated, for example, when starting a later-described voice registration mode or selecting a personality development mode, personality standard mode, or the like. The mode selection switches 91A and 91B function as reset switches for resetting the control data stored in the memory when both are turned on at the same time.
[0157]
The electronic toy 90 can perform 15 types of operations.
[0158]
FIG. 31 is a diagram showing a combination of the motion type of the electronic toy 90 and the motion positions of the legs 16-19, and FIG. 31A is a diagram showing a combination of the motion type and the motion positions of the legs 16-19. (B) is a figure which shows the rotation angle of each leg part 16-19.
[0159]
As shown in FIGS. 31A and 31B, the leg portions 16 and 17 serving as the front legs of the electronic toy 90 rotate to either the vertical position A or the horizontal position B, and the leg sections 18 serving as the rear legs. , 19 rotate to any one of the vertical position C, the front tilt position D, the horizontal position E, and the rear tilt position F. The legs 16 and 17 are rotated to either the vertical position A or the horizontal position B, and the legs 18 and 19 are rotated to any of the positions C to F to stand, sit down, face down, threaten, It is possible to perform the following operations: hand, good, flutter 1, flutter 2, stretch 1, stretch 2, stretch 3, push-up brace, back 1, back 2, and performance.
[0160]
For example, as shown in FIG. 32, when the word “standing” is input from the user, the electronic toy 90 turns to the vertical positions A and C and enters the standing state. In addition, as shown in FIG. 33, when the word “sitting” is input from the user, the electronic toy 90 has the rear legs 18, 17 while the legs 16, 17 are rotated to the vertical position A. 19 is rotated to the forward inclined position D to be in a sitting state.
[0161]
As shown in FIG. 34, when the word “hand” is input from the user, the electronic toy 90 becomes a right forefoot with the legs 17 to 19 being rotated to the vertical positions A and C. The leg portion 16 is rotated to the horizontal position B to be in a hand state. In addition, as shown in FIG. 35, when the word “face down” is input from the user, the electronic toy 90 is in the face down state in which the legs 16 to 19 are rotated to the front horizontal positions B and E. .
[0162]
The electronic toy 90 is provided with a display unit 20 that displays an expression of eyes on the front surface of the head 12. As described above, the display unit 20 can selectively light a plurality of light emitting diodes (LEDs), and can express the emotion at that time with an eye display pattern.
[0163]
Here, the display pattern of the display unit 20 will be described.
[0164]
FIG. 36 is a diagram illustrating an example of a display pattern of the display unit 20, where (A) is a diagram illustrating a smiling eye, and (B) is FIG. The figure which shows an eye, (C) is a figure which shows a heart eye, (D) is a figure which shows a dito eye, (E) is a figure which shows a round eye.
[0165]
As shown in FIGS. 36A to 36E, the display unit 20 of the second embodiment can selectively display, for example, five types of display patterns (1) to (5). .
[0166]
In the display pattern {circle around (1)}, a circular arc-shaped pattern is emitted from the light emitting units 92a and 92b.
[0167]
In the display pattern (2), is it a question mark? The eye pattern emits light from the light emitting portions 94a and 94b.
[0168]
In the display pattern (3), a heart-shaped heart-shaped pattern emits light from the light emitting units 96a and 96b.
[0169]
In the display pattern {circle around (4)}, a crescent-shaped zigzag pattern is emitted by the light emitting units 98a and 98b.
[0170]
In the display pattern {circle over (5)}, the rounded pattern in which the above-mentioned nicotine pattern and ditto pattern are displayed simultaneously is emitted by the light emitting units 100a and 100b.
[0171]
Next, a voice registration mode executed when a battery is attached to the electronic toy 90 will be described.
[0172]
FIG. 37 is a diagram for explaining voice registration, (A) is a diagram showing an example of a registered word used for voice registration, (B) is a flowchart for explaining the procedure of voice registration, and (C). Is a flowchart for explaining a voice registration failure example, and (D) is a flowchart for explaining a voice registration success example.
[0173]
As shown in FIG. 37 (A), in this example, (1) dog name, (2) hand, (3) lying down, (4) sitting, (5) good, (6) playing. The six types of words are used as words for voice registration.
[0174]
Next, a voice registration procedure executed by the CPU 80 of the control unit 62 will be described.
[0175]
As shown in FIG. 37 (B), first, after the battery is mounted on the electronic toy 90 in S51, when the mode selection switch 91A is turned on, the voice registration mode is started. In the next S52, a message such as “Please say your name” is uttered from the speaker 26 of the electronic toy 90, and a smile (see FIG. 36A) is displayed blinking on the display unit 20. On the other hand, when the user says the name of the dog (for example, pouch), the name of the dog is input to the sound sensor 24.
[0176]
When the voice input of the dog's name is registered, the process proceeds to S53, and a message such as “Please say your hand” is uttered from the speaker 26, and the nicotine (see FIG. 36A) blinks on the display unit 20. To do. On the other hand, when the user says “hand”, the word “hand” is input to the sound sensor 24.
[0177]
When the voice input of the hand is registered, the process proceeds to S54, and a message such as “Please say sit down” is uttered from the speaker 26, and the nicotine (see FIG. 36A) blinks on the display unit 20. . On the other hand, when the user says “sitting”, a word “sitting” is input to the sound sensor 24.
[0178]
When the sitting voice input is registered, the process proceeds to S55, where a message such as “Please say down” is uttered from the speaker 26, and Nico Nico (see FIG. 36A) blinks on the display unit 20. On the other hand, when the user says “face down”, a word such as “face down” is input to the sound sensor 24.
[0179]
When the face down voice input is registered, the process proceeds to S56, where a message such as "Please say good" is uttered from the speaker 26, and a smile (see FIG. 36A) is displayed blinking on the display unit 20. On the other hand, when the user says “good”, the word “good” is input to the sound sensor 24.
[0180]
If the voice input of “OK” is registered, the process proceeds to S57, and a message such as “Please say play!” Is uttered from the speaker 26 and the display unit 20 blinks and displays the eyes (see FIG. 36A). . On the other hand, when the user says “Asoboyo”, a word such as “Asoboyo” is input to the sound sensor 24.
[0181]
When the voice input is completed, the process proceeds to S58 where an electronic sound such as pyrroline is uttered from the speaker 26, and the voice registration mode ends.
[0182]
In this way, the user's voice includes the above six words: (1) dog name, (2) hand, (3) lying down, (4) sitting, (5) good, and (6) Asoboyo. be registered. After this, the registered user's voice has priority over other voices.
[0183]
Next, a case where voice registration has failed will be described.
[0184]
As shown in FIG. 37 (C), when a message such as “Please say your name” is uttered from the speaker 26 in S61 and Nico Nico (see FIG. 36 (A)) blinks on the display unit 20, If the name of the dog is not entered from the sound sensor 24 even if the name of the dog is said (for example, pouch), the process proceeds to S 62, and an error sound such as a buoy is produced from the speaker 26 and the display unit 20. To? Eyes (see FIG. 36B) are displayed. Thereby, the user can confirm that the voice registration has failed.
[0185]
In S63, a message such as “Please say your name again” is uttered from the speaker 26.
[0186]
An operation when the voice registration is successful will be described.
[0187]
As shown in FIG. 37 (D), when a message such as “Please say your name” is uttered from the speaker 26 in S71, and the nicotine (see FIG. 36 (A)) blinks on the display unit 20, When the name of the dog said (eg, pouch) is registered, the process proceeds to S72, where an electronic sound such as ping-pong is uttered from the speaker 26, and the heart (see FIG. 36C) is displayed on the display unit 20. To do. Thereby, the user can confirm that the voice registration is successful.
[0188]
Next, when the voice registration mode of the electronic toy 90 is completed, the personality registration mode for registering the personality of the electronic toy 90 is entered.
[0189]
Here, the personality registration mode of the electronic toy 90 will be described with reference to FIGS. FIG. 38 is a diagram for explaining an example of personality formation conditions, (A) is a diagram showing personality characteristics, (B) is a diagram showing an example of personality formation parameter MAP, and (C) is a personality change condition. It is a figure which shows an example.
[0190]
As shown in FIG. 38 (A), the personality that can be registered with the electronic toy 90 is as follows: (1) damn dog (characters sing a vulgar song with a vulgar voice, for example, different behaviors without listening to the master's instructions) ▲ 2 ▼ Tadagumi (characters behave faithfully to the master's instructions and sing a song) ▲ 3 ▼ Art dogs (characteristics are as faithful as loyal dogs) There are three types, including having a caress together (for example, “Asoboyo” is a special trick).
[0191]
As shown in FIG. 38B, the personality formation parameter MAP102 that forms the personality of the electronic toy 90 includes a loyal dog parameter and a performance dog parameter. The personality creation parameter is counted according to the manner and number of times of contact (basing) performed within a predetermined time (for example, 4 hours) after the user installs the battery.
The contact (discipline) method counted as a loyal dog parameter includes calls such as hands, sitting, and lying down. In addition, as a contact (discipline) method counted as a performance dog parameter, there is a call of “Let's play”.
[0192]
For example, when the user says a hand, when the electronic toy 90 performs the hand movement shown in FIG. 34, the points of the hand are increased. As described above, when the electronic toy 90 follows the user's command, each item of the personality formation parameter MAP102 is filled with circles, and the points of the loyal dog parameter and the performance dog parameter increase.
[0193]
As shown in FIG. 38 (C), as a condition for the personality change, for example, when all items of the personality formation parameter MAP102 become 25 points within 4 hours, the personality of the electronic toy 90 is It becomes. In addition, when each item of the loyal dog parameter in the personality formation parameter MAP102 becomes 25 points within 4 hours, the personality of the electronic toy 90 becomes a loyal dog. In addition, if the items of the loyal dog parameter and the trick dog parameter in the personality formation parameter MAP102 do not reach 25 points within 4 hours, the personality of the electronic toy 90 becomes a useless dog.
[0194]
39A and 39B are diagrams for explaining an example of the personality registration operation. FIG. 39A is a diagram illustrating an example of an incorrect answer operation, and FIG. 39B is a diagram illustrating an example of a correct answer operation.
[0195]
As shown in FIG. 39A, for example, when the user commands “hand”, but the Oswari is selected from the motion candidates and the electronic toy 90 performs the Oswari operation (see FIG. 33). Since the wrong operation is performed, the user taps the speaker 26 provided on the upper surface of the head 12 of the electronic toy 90. As a result, the detection switch 59 provided below the speaker 26 is pressed with a strong force to be turned on.
[0196]
When it is detected in the determination process that the detection switch 59 is pressed with a strong force, it is not registered as a point of the character formation parameter MAP102, and the control unit 62 selects a next operation candidate.
[0197]
However, as shown in FIG. 39 (B), for example, even though the user commands “hand”, an ote is selected from the motion candidates and the electronic toy 90 performs the OT operation (see FIG. 34). In this case, if the user says “good”, a word “good” is input to the sound sensor 24. Thus, the control unit 62 resets the skill from the next motion candidate and registers it as a point of the character formation parameter MAP102.
FIG. 40 is a graph showing the personality of the electronic toy 90 set in accordance with the change (increase) in the number of points of the loyal dog parameter I and the art dog parameter II registered in the personality formation parameter MAP102. The graph which shows a loyal dog setting mode, (B) is a graph which shows a show dog setting mode, (C) (D) is a graph which shows a useless dog setting mode. In addition, character formation is performed at the time of a dog (for example, 4 hours from battery installation).
[0198]
As shown in FIG. 40 (A), the electronic toy 90 is a young dog when a battery is attached, and the learning function does not function, so that the operation cannot be predicted in response to a user command. Then, after the young dog period (premature period), the character can be formed by entering the doggy period (nurturing period). Then, the number of points of the loyal dog parameter I and the performance dog parameter II registered in the personality formation parameter MAP102 changes (increases) in accordance with the number of times the user has contacted in the small dog period and the contact method.
[0199]
For example, if the point of the loyal dog parameter I achieves the target (point 25) prior to the point of the craft dog parameter II during the small dog period, the character of the electronic toy 90 is loyal when entering the adult dog period (bringing completion period). The dog becomes a dog and the loyal dog flag (first control flag) is set.
[0200]
In addition, as shown in FIG. 40 (B), when the point of the performance dog parameter II achieves the target (point 25) 100% before the point of the loyal dog parameter I during the small dog period, the adult dog period is entered. When the character of the electronic toy 90 becomes a show dog, a show dog flag is set.
[0201]
In addition, as shown in FIG. 40 (C), at the beginning of the dog period, the point of the show dog parameter II increases in the same manner as the point of the loyal dog parameter I, and the show dog parameter II increases rapidly from the middle. When the goal (point 25) is achieved, the character of the electronic toy 90 becomes a dog when entering the adult dog period, and a dog dog flag (second control flag) is set.
[0202]
In addition, as shown in FIG. 40 (D), at the beginning of the small dog period, the point of the craft dog parameter II changes lower than the point of the loyal dog parameter I, and the craft dog parameter II increases rapidly from the middle. When the dog parameter I increases to a value greater than the point, the character of the electronic toy 90 becomes a useless dog when entering the adult dog period.
[0203]
As described above, the number of points of the loyal dog parameter I and the craft dog parameter II is changed (increased) depending on the user's contact method and the number of times of contact of the electronic toy 90 in the small dog period, so that the character of the electronic toy 90 is Because it is set as either a dog dog, it can be raised as a loyal dog or a craft dog if the user makes sufficient contact within a predetermined time after installing the battery, and becomes a dog dog when the number of contacts is low So you can enjoy the breeding method.
[0204]
Next, emotion parameters for performing motion control when the character development period ends and the electronic toy 90 becomes an adult dog will be described.
[0205]
This emotion parameter has a mood parameter that changes over time, and a satiety parameter that changes according to the number of feeds.
[0206]
41A and 41B are diagrams for explaining mood parameters. FIG. 41A is a diagram showing mood parameter levels, FIG. 41B is a diagram showing the state of each level, and FIG. 41C is a diagram showing mood parameter plus conditions. (D) is a figure which shows the minus conditions of a mood parameter.
[0207]
As shown in FIG. 41A, the mood parameter value PAAre set so as to change into five levels of levels 1-5. Level 1 is PA= 0-20, P at level 2A= 20-40, P at level 3A= 40-60, P at level 4A= 60-80, P at level 5A= 80 to 100, 100 to 127.
[0208]
At the beginning, the mood parameter value PAThe initial value is PA= 50 is registered.
[0209]
As shown in FIG. 41B, the mood parameter value PAIs level 1, the electronic toy 90 is in a state of extreme mood. Also, the mood parameter value PAIs level 2, the electronic toy 90 is in a moody control mode. Also, the mood parameter value PAIs level 3, the electronic toy 90 is in the normal (normal) control mode. Also, the mood parameter value PAIs level 4, the electronic toy 90 is in a state in which the control mode is jerky. Also, the mood parameter value PAIs level 5, the electronic toy 90 is in the super squirrel state control mode.
[0210]
As shown in FIG. 41C, when the user strokes the head 12 of the electronic toy 90, the value P of the mood parameterAIs increased by 2 points and is praised after operating with voice commands from the user (for example, words such as “Yoshiyoshi”), the value of the mood parameter PAIs increased by 4 points. Also, if it is said that it is useless after operating with a voice command from the user, the mood parameter value PAIs increased by 4 points.
[0211]
As shown in FIG. 41D, when the user strikes the head 12 of the electronic toy 90, the mood parameter value PAIs deducted by 1 point. In addition, as the feed supply time elapses (for example, every minute), the satiety level gradually decreases and the mood parameter value PAIs 2 points minus at full level 5, 4 points minus at full level 4, 6 points minus at full level 3, 8 points minus at full level 2, and 10 points minus at full level 1. Thus, the mood parameter is the satiety parameter value PBIt is set to change according to.
[0212]
In addition, when the electronic toy 90 sleeps, the value P of the mood parameterAIf it exceeds 100, it is level 5 and PA= 100 is corrected.
[0213]
Also, the mood parameter value PAWhen the value exceeds 127 (maximum value of level 5), the super-Gokigen state continued considerably, so PAIt is corrected to = 20 and is changed to a super moody state.
[0214]
42 is a diagram for explaining satiety parameters, (A) is a diagram showing levels of satiety parameters, (B) is a diagram showing the state of each level, and (C) is a diagram showing plus conditions for satiety parameters. (D) is a figure which shows the minus conditions of a satiety parameter.
[0215]
As shown in FIG. 42A, the satiety parameter value PBAre set so as to change into five levels of levels 1-5. Level 1 is PB= 0-20, P at level 2B= 20-40, P at level 3B= 40-60, P at level 4B= 60-80, P at level 5B= 80 to 100, 100 to 127.
[0216]
At the beginning, the satiety parameter value PBThe initial value of P is PB= 50 is registered.
[0217]
As shown in FIG. 42B, the mood parameter value PBIs level 1, the electronic toy 90 is in a super hungry control mode. Also, the satiety parameter value PBIs level 2, the electronic toy 90 is in a hungry control mode. Also, the satiety parameter value PBIs level 3, the electronic toy 90 is in the normal (normal) control mode. Also, the satiety parameter value PBIs level 4, the control mode of the electronic toy 90 is full. Also, the satiety parameter value PBIs level 5, the electronic toy 90 is in the super full state in the control mode.
[0218]
The satiety parameter value PBIs PB= If it becomes 127 or more, the stomach will puncture, so PBReduce to = 20.
[0219]
As shown in FIG. 42C, when the user feeds the electronic toy 90, the satiety parameter value PBIs increased by 4 points.
[0220]
As shown in FIG. 42 (D), when the electronic toy 90 emits a voice requesting food or performing an operation requesting food, the value P of the satiety parameter is set.BIs deducted by 1 point.
[0221]
Further, the fullness parameter value P every time a predetermined time (for example, 1 minute) elapses after the electronic toy 90 becomes hungry and requests food.BIs deducted by 4 points. Therefore, if the user regularly feeds, the satiety parameter value PBIncreases and the value P of the satiety parameter if the user does not feedBDecrease and become hungry, and mood parameter PAIt also decreases and changes to a moody state.
[0222]
As the food, for example, by embedding a magnet in a resin material having a shape similar to bone and providing a magnetic sensor inside the mouth 31 of the electronic toy 90, it can be detected that food has been given. Alternatively, an optical sensor may be provided inside the mouth 31 of the electronic toy 90 to detect food.
[0223]
FIG. 43 is a graph showing an example of changes in mood parameters.
[0224]
As shown in FIG. 43, time 0 to t1During the period, the value of the mood parameter PARises. Also, time t1To t2During this period, the user will not give up, so the value of the mood parameter PADecreases.
[0225]
Time t3Then, the value P of the mood parameterAIs PA= 127 or more, so the satiety parameter value PBIt decreases rapidly. This prevents the user from getting tired of continuous super mode.
[0226]
FIG. 44 shows the value P of the satiety parameterBIt is a figure which shows an example of the fluctuation value of the mood parameter according to.
[0227]
As shown in FIG. 44, in this embodiment, (1) the value P of the satiety parameterBIs 0-20, the mood parameter value PAFluctuation value of 100 is minus, (2) satiety parameter value PBIs 20-40, the mood parameter value PAFluctuation value of 90 points minus, (3) fullness parameter value PBIs 40-60, the mood parameter value PAThe fluctuation value is minus 80 points, and (4) fullness parameter value PBIs 60 to 80, the mood parameter value PAFluctuation value of 70 points minus, (5) satiety parameter value PBIs 80 to 127, the mood parameter value PAThe fluctuation value is negative 60 points.
[0228]
Therefore, the negative fluctuation value of the mood parameter is larger as the person is hungry, and the negative fluctuation value of the mood parameter is smaller as the person is full. Therefore, the mood parameter fluctuates by being influenced by the satiety parameter which fluctuates depending on the number of times of feeding and the feeding interval while stroking the voice input from the user and the head 12. Therefore, the user needs to pay attention to the time and number of times of feeding as with an actual dog, and can play with the electronic toy 90 as if he had an actual dog.
[0229]
Here, the control process which the control part 62 of the electronic toy 90 comprised as mentioned above performs is demonstrated.
[0230]
FIG. 45 is a flowchart of main processing executed by the control unit 62 of the electronic toy 90. FIG. 46 is a flowchart of the main process executed following the process of FIG.
[0231]
As shown in FIG. 45, when a battery is attached to the electronic toy 90, words for speech recognition are registered in S80. For this voice registration processing, see FIGS. 37 (A) to (D) described above.
[0232]
In the next step S81, the personality development mode in which the personality of the electronic toy 90 is trained during the small dog period and the personality standard mode in which personality development is omitted are selected. For example, in S81, when the user operates the mode selection switch 91A to turn on, the personality development mode is selected, and when the user operates the mode selection switch 91B to turn on, the personality standard mode is selected.
[0233]
Accordingly, when the mode selection switch 91A is turned on in S81, the process proceeds to S82, and the character development mode is set. If the mode selection switch 91B is turned on in S81, the process proceeds to S83, and the loyal dog mode set as the personality standard mode is set.
[0234]
When the loyal dog mode is set in S83, the loyal dog mode control data is read from the ROM 82 in S84. Subsequently, the loyal dog mode is controlled in S85. Then, the control in the loyal dog mode is continued until reset in S86.
[0235]
When the personality development mode is set in S82, the process proceeds to S87, and operation control in the young dog period is performed. As the operation control in the young dog period, an operation for each voice input or an input such as stroking the head 12, an operation when there is no input, an operation based on a mood parameter and a satiety parameter is performed. In the next S88, it is checked whether or not the baby dog period has ended.
[0236]
When the young dog period ends in S88, the process proceeds to S89, and operation control in the small dog period is performed. This motion control in the small dog period is the above-described learning mode (see FIGS. 38 to 40), processing for each input of the head 12 switch, voice, food, etc., processing when there is no input, mood parameters, and satiety There are parameter processing, entry of personality formation parameters MAP 102 for words (loyal dog parameter processing), and art dog parameter processing. In next S90, it is checked whether or not the dog period has ended. Until this dog period ends, the operation control of the dog period in S88 is executed.
[0237]
In S90, when the small dog period ends, the process proceeds to S91, and the flag of any of the loyal dog, the geido dog, and the dog according to the personality data (the loyal dog parameter, the geido dog parameter) raised in the process of S88 is set. (See FIGS. 40A to 40D).
[0238]
In the next S92 (see FIG. 46), it is checked whether the loyal dog flag is set. When the loyal dog flag is set in S92, the process proceeds to S93, and it is checked whether or not the show dog flag is set. In S93, when the show dog flag is set, the process proceeds to S94, and after setting the show dog mode, the control data of the show dog mode is read from the ROM 82 in S95. Subsequently, in S96, the art dog mode is controlled. The art dog mode control is continued until reset in S97.
[0239]
In S92, if the loyal dog flag is not set, it is determined that the dog dog flag is set, and the process proceeds to S98. After setting the dog dog mode, the control data of the dog dog mode is read from the ROM 82 in S99. Read. Subsequently, in S100, control of the dog mode is performed. The control in the dog mode is continued until reset in S101.
[0240]
In S93, when the show dog flag is not set, the process proceeds to S83, and the processes of S83 to S86 are executed.
[0241]
As described above, in the second embodiment, personality data (loyal dog parameters, performance dog parameters) can be formed by performing personality development processing according to the way the user responds during the small dog period. You can play as if you were raising a pet.
[0242]
Moreover, in the said Example, although the dog-shaped electronic toy was demonstrated as an example, it is not restricted to this, The electronic toy imitating other animals, for example, animals, such as a cat, a tiger, a lion, a monkey, a horse, an elephant, a giraffe Of course, the present invention can also be applied.
[0243]
【The invention's effect】
  As described above, according to the first aspect of the present invention, one or more of the expression patterns of the eyesData corresponding toSelectBased on the dataBy selectively illuminating one or more of the light sources and displaying the pattern composed of holes by entering light into the plate corresponding to the lit light source,chosenCorresponding to dataBecause the expression pattern of the eyes lights up visually through the cover member,Eye expressionBecause it ’s difficult to predict patterns, LongYou will never get tired of playing for a period.
[0244]
  According to the second aspect of the present invention, any one of the plurality of expression pattern data in response to the signal from the sensor.OrSelect and the selectedExpressionTurn on the light source selected based on the pattern dataRightThe lit light sourceEnter the plate-shaped member corresponding toCorresponding to the lightA group of small holes provided in the plate memberThe expression pattern of the selected eye is displayed on the display by flashingControl to,Select one of multiple operation patterns andThe leg based on the selected motion pattern dataCorresponding toActionDocontrolAnd doTherefore, different operations can be performed depending on the input timing from the sensor. Furthermore, since it is difficult to predict an operation pattern, it can be controlled to cause an unexpected action with respect to an input, so that it does not get bored even if it plays for a long time.
[0245]
  According to the invention of claim 3 above,Since the operation of the leg is controlled by the rotational force transmitted from the cam mechanism, even if the leg is operated in conjunction with the expression pattern of the eyes displayed on the display unit, it will not get bored.
[0246]
  According to the invention of claim 4,Since the ear-shaped part provided on the head is driven by the rotational force transmitted by the transmission mechanism, the ear-shaped part can also be operated by the drive mechanism that drives the leg part, and unexpected behavior with respect to the input Because it can be controlled to wake up, you will not get bored even if you play for a long time.
[0247]
  According to the fifth aspect of the present invention, the personality according to the count number obtained by the counter during the period when the initial setting means sets the initial setting mode.Data onRegisterThen, the control means performs control to selectively turn on the plurality of light sources and control of the movement of the legs based on the data relating to the personality registered by the personality forming means.Therefore, individual differences appear in the facial expression, voice, and movement corresponding to the user's contact after the initial setting period, and it is possible to produce an electronic toy as if it had gender and personality like an animal.
[0249]
  In addition, the above claims6According to the described invention, the personality forming means is based on whether the count value obtained from the counter is even or odd.Data onTherefore, different personalities can be set as appropriate without performing complicated calculations.
[Brief description of the drawings]
FIG. 1 is a front view of an electronic toy according to a first embodiment of the present invention.
FIG. 2 is a side view of the electronic toy shown in FIG.
FIG. 3 is a plan view of the electronic toy shown in FIG.
4 is a rear view of the electronic toy shown in FIG. 1. FIG.
5 is a bottom view of the electronic toy shown in FIG. 1. FIG.
6 is a perspective view of the electronic toy shown in FIG. 1. FIG.
7 is a side view of the electronic toy 10 showing a rotation direction and a rotation angle of the leg portions 16 to 19. FIG.
FIG. 8 is a side view showing an operation state when the electronic toy 10 is in a sleeping posture A.
FIG. 9 is a side view showing an operation state when the electronic toy 10 is in a posture B where it stands.
10 is a side view showing an operation state when the electronic toy 10 is in a forward turning posture C. FIG.
11 is a front longitudinal sectional view showing the internal structure of the electronic toy 10. FIG.
12 is a side longitudinal sectional view showing the internal structure of the electronic toy 10. FIG.
13 is a plan longitudinal sectional view showing the internal structure of the electronic toy 10. FIG.
14 is a front view individually showing red acrylic plates 71 to 74 incorporated in the display unit 20. FIG.
FIG. 15 is a diagram showing combinations of display patterns that are light-emitting displayed on the display unit 20;
16 is a block diagram showing a configuration of a control system of the electronic toy 10. FIG.
17 is a block diagram showing a configuration of a control unit 62. FIG.
FIG. 18 is a flowchart for explaining a control process executed by a CPU 80 of the control unit 62;
FIG. 19 is a graph showing changes in pet biorhythm and communication biorhythm.
FIG. 20 is a diagram illustrating a motion and facial expression control method performed in response to motion input from each sensor in the mood mode.
FIG. 21 is a diagram illustrating a motion and facial expression control method performed in response to motion input from each sensor in a moody mode.
FIG. 22 is a flowchart for explaining an initial setting process;
FIG. 23 is a diagram showing characteristics for each gender when personality data is set to male or female, (A) is a list showing characteristics of males and females, and (B) is a personality data set to male. FIG. 6C is a diagram showing the facial expression when the personality data is set to female.
FIG. 24 is a flowchart for explaining a modification of the initial setting process;
FIG. 25 is a front view of an electronic toy according to a second embodiment of the present invention.
26 is a side view of the electronic toy shown in FIG. 25. FIG.
27 is a plan view of the electronic toy shown in FIG. 25. FIG.
28 is a rear view of the electronic toy shown in FIG. 25. FIG.
29 is a bottom view of the electronic toy shown in FIG. 25. FIG.
30 is a perspective view of the electronic toy shown in FIG. 25. FIG.
FIG. 31 is a diagram showing a combination of the motion type of the electronic toy 90 and the motion positions of the leg portions 16 to 19, and (A) is a diagram showing a combination of the motion type and the motion positions of the leg portions 16 to 19. Yes, (B) is a view showing the rotation angle of each leg 16-19.
32 is a side view for explaining the standing operation of the electronic toy 90. FIG.
33 is a side view for explaining the sitting operation of the electronic toy 90. FIG.
34 is a side view for explaining the manual operation of the electronic toy 90. FIG.
FIG. 35 is a side view for explaining the bend operation of the electronic toy 90;
36 is a diagram illustrating an example of a display pattern of the display unit 20, in which FIG. The figure which shows an eye, (C) is a figure which shows a heart eye, (D) is a figure which shows a dito eye, (E) is a figure which shows a round eye.
FIGS. 37A and 37B are diagrams for explaining voice registration, in which FIG. 37A shows an example of a registered word used for voice registration, FIG. 37B is a flowchart for explaining the procedure of voice registration, and FIG. ) Is a flowchart for explaining a voice registration failure example, and (D) is a flowchart for explaining a voice registration success example.
FIG. 38 is a diagram for explaining an example of personality formation conditions, (A) is a diagram showing personality characteristics, (B) is a diagram showing an example of personality formation parameter MAP, and (C) is a diagram of personality change. It is a figure which shows an example of conditions.
FIGS. 39A and 39B are diagrams for explaining an example of the personality registration operation, where FIG. 39A is a diagram illustrating an example of an incorrect answer operation, and FIG. 39B is a diagram illustrating an example of a correct answer operation;
FIG. 40 is a graph showing the personality of the electronic toy 90 set in accordance with the change (increase) in the number of points of the loyal dog parameter I and the performance dog parameter II registered in the personality formation parameter MAP102; The graph which shows a loyal dog setting mode, (B) is a graph which shows a show dog setting mode, (C) (D) is a graph which shows a dog setting mode.
FIGS. 41A and 41B are diagrams for explaining mood parameters, where FIG. 41A shows mood parameter levels, FIG. 41B shows the state of each level, and FIG. 41C shows mood parameter plus conditions; (D) is a figure which shows the minus conditions of a mood parameter.
FIGS. 42A and 42B are diagrams for explaining satiety parameters, in which FIG. 42A shows the level of satiety parameters, FIG. 42B shows the state of each level, and FIG. 42C shows the plus condition of satiety parameters; FIG. 4D is a diagram showing a negative condition for the satiety parameter.
FIG. 43 is a graph showing an example of changes in mood parameters.
FIG. 44. Value P of satiety parameterBIt is a figure which shows an example of the fluctuation value of the mood parameter according to.
45 is a flowchart of main processing executed by the control unit 62 of the electronic toy 90. FIG.
46 is a flowchart of main processing executed subsequent to the processing of FIG. 45. FIG.
[Explanation of symbols]
10 Electronic toys
12 heads
14 Torso
16-19 legs
20 display
22 Nose
24 sound sensor
25 Light sensor
26 Speaker
28 Body
30 jaws
31 mouths
32 Tail
36 motor
38 Transmission mechanism
40 Drive gear
42 First transmission gear
44 Second transmission gear
46 Third transmission gear
48 First cam gear
52 4th transmission gear
54 Second cam gear
56 Transmission path
58 battery
59 Detection switch
62 Control unit
64 substrates
71-74 Red acrylic board
75-79 Light Emitting Diode (LED)
80 CPU
82 ROM
82A Operation control program
82B Attitude control data
82C Voice control data
82D Display control data
82E Pet biorhythm data
82F Biorhythm correction data
84 RAM
84A counter
84B Communication Biorhythm Data
86 Timer
90 Electronic toy
91A, 91B selection switch
102 Personality formation parameter MAP

Claims (6)

表示部を配置した頭形状に形成された頭部形状部材を備えた電子玩具であって、
前記表示部は、前記頭部形状部材の顔部に重ねて配置された複数のプレートと、
前記プレートのそれぞれに対応して配置された複数の光源とを備え、
前記プレートのそれぞれには他のプレートとは異なる所定パターンに配置された一群の穴が形成されており、
前記光源のそれぞれは、対応するプレートの側面から前記プレート内に光を入射するように配置されており、前記光源の何れかが発光したとき当該光が対応するプレート内に側面から入射され、前記穴部分で光をプレート外に放射して当該プレートに形成された前記穴パターンを表示するように構成されており、
さらに、前記複数のプレートを覆うように配置された半透明のカバー部材と、
複数の目の表現パターンを表示するためのデータが記憶された記憶媒体と、
前記記憶媒体に記憶された前記データに基づき、前記複数の光源を選択的に点灯させる制御手段とを備え、
前記制御手段は、前記目の表現パターンの一つまたは複数に対応するデータを選択して当該データに基づき前記光源の一つまたは複数を選択的に点灯し、当該点灯した光源に対応するプレートに光を入射して前記穴によって構成されるパターンを表示することによって、前記選択されたデータに対応する目の表現パターンが前記カバー部材を介して目視可能に点灯することを特徴とする電子玩具。
An electronic toy provided with a head-shaped member formed in a head shape in which a display unit is arranged,
The display unit includes a plurality of plates arranged to overlap the face part of the head-shaped member,
A plurality of light sources arranged corresponding to each of the plates,
Each of the plates is formed with a group of holes arranged in a predetermined pattern different from the other plates,
Each of the light sources is arranged so that light enters the plate from the side surface of the corresponding plate, and when any of the light sources emits light, the light enters the corresponding plate from the side surface, The hole portion is configured to emit light to the outside of the plate and display the hole pattern formed on the plate,
Furthermore, a translucent cover member arranged to cover the plurality of plates;
A storage medium storing data for displaying a plurality of eye expression patterns;
Control means for selectively lighting the plurality of light sources based on the data stored in the storage medium,
The control means selects data corresponding to one or more of the expression patterns of the eyes, selectively lights one or more of the light sources based on the data, and puts on the plate corresponding to the lit light source An electronic toy characterized in that an expression pattern of eyes corresponding to the selected data is lit in a visible manner through the cover member by displaying a pattern composed of the holes by entering light.
胴部と、頭部と、前記胴部の下部に可動的に形成された脚部とを備えた電子玩具であって、
前記頭部の顔部分に配置され、互いに異なった表現パターンに配置された一群の小孔が設けられた複数の板状部材を重ね若しくは並べて構成された表示部と、
前記表示部の前記複数の板状部材のいずれかに選択的に該表示部の外側から光を入射するように前記電子玩具内に配置された複数の光源と、
少なくとも前記表示部を覆うように配置された半透明カバーと、
外部からの入力を検出する複数のセンサと、
前記脚部に動力を伝達する駆動機構と、
前記表示部に目の表現を表示するための複数の表現パターンデータと、前記脚部の動作を制御するための複数の動作パターンデータが記憶された記憶媒体と、
前記記憶媒体に記憶された前記データに基づき、前記複数の光源を選択的に点灯させる制御および前記脚部の動作の制御を行う制御手段と、
を備え、
前記表示部に配置された前記板状部材に設けられた前記一群の小孔のそれぞれは、前記光源から入射される光を前記板状部材外に放射するように構成されており、
前記制御手段は、前記センサからの信号に応答して、
前記複数の表現パターンデータの何れかを選択し、選択された当該表現パターンデータに基づき選択された光源を点灯し当該点灯した光源に対応する前記板状部材に入射される光によって対応する当該板状部材に設けられた前記一群の小孔を発光させることで前記表示部に選択された目の表現パターンを表示する制御と
前記複数の動作パターンの何れかを選択し、当該選択された動作パターンデータに基づき前記脚部に対応する動作を行わせる制御
を行うことを特徴とする電子玩具。
An electronic toy comprising a torso, a head, and a leg movably formed at a lower part of the torso,
A display unit configured by stacking or arranging a plurality of plate-like members arranged on a face part of the head and provided with a group of small holes arranged in different expression patterns;
A plurality of light sources disposed in the electronic toy so that light is selectively incident on any one of the plurality of plate-like members of the display unit from the outside of the display unit;
A translucent cover arranged to cover at least the display unit;
A plurality of sensors for detecting external inputs;
A drive mechanism for transmitting power to the legs;
A plurality of expression pattern data for displaying the expression of the eyes on the display unit, and a storage medium storing a plurality of operation pattern data for controlling the operation of the legs,
Based on the data stored in the storage medium, control means for selectively turning on the plurality of light sources and controlling the operation of the legs,
With
Each of the group of small holes provided in the plate-like member arranged in the display unit is configured to radiate light incident from the light source to the outside of the plate-like member ,
The control means is responsive to a signal from the sensor,
You select one of the plurality of expression pattern data, corresponding by light Isa enter into the plate-like member that illuminates the selected light source on the basis of the expression pattern data selected corresponding to those the lighted light source Control for displaying the expression pattern of the selected eye on the display unit by causing the group of small holes provided in the plate-like member to emit light;
Selects one of the plurality of operation patterns, a control to perform an operation corresponding to the leg portion based on the selected motion pattern data
Electronic toys and performing.
前記駆動機構は、
駆動モータと、
該駆動モータに接続され、前記駆動モータの回転力を伝達する伝達機構と、
該伝達機構によって伝達される回転力によって駆動されるカム機構と、を備え、
前記脚部は、前記カム機構から伝達される回転力によって動作制御されるように構成されたことを特徴とする請求項2に記載の電子玩具。
The drive mechanism is
A drive motor;
A transmission mechanism connected to the drive motor for transmitting the rotational force of the drive motor;
A cam mechanism driven by the rotational force transmitted by the transmission mechanism,
The electronic toy according to claim 2, wherein the leg portion is configured to be controlled by a rotational force transmitted from the cam mechanism.
前記頭部には、さらに耳形状部が設けており、
該耳形状部は、前記伝達機構によって伝達される回転力によって駆動されることを特徴とする請求項3に記載の電子玩具。
The head is further provided with an ear-shaped part,
The electronic toy according to claim 3, wherein the ear shape portion is driven by a rotational force transmitted by the transmission mechanism.
電源投入により、初期設定モードを設定する初期設定手段と、
前記センサで検出される信号をカウントするカウンタと、
性格形成手段とをさらに備えてなり、
前記性格形成手段は、前記初期設定手段が初期設定モードを設定している期間に前記カウンタにより得られたカウント数に応じた性格に関するデータを登録し、
前記制御手段は、前記性格形成手段によって登録された性格に関するデータに基づき前記複数の光源を選択的に点灯させる制御および前記脚部の動作の制御を行うことを特徴とする請求項2乃至4の何れかに記載の電子玩具。
Initial setting means for setting the initial setting mode by turning on the power;
A counter for counting signals detected by the sensor;
And a personality forming means,
The personality forming means registers data relating to personality according to the count number obtained by the counter during the period in which the initial setting means sets the initial setting mode,
5. The control unit according to claim 2, wherein the control unit performs control to selectively turn on the plurality of light sources and control of the operation of the legs based on data on the personality registered by the personality formation unit. The electronic toy according to any one of the above.
前記性格形成手段は、前記カウンタから得られたカウント値が偶数であるか奇数であるかに基づき性格に関するデータを登録することを特徴とする請求項5に記載の電子玩具。  6. The electronic toy according to claim 5, wherein the personality forming means registers data relating to personality based on whether the count value obtained from the counter is an even number or an odd number.
JP2000145693A 1999-11-02 2000-05-17 Electronic toy Expired - Fee Related JP4757979B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000145693A JP4757979B2 (en) 1999-11-02 2000-05-17 Electronic toy
KR1020000077882A KR20010091876A (en) 2000-03-15 2000-12-18 Electronic toy and method of controlling the same and memory media

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP1999313033 1999-11-02
JP31303399 1999-11-02
JP2000-72778 2000-03-15
JP2000072778 2000-03-15
JP2000072778 2000-03-15
JP11-313033 2000-03-15
JP2000145693A JP4757979B2 (en) 1999-11-02 2000-05-17 Electronic toy

Publications (3)

Publication Number Publication Date
JP2001327765A JP2001327765A (en) 2001-11-27
JP2001327765A5 JP2001327765A5 (en) 2007-07-05
JP4757979B2 true JP4757979B2 (en) 2011-08-24

Family

ID=27339288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000145693A Expired - Fee Related JP4757979B2 (en) 1999-11-02 2000-05-17 Electronic toy

Country Status (1)

Country Link
JP (1) JP4757979B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020251097A1 (en) * 2019-06-14 2020-12-17 엘지전자 주식회사 Robot
JPWO2020009098A1 (en) * 2018-07-02 2021-08-05 Groove X株式会社 robot
JP2024023193A (en) * 2017-10-30 2024-02-21 ソニーグループ株式会社 Information processing device and information processing method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4524524B2 (en) * 2000-10-11 2010-08-18 ソニー株式会社 Robot apparatus and control method thereof
US7996890B2 (en) 2007-02-27 2011-08-09 Mattel, Inc. System and method for trusted communication
JP6391386B2 (en) * 2014-09-22 2018-09-19 シャープ株式会社 Server, server control method, and server control program
JP2018117821A (en) * 2017-01-25 2018-08-02 群馬電機株式会社 Stuffed animal for welfare nursing
JP6800183B2 (en) * 2018-07-13 2020-12-16 本田技研工業株式会社 Communication device
WO2020158642A1 (en) 2019-01-31 2020-08-06 ソニー株式会社 Robot control device, robot control method, and program
JP6590393B1 (en) * 2019-05-13 2019-10-16 M&Tプロジェクトパートナーズ株式会社 toy
JP7070529B2 (en) * 2019-10-31 2022-05-18 カシオ計算機株式会社 Equipment control device, equipment control method and program
JP7081577B2 (en) * 2019-10-31 2022-06-07 カシオ計算機株式会社 robot
JP2022187093A (en) * 2021-06-07 2022-12-19 イワヤ株式会社 toy

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2593149B2 (en) * 1987-02-04 1997-03-26 株式会社 ナムコ Emotional expression toy
JPH01109391A (en) * 1987-10-23 1989-04-26 Epoch Sha:Kk Teaching dummy
JPH0342974A (en) * 1989-07-10 1991-02-25 Fuji Photo Film Co Ltd Automatic stop down device for video camera
JPH09108442A (en) * 1995-10-18 1997-04-28 Hudson Soft Co Ltd Video game device provided with temperature sensor
JPH09313743A (en) * 1996-05-31 1997-12-09 Oki Electric Ind Co Ltd Expression forming mechanism for imitative living being apparatus
JP3273550B2 (en) * 1997-05-29 2002-04-08 オムロン株式会社 Automatic answering toy
JPH1165417A (en) * 1997-08-27 1999-03-05 Omron Corp Virtual pet breeding apparatus, method and program recording medium
JPH11179061A (en) * 1997-12-01 1999-07-06 Chin Kyo Stuffed doll provided with eye of lcd

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024023193A (en) * 2017-10-30 2024-02-21 ソニーグループ株式会社 Information processing device and information processing method
JP7747032B2 (en) 2017-10-30 2025-10-01 ソニーグループ株式会社 Information processing device and information processing method
JPWO2020009098A1 (en) * 2018-07-02 2021-08-05 Groove X株式会社 robot
JP2024045247A (en) * 2018-07-02 2024-04-02 Groove X株式会社 robot
JP7619609B2 (en) 2018-07-02 2025-01-22 Groove X株式会社 robot
JP7719533B2 (en) 2018-07-02 2025-08-06 Groove X株式会社 robot
WO2020251097A1 (en) * 2019-06-14 2020-12-17 엘지전자 주식회사 Robot

Also Published As

Publication number Publication date
JP2001327765A (en) 2001-11-27

Similar Documents

Publication Publication Date Title
US7442107B1 (en) Electronic toy, control method thereof, and storage medium
US6558225B1 (en) Electronic figurines
US6544098B1 (en) Interactive toy
JP4757979B2 (en) Electronic toy
US8469766B2 (en) Interactive toy system
EP2596461B1 (en) Autonomous robotic life form
US6565407B1 (en) Talking doll having head movement responsive to external sound
US20120196502A1 (en) Interactive Toy System
US20070270074A1 (en) Robot Toy
CN105214317B (en) Interactive toy and interactive operation method thereof
US20070093170A1 (en) Interactive toy system
JP2003071763A (en) Legged mobile robot
US20180214788A1 (en) Toy interactive entertainment devices
JP2015023989A (en) Plush toys
JP2002205291A (en) Legged robot, method of controlling behavior of legged robot, and storage medium
JP2002066155A (en) Emotional expression movement toy
KR20010091876A (en) Electronic toy and method of controlling the same and memory media
JP2003305677A (en) Robot apparatus, robot control method, recording medium, and program
EP1776990A2 (en) Interactive toy system
CN111514590A (en) a toy
JPH09313743A (en) Expression forming mechanism for imitative living being apparatus
JP6841618B2 (en) Game system, game device, information processing device and control program
JP2003305674A (en) Robot apparatus, robot control method, recording medium, and program
CN210786226U (en) a toy
JP2025050106A (en) Terminal device, interlocking method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110602

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4757979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees