[go: up one dir, main page]

JP4211968B2 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP4211968B2
JP4211968B2 JP2002264508A JP2002264508A JP4211968B2 JP 4211968 B2 JP4211968 B2 JP 4211968B2 JP 2002264508 A JP2002264508 A JP 2002264508A JP 2002264508 A JP2002264508 A JP 2002264508A JP 4211968 B2 JP4211968 B2 JP 4211968B2
Authority
JP
Japan
Prior art keywords
character
unit
user
display unit
character image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002264508A
Other languages
Japanese (ja)
Other versions
JP2004102719A (en
Inventor
兼郎 轟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2002264508A priority Critical patent/JP4211968B2/en
Publication of JP2004102719A publication Critical patent/JP2004102719A/en
Application granted granted Critical
Publication of JP4211968B2 publication Critical patent/JP4211968B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば携帯電話機,PHS電話機(PHS:Personal Handyphone System),通信機能を有するPDA装置(PDA:Personal Digital Assistants)、或いは通信機能を備えたパーソナルコンピュータ装置等の端末装置に用いて好適な情報処理装置に関し、特にセンサに基づいて現状を判断して端末装置の動作制御を行う情報処理装置に関する。
【0002】
【従来の技術】
今日において、携帯電話機やパーソナルコンピュータ装置等の端末装置の表示画面に所定のキャラクタを表示し、このキャラクタを、ユーザのキー操作に応じてインタラクション表示するアプリケーションプログラム(インタラクションプログラム)が知られている。
【0003】
このインタラクションプログラムは、例えば携帯電話機に設けられているテンキーのうち「1」のキーが押圧操作されると、表示画面内のキャラクタが右手を上げるように該キャラクタの表示制御を行い、「2」のキーが押圧操作されると、表示画面内のキャラクタが右足を上げるように該キャラクタの表示制御を行う。
【0004】
これにより、ユーザは、携帯電話機の待ち受け画面やパーソナルコンピュータ装置のデスクトップに表示されたキャラクタを、所望のキー操作を介してインタラクティブに(対話的に)操作することができる。
【0005】
携帯電話機の待ち受け画面やデスクトップは、単にキャラクタ等の画像を表示するだけの場合が多いのであるが、このように表示されているキャラクタの操作を可能とすることで、面白味や楽しみのある待ち受け画像やデスクトップ画像を提供することができる。
【0006】
【発明が解決しようとする課題】
しかし、従来のインタラクションプログラムは、「操作キー」に対して「キャラクタの動作」が割り付けられている。このため、携帯電話機やパーソナルコンピュータ装置等の端末装置に設ける操作キーの数には限りがあることから、キャラクタの動作パターンが少なくかつ単純化する問題があった。
【0007】
また、上記操作キーの「押圧する」という操作は、実世界では「押す」という動作である。そして、この実世界の「押す」という動作に対してユーザは、該キャラクタが指で押されて後退りする動作等を感覚的に期待するものである。
【0008】
しかし、端末装置に設けられている操作キーは、「押圧」という操作方法しか存在せず、この「押圧」という一つの操作に対してキャラクタが複数パターンの動作を行うようになっていたため、仮想世界のキャラクタのリアクションとして、実世界のアクションに対して懸け離れたリアクションが存在する問題があった。
【0009】
また、従来のインタラクションプログラムは、ユーザのキー操作を待ってキャラクタを表示制御するものであったため、受動的な表示制御しか行うことができない問題があった。
【0010】
本発明は、上述の課題に鑑みてなされたものであり、実世界のアクションに対応するリアクションとなるように、複雑かつ多数の動作パターンでキャラクタを表示制御することができ、さらにキャラクタ等を能動的に動作させることができるような情報処理装置の提供を目的とする。
【0011】
【課題を解決するための手段】
本発明に係る情報処理装置は、上述の課題を解決するために、
表示部に所定のキャラクタのキャラクタ画像を表示するキャラクタ画像表示部と、
圧力センサを備え、上記表示部に表示された上記キャラクタ画像を目視可能なように設けられると共に、ユーザの接触操作による操作位置、操作距離、及び押圧力を検出する二次元入力部と、
少なくとも時刻を計時するタイマ、光を感知する光センサ、及び音を感知する音センサを備え、上記タイマ及び各センサからの各出力に基づいて、総合的に当該情報処理装置が適用された機器の現状を判断する現状判断部と、
上記現状判断部により判断された上記機器の現状に対応する動作を行う上記キャラクタ画像を表示するように上記キャラクタ画像表示部を制御すると共に、上記二次元入力部でユーザの接触操作が検出された際に、この接触操作による操作位置及び操作距離に対応し、かつ、実世界のリアクションとなる動作を行う上記キャラクタ画像を表示するように上記キャラクタ画像表示部を制御し、或いは上記接触操作による押圧力に対応し、かつ、実世界のリアクションとなる動作を行う上記キャラクタ画像を表示するように上記キャラクタ画像表示部を制御する制御部と
を有する。
【0012】
このような本発明は、現状判断部が、少なくとも時刻を計時するタイマ、光を感知する光センサ、及び音を感知する音センサを備え、上記タイマ及び各センサからの各出力に基づいて、総合的に当該情報処理装置が適用された機器の現状を判断する。制御部は、この現状判断部により判断された上記機器の現状に対応する動作を行うキャラクタ画像を表示するようにキャラクタ画像表示部を制御する。これにより、表示部に表示されたキャラクタを能動的に動作させることができる。また、制御部は、二次元入力部でユーザの接触操作が検出された際に、この接触操作による操作位置及び操作距離に対応し、かつ、実世界のリアクションとなる動作を行う上記キャラクタ画像を表示するように上記キャラクタ画像表示部を制御し、或いは上記接触操作による押圧力に対応し、かつ、実世界のリアクションとなる動作を行う上記キャラクタ画像を表示するように上記キャラクタ画像表示部を制御する。これにより、表示部に表示されたキャラクタを、実世界のアクションに対応するリアクションとなるように、複雑かつ多数の動作パターンで表示することができる。
【0013】
【発明の実施の形態】
以下、第1の実施の形態として、キャラクタ等を能動的に動作させる端末装置の一例を、第2の実施の形態として実世界のアクションに対応するリアクションとなるように、複雑かつ多数の動作パターンでキャラクタを表示制御する端末装置の一例を説明する。
【0014】
〔第1の実施の形態〕
[第1の実施の形態の構成]
図1は、本発明を適用した第1の実施の形態となる端末装置の、主となる構成を示すブロック図である。なお、この図1に示す端末装置は携帯電話機である。ブロック図が煩雑化するため、通信系等の図示は省略している。
【0015】
この図1において、携帯電話機は、計時を行うタイマ1(=時刻センサ)と、当該携帯電話機が置かれている場所の明るさを検出する光センサ2と、当該携帯電話機が置かれている場所の周囲の音を検出する音センサ3とを有している。
【0016】
また、この携帯電話機は、日付,開始時間,終了時間等の各データからなるユーザのスケジュールが記憶されたスケジュール帳4と、通話日,通話時刻,通話先の電話番号,通話先名等の各データからなる通話履歴が記憶された通話履歴メモリ5と、上記タイマ1〜通話履歴メモリ5の各情報に基づいて当該携帯電話機を動作させるための、複数の制御パターンの情報が記憶された制御パターンテーブルとを有している。
【0017】
また、この携帯電話機は、当該携帯電話機を振動させるバイブレーション機能7と、上記制御パターンに対応する所定の音声をスピーカ部9を介して発音制御する音声制御部8と、キャラクタの複数の音声パターンが記憶されたキャラクタ音声メモリ10と、上記制御パターンに基づいて、表示部12に表示するキャラクタを描画処理するキャラクタ描画部11と、当該携帯電話機全体を制御する制御部13(CPU)とを有している。
【0018】
[第1の実施の形態の動作]
図2のフローチャートに、この携帯電話機がキャラクタ等を能動的に動作させるまでの流れを示す。この図2のフローチャートは、携帯電話機のメイン電源がオンされることでスタートとなる。
【0019】
まず、ステップS1及びステップS2では、CPU13が、タイマ1から時刻情報を取得し、この時刻情報に応じて「1」或いは「0」の1ビットのデータを保持する。
【0020】
具体的には、CPU13は、図3に示すように、例えば午前4:00〜午後16:00までの間を「昼間」と判断し、現在時刻がこの昼間に相当する場合は「1」のデータを保持する。これに対して、CPU13は、午後16:00〜午前4:00までの間を「夜間」と判断し、現在時刻がこの夜間に相当する場合は「0」のデータを保持する。
【0021】
次に、スケジュール帳4には、例えば今後のスケジュールの日付,開始時間,終了時間等の各データが記憶されている。ステップS3及びステップS4では、CPU13が、このスケジュール帳4から、例えば当日等のように所定時間内のスケジュール情報を取得し、このスケジュール情報に応じて上記1ビットのデータを保持する。
【0022】
具体的には、この場合、CPU13は、いわばスケジュールセンサとして動作し、スケジュール帳4に、例えば当日のスケジュールが記憶されている場合は、図4に示すようにスケジュール「有り」と判断し「1」のデータを保持する。これに対して、スケジュール帳4に、当日のスケジュールが記憶されていない場合は、スケジュール「無し」と判断し「0」のデータを保持する。
【0023】
次に、通話履歴メモリ5には、ユーザが電話した際に、通話日,通話時刻,通話先の電話番号,通話先名等の各データが履歴として記憶される。ステップS5及びステップS6では、CPU13が、この通話履歴メモリ5から通話履歴を取得し、この中から現在時刻から例えば3時間以内等の、所定時間内の通話履歴情報を検出する。そして、この所定時間内の通話履歴情報の有無に応じて、上記1ビットのデータを保持する。
【0024】
具体的には、この場合、CPU13は、いわば通話履歴センサとして動作し、通話履歴メモリ5に、上記所定時間内の通話履歴が存在する場合、図5に示すように通話履歴「有り」と判断し「1」のデータを保持する。これに対して、通話履歴メモリ5に上記所定時間内の通話履歴が存在しない場合、CPU13は、通話履歴「無し」と判断し「0」のデータを保持する。
【0025】
なお、この例では、ユーザが電話した際に記憶される、通話日,通話時刻,通話先の電話番号,通話先名等の通話履歴を用いることとしたが、これは、ユーザが電話を受けた際に記憶される、着信日,着信時刻,送信先の電話番号,送信者名等の着信履歴を用いてもよい。或いは、上記通話履歴及び着信履歴を併用するようにしてもよい。
【0026】
次に、光センサ2は、当該携帯電話機が置かれている場所の照度(明るさ)を検出している。ステップS7及びステップS8では、CPU13が、この光センサ2により検出された照度情報を取得し、この照度情報に応じた上記1ビットのデータを保持する。
【0027】
具体的には、CPU13は、図6に示すように、照度が例えば0.0〜0.4までの間を「暗い」と判断し、現在の照度がこの範囲に相当する場合は「1」のデータを保持する。これに対して、CPU13は、照度が例えば0.4〜1.0までの間を「明るい」と判断し、現在の照度がこの範囲に相当する場合は「0」のデータを保持する。
【0028】
なお、この例では、「暗い」或いは「明るい」との2通りの判断を行うようにしているが、これは、「暗い」,「薄暗い」,「やや明るい」,「明るい」等の複数の段階に分けた判断を行うようにしてもよい。これは、CPU13が、この明るさの判断で保持するビット数を2ビットにし、「暗い」=「00」,「薄暗い」=「01」,「やや明るい」=「10」,「明るい」=「11」とすれば実現可能である。
【0029】
次に、音センサ3は、当該携帯電話機が置かれている場所の周囲の音の大きさ(音圧レベル)を検出している。ステップS9では、CPU13が、この音センサ3により検出された音圧レベルを示す情報(音圧情報)を取得し、この音圧情報に対応する1ビットのデータを保持する。
【0030】
具体的には、CPU13は、図7に示すように、音圧レベルが例えば40dB未満の場合、周囲は「静か」であると判断し、現在の音圧レベルがこの40dB未満の場合に「1」のデータを保持する。これに対して、CPU13は、音圧レベルが例えば40dB以上の場合、周囲は「騒がしい」と判断し、現在の音圧レベルがこの40dB以上の場合に「0」のデータを保持する。
【0031】
なお、この例では「静か」或いは「騒がしい」との2通りの判断を行うようにしているが、これは、「静か」,「普通」,「やや騒がしい」,「騒がしい」等の複数の段階に分けた判断を行うようにしてもよい。これは、上記照度の場合と同様に、CPU13が、この音圧情報に基づいて保持するデータのビット数を2ビットにすれば実現可能である。
【0032】
次に、ステップS10において、CPU13は、上記ステップS2,ステップS4,ステップS6,ステップS8及びステップS9で保持した上記各1ビットのデータの組み合わせである「現在データパターン」と、上記制御パターンテーブル6に記憶されている各制御パターンの「データパターン」とを比較する。そして、ステップS11において、動作パターンテーブル6に記憶されている各「データパターン」の中から、上記「現在データパターン」と一致する「データパターン」を検出することで、「現在データパターン」に対応する「制御パターン」を検出する。
【0033】
次に、CPU13は、ステップS12において、上記検出した制御パターンに基づいて、当該携帯電話機の各部を制御する。これにより、この図2のフローチャートに示す一通りの制御行程が終了する。
【0034】
なお、この図2のフローチャートに示す制御行程は、携帯電話機のメイン電源がオンされている間は繰り返し実行される。
【0035】
[制御の具体例]
一例として、図8に、各制御パターンと各部の制御例の関係を示す。
【0036】
[第1の制御パターン]
この図8において、上記「現在データパターン」が「11011」となった場合、CPU13により、制御パターンテーブル6から第1の制御パターンが選択される。
【0037】
この第1の制御パターンは、現在、昼間(1)であり、当日のスケジュールが存在し(1)、3時間内の通話履歴が無く(0)、携帯電話機の周囲は暗く(1)、携帯電話機の周囲は静か(1)な場合である。
【0038】
このような場合は、朝であり、ユーザは、スケジュールが入っているにも関わらず就寝中であり、また、毎朝かけている電話も未だ使用していない状態である。換言すれば、ユーザが朝寝坊をしている状態である。
【0039】
このため、CPU13は、「着信音→オン」、「音量→最大レベル」に音声制御部8を設定制御すると共に、キャラクタ音声メモリ10から例えば「起きろー」との起床用のキャラクタ音声情報を読み出し制御する。このキャラクタ音声情報は、音声制御部8に供給される。
【0040】
また、CPU13は、叫ぶ動作を行うキャラクタを描画処理するように、キャラクタ描画部11を制御すると共に、バイブレーション機能を駆動制御する。
【0041】
これにより、携帯電話機の表示部12には、叫ぶ動作を行うキャラクタが表示され、また、スピーカ部9を介して、キャラクタの声で「起きろー」との音声が発声制御され、さらに携帯電話機が振動駆動する。
【0042】
なお、この場合CPU13は、ユーザにより停止操作がなされるまで、上記音声の発声制御及びバイブレーション機能の駆動制御を継続して実行する。
【0043】
これにより、この場合、携帯電話機が目覚まし時計として機能することとなる。ユーザは、表示部12に表示される「起きろー」と叫ぶキャラクタを見ることで、自分がキャラクタにより起こされたことを認識するであろう。また、当日のスケジュールを思い出し、予定通りスケジュールを履行するであろう。これにより、このように起床させてくれたキャラクタに対して親密感等の感情を憶えることであろう。
【0044】
[第2の制御パターン]
次に、上記「現在データパターン」が「10011」となった場合、CPU13により、制御パターンテーブル6から第2の制御パターンが選択される。
【0045】
この第2の制御パターンは、現在、昼間(1)であり、当日のスケジュールが無く(0)、3時間内の通話履歴が無く(0)、携帯電話機の周囲は暗く(1)、携帯電話機の周囲は静か(1)な場合である。
【0046】
このような場合は、朝であり、ユーザは、未だ就寝中であり、また、毎朝かけている電話も未だ使用していない状態である。換言すれば、ユーザは、スケジュールが無いため、のんびりと寝ている状態である。
【0047】
このため、CPU13は、普段設定されている音量を変更することなく着信音をオンするように音声制御部8を設定制御すると共に、キャラクタ音声メモリ10から例えば「そろそろ起きたら?」との起床用のキャラクタ音声情報を読み出し制御する。
【0048】
また、CPU13は、やさしく訪ねる動作を行うキャラクタを描画処理するように、キャラクタ描画部11を制御すると共に、バイブレーション機能をオフ制御する。
【0049】
これにより、携帯電話機の表示部12には、やさしく訪ねる動作を行うキャラクタが表示され、また、スピーカ部9を介して、キャラクタの声で「そろそろ起きたら?」との音声が発声制御される。
【0050】
なお、この場合CPU13は、ユーザにより停止操作がなされるまで、上記音声の発声制御を継続して実行する。
【0051】
これにより、この場合、第1の制御パターンと同様に、携帯電話機が目覚まし時計として機能することとなるが、いわば携帯電話機が目覚まし時計代わりとなってユーザを優しく起こすこととなる。
【0052】
このように、スケジュールの有無により、上記第1の制御パターンと第2の制御パターンとで、ユーザの起こし方に違いが出る。複数のセンサ出力に基づいて各部の動作制御を行うことで、このように状況に応じた制御を行うことが可能となる。
【0053】
[第3の制御パターン]
次に、上記「現在データパターン」が「10101」となった場合、CPU13により、制御パターンテーブル6から第3の制御パターンが選択される。
【0054】
この第3の制御パターンは、現在、昼間(1)であり、当日のスケジュールが無く(0)、3時間内の通話履歴が有り(1)、携帯電話機の周囲は明るく(0)、携帯電話機の周囲は静か(1)な場合である。
【0055】
このような場合は、朝であり、通話履歴があることからユーザは起床しており、また、周囲は静かな状態である。換言すれば、ユーザは、起きてはいるが何をしているがわからない状態である。
【0056】
このため、CPU13は、「着信音→オン」、「音量→最小レベル」に音声制御部8を設定制御すると共に、ユーザの気を引くために、例えば2秒間だけ着信音を鳴らすように音声制御部8を制御する。
【0057】
また、CPU13は、キャラクタ音声メモリ10から例えば「ねえねえ、何しているの?」とのキャラクタ音声情報を読み出し制御する。
【0058】
また、CPU13は、このような訪ねる動作を行うキャラクタを描画処理するように、キャラクタ描画部11を制御すると共に、バイブレーション機能をオフ制御する。
【0059】
これにより、携帯電話機の着信音が2秒だけ鳴った後、表示部12には、訪ねる動作を行うキャラクタが表示され、また、スピーカ部9を介して、キャラクタの声で「ねえねえ、何しているの?」との音声が発声制御される。
【0060】
これにより、ユーザは、携帯電話機の着信音が鳴ったため、携帯電話機を見てみると、表示部12に表示されているキャラクタから「ねえねえ、何しているの?」と訪ねられることとなる。このため、このようなキャラクタに対してユーザは、より親密感を抱くことであろう。
【0061】
[第4の制御パターン]
次に、上記「現在データパターン」が「10100」となった場合、CPU13により、制御パターンテーブル6から第4の制御パターンが選択される。
【0062】
この第4の制御パターンは、現在、昼間(1)であり、当日のスケジュールが無く(0)、3時間内の通話履歴が有り(1)、携帯電話機の周囲は明るく(0)、携帯電話機の周囲が騒がしい(0)場合である。
【0063】
このような場合は、朝であり、通話履歴があることからユーザは起床しており、また、周囲が騒がしい状態であるため、ユーザは、街中や電車の中等の騒がしい場所におり、或いはテレビジョン放送の視聴、音楽の聴取を行っている状態である。この場合、いずれにしても、ユーザは、現在、キャラクタに構うことができない状態である。
【0064】
このため、CPU13は、着信音をオフするように音声制御部8を設定制御すると共に、このような状況用の所定の動作を行うキャラクタを描画処理するように、キャラクタ描画部11を制御する。また、バイブレーション機能もオフ制御する。
【0065】
これは、いわゆる「マナーモード」と同じ状態である。このため、不意な着信音により、街中や電車内の人々に迷惑を掛ける不都合を防止することができる。或いは、テレビジョン放送や音楽に集中しているユーザの邪魔をしてしまう不都合を防止することができる。
【0066】
なお、説明が長くなるため、制御パターンの説明は以上の4パターンの説明に止めるが、この他の制御パターンにおいても、各センサ出力に応じて判断される現状に即した制御がなされるものと理解されたい。
【0067】
[第1の実施の形態の効果]
以上の説明から明かなように、この第1の実施の形態の携帯電話機は、タイマ1,光センサ2,音センサ3からの各センサ出力、スケジュール帳4に登録されたスケジュール、及び通話履歴メモリ5に記憶された通話履歴に基づいて携帯電話機が置かれている現状を判断し、この判断結果に即した動作を行うように該携帯電話機の各部を制御する。
【0068】
これにより、ユーザの入力を待って各部を制御するような受動的な制御ではなく、自発的に現状を判断して携帯電話機(キャラクタ等を含む)を動作させるような能動的な制御を行うことができる。
【0069】
〔第2の実施の形態〕
[第2の実施の形態の構成]
次に、図9に、本発明を適用した第2の実施の形態となる端末装置のブロック図を示す。なお、この図9に示す端末装置も、上述の第1の実施の形態と同様に携帯電話機であり、主となる構成のみ図示してある。
【0070】
この図9において、携帯電話機は、圧力センサ及び位置センサが内蔵されたタッチパッド20と、CPU13と、表示部12と、表示部12に表示されたキャラクタの各部位の位置情報を記憶するキャラクタデータ保持部27と、例えば通信系等の携帯電話機の他の構成要素28とを有している。
【0071】
上記タッチパッド20は、透明電極がマトリクス状に配された透明の板状部材で形成されており、表示部12の表面全体(或いは表面の一部でもよい)を覆うかたちで設けられている。このため、ユーザがこのタッチパッド20を操作する場合は、表示部12の表面を指(或いは入力ペン)で走査するかたちで操作することとなる。
【0072】
CPU13は、上述の第1の実施の形態のCPU13に相当する。この第2の実施の形態の携帯電話機の場合、CPU13は、上記タッチパッド20の位置センサからの位置情報を、表示部12の表示画面のXY座標データに変換する入力情報変換部21と、タッチパッド20の圧力センサからの検出出力に基づいて、ユーザの押圧力の有無を検出する圧力検出部22とを有している。
【0073】
また、CPU13は、上記入力情報変換部21からのXY座標データに基づいて、ユーザの指の動く方向(タッチパッド20の操作方向)を解析する入力情報解析部23と、該入力情報解析部23からの解析出力に基づいてユーザの指の動きを判定するユーザ入力動作判定部24とを有している。
【0074】
また、CPU13は、上記ユーザ入力動作判定部24からの判定出力と上記圧力検出部22からの圧力検出出力に基づいて、表示部12に表示するキャラクタの動作パターンを選択するキャラクタ動作選択部25と、上記キャラクタデータ保存部27に保存されているキャラクタの各部位の位置情報を参照して、上記キャラクタ動作選択部25で選択された動作を示すキャラクタ画像をキャラクタ描画部11で描画処理するための、描画処理データを形成するキャラクタデータ処理部26とを有している。
【0075】
[第2の実施の形態の動作]
[圧力が検出されない場合]
まず、上記CPU13の圧力検出部22は、所定の閾値以上の押圧力を示す圧力検出出力がタッチパッド20の圧力センサから供給された場合に、ユーザがタッチパッド20を押圧したものと検出するようになっている。このため、上記圧力検出出力が、上記所定の閾値以下の押圧力を示す場合、CPU13は、ユーザがタッチパッド20を押圧していないものとして、以下に説明するユーザの指の動きのみでキャラクタの表示制御を行う。
【0076】
まず、ユーザがタッチパッド20上を指で走査すると、位置センサがこの走査に対応する指の位置情報をそれぞれ形成し、これらを入力情報変換部21に供給する。入力情報変換部21は、各位置情報を所定間隔でサンプリングすることで取り込み、この取り込んだ各位置情報を、表示部12の表示画面上のXY座標データに変換する。
【0077】
図10に、タッチパッド20を指で走査した際の軌跡と、この軌跡に対応する位置情報をサンプリングしてXY座標変換処理することで形成されたXY座標データと、入力情報変換部21から入力情報解析部23に供給されるXY座標データを示す。
【0078】
この図10は、タッチパッド20の上下方向に略ジグザグ状に指を動かした場合の例である。そして、このような走査に対して、(X,Y)=(30,50)→(X,Y)=(30,40)→(X,Y)=(30,30)→(X,Y)=(30,20)・・・・のXY座標データが順次形成され、このXY座標データの前後を一組とした状態で、「(30,50),(30,40)」→「(30,40),(30,30)」→「(30,30),(30,20)」・・・・等のように入力情報解析部23に供給されることを示している。
【0079】
なお、上記(X,Y)=(30,50)等の表記は、X座標が表示部12の横方向30ドットの位置、Y座標が表示部12の縦方向50ドットの位置であることを意味している。
【0080】
次に、入力情報解析部23は、上記前後を一組とした状態で供給されるXY座標データに基づいて、ユーザが指を動かした方向と距離を解析する。具体的には、入力情報解析部23は、上記一組のXY座標データを「(X1,Y1),(X2,Y2)」とした場合に、「X2−X1」及び「Y2−Y1」の演算を行い、この演算により得られたX座標の数値、及びY座標の数値に基づいてユーザが指を動かした方向と距離を解析する。
【0081】
図11に、この解析動作の一例を示す。この図11において、例えば上記前後を一組とした状態で供給されたXY座標データが「(50,40),(50,60)」であったとすると、入力情報解析部23は、「50−50」及び「60−40」の演算を行うこととなる。なお、上記「50−50」の演算は上記「X2−X1」の演算に相当し、「60−40」の演算は上記「Y2−Y1」の演算に相当する。この例の場合、「X2−X1」の演算値は「0」となり、「Y2−Y1」の演算値は「+20」となる。
【0082】
次に、ユーザ入力動作判定部24は、上記入力情報解析部23からの解析結果(=上記演算値)に基づいて、ユーザが指を移動させた方向と距離を検出する。
【0083】
具体的には、ユーザ入力動作判定部24は、上記「X2−X1」の演算値の符号が「+」の場合は表示部12の右方向への移動、該演算値の符号が「−」の場合は表示部12の左方向への移動として検出するようになっており、また、「Y2−Y1」の演算値の符号が「+」の場合は表示部12の上方向への移動、該演算値の符号が「−」の場合は表示部12の下方向への移動として検出するようになっている。
【0084】
前述の演算値の場合、上記「X2−X1」の演算値が「0」、「Y2−Y1」の演算値が「+20」である。これは、X方向である表示部12の横方向に対する移動は無いが、Y方向である表示部12の縦方向に対しては+20ドット分の移動が発生したことを示す。このため、この場合、ユーザ入力動作判定部24は、ユーザは表示部12の上方向に20ドット分、指が移動されたものとしてユーザの入力動作を判定する。このような判定出力は、キャラクタ動作選択部25に供給される。
【0085】
さらに、他の例で説明すると、例えば上記前後を一組とした状態で供給されたXY座標データが「(30,30),(40,50)」であったとすると、「X2−X1」の演算値は「+10」となり、「Y2−Y1」の演算値は「+20」となる。これは、表示部12の横方向に対して+10ドット分、該表示部12の縦方向に対して+20ドット分の移動があったことを示す。このため、この場合、ユーザ入力動作判定部24は、ユーザは表示部12の右斜め上方向に略20ドット分、指を動かしたものと判定する。
【0086】
次に、キャラクタ動作選択部25は、キャラクタデータ保存部27に記憶されている移動表示前のキャラクタデータ、及び上記ユーザ入力動作判定部24からの判定出力に基づいてキャラクタの動作を選択(決定)する。
【0087】
図12に、表示部12に表示された人型のキャラクタの模式図を示す。この場合、表示部12は、縦(Y方向)×横(X方向)のドット数が100ドット×80ドットと仮定している。
【0088】
キャラクタデータ保存部27には、移動表示前のキャラクタの頭部,胴体,右手,左手等の各部位毎のXY座標データがキャラクタデータとして記憶されている。
【0089】
具体的には、この例の場合、図13に示すようにキャラクタデータとして、キャラクタの頭部の幅に相当する線分の両端のXY座標データ「(30,80),(50,80)」、胴体の長さに相当する線分の両端のXY座標データ「(40,60),(40,40)」、右手の長さに相当する線分のXY座標データ「(40,60),(20,80)」、左手の長さに相当する線分のXY座標データ「(40,60),(60,40)」等がキャラクタデータ保存部27に記憶されている。
【0090】
ここで、図11を用いて説明した「(50,40),(60,40)」のユーザの指の動きをキャラクタの画像と重ねると、図12に示すようにキャラクタの左手に相当する線分に対して、ユーザの指の動きに相当する線分が交差していることがわかる。
【0091】
また、この「(50,40),(60,40)」というXY座標データは、前述のように隣接するサンプルである。すなわち、(50,40)というサンプルが得られた直後に(60,40)というサンプルが得られたことを意味する。このサンプルは、例えば数kHzのサンプリング周波数を用いて得られるのであるが、このような高周波であるにも関わらず、(50,40)→(60,40)という各XY座標データが短時間に連続して得られたということは、ユーザの指が表示画面の上方向に弾く(はじく)ように動かされたことを意味する。
【0092】
このようなユーザの指の動き及び位置を、図12に示すキャラクタ画像と重ねて考えると、キャラクタの左手が、ユーザの指により上方向に弾かれたことがわかる。
【0093】
キャラクタ動作選択部25は、動作パターンを示す情報が複数記憶された動作パターンテーブルを有している。キャラクタ動作選択部25は、このように移動表示前のキャラクタ画像と、ユーザの指の動き及び位置に基づいて、上記動作パターンテーブルの中から、対応する動作パターンを選択し、この選択した動作パターン示す情報をキャラクタデータ処理部26に供給する。
【0094】
前述の例の場合、キャラクタの左手がユーザの指により上方向に弾かれたため、キャラクタ動作選択部25は、キャラクタの左手を上に上げる動作パターンを選択し、この動作パターン示す情報をキャラクタデータ処理部26に供給する。
【0095】
次に、キャラクタデータ処理部26は、キャラクタ動作選択部25からの動作パターンを示す情報に対応する動作を行うキャラクタを描画処理するための描画処理データを形成し、これをキャラクタ描画部11を制御する。
【0096】
キャラクタ描画部11は、この描画処理データに基づいて、表示部12に表示されるキャラクタを描画処理する。
【0097】
前述の例の場合、キャラクタデータ処理部26は、左手を上に上げる動作を行うキャラクタを描画するための描画処理データを形成し、これをキャラクタ描画部11に供給する。これにより、キャラクタ描画部11は、図12に点線で示すように、左手を上に上げる動作を行うキャラクタを表示制御することとなる。
【0098】
[圧力が検出された場合]
次に、CPU13の圧力検出部22で圧力が検出された場合の描画処理動作を説明する。
【0099】
前述のように、圧力検出部22は、所定の閾値以上の押圧レベルを示す圧力検出出力がタッチパッド20の圧力センサから供給された場合に、ユーザがタッチパッド20を押圧したものと検出するようになっている。そして、キャラクタ動作選択部25は、圧力検出部22で押圧力が検出された場合は、この圧力レベル及び圧力が掛けられた表示部12上の位置と、上記ユーザ入力動作判定部24からの判定出力に基づいて、上記動作パターンの選択を行う。
【0100】
具体的には、ユーザが、例えばキャラクタの口を押さえようとして、該キャラクタの口を指で押圧した場合、図12に円で囲んで示すキャラクタの口の辺りの位置からそれぞれ「圧力有り」と検出されることとなる。圧力検出部22は、この検出された範囲に対応する各圧力検出出力のうち、該範囲の中心座標「(40,72)」の圧力検出出力を取り込み、これをキャラクタ動作選択部25に供給する。
【0101】
この例の場合、ユーザは、キャラクタの口を指で押圧しているため、上記入力情報解析部23には、(40,72)のXY座標データが連続して供給されることとなる。このため、ユーザ入力動作判定部24は、ユーザの指は表示部12上の(40,72)のXY座標位置で停止しているものと判定し、この判定出力をキャラクタ動作選択部25に供給する。
【0102】
キャラクタ動作選択部25は、キャラクタデータ保存部27に保存されているキャラクタの各部位のXY座標データに基づいて、ユーザの指が停止している位置を検出する。
【0103】
この場合、ユーザの指が停止しているXY座標は(40,72)であるため、キャラクタ動作選択部25は、キャラクタの口の位置でユーザの指が停止しているものと判断する。
【0104】
また、この場合、キャラクタ動作選択部25には、キャラクタの口の位置から押圧が検出されたことを示す圧力検出出力が供給される。
【0105】
キャラクタ動作選択部25は、キャラクタの口の位置にユーザの指が停止しており、しかも、キャラクタの口がユーザの指で押圧されているため、例えばキャラクタが口を閉じる動作パターンを選択し、この動作パターン示す情報をキャラクタデータ処理部26に供給する。
【0106】
キャラクタデータ処理部26は、キャラクタ動作選択部25からの動作パターンを示す情報に対応する動作を行うキャラクタを描画処理するための描画処理データを形成し、これをキャラクタ描画部11を制御する。
【0107】
これにより、キャラクタ描画部11により、口を閉じる動作を行うキャラクタが描画処理され、これが表示部12に表示される。
【0108】
[第2の実施の形態の効果]
以上の説明から明かなように、この第2の実施の形態の携帯電話機は、位置センサ及び圧力センサが設けられたタッチパッド20により、表示部12上におけるユーザの指の動きを検出し、このユーザの指の動きと、現在表示されているキャラクタの表示位置に基づいて、該キャラクタの動きを決定してキャラクタの表示制御を行う。
【0109】
また、上記圧力センサにより、表示部12上でユーザが指で圧力を掛けた位置を検出し、この圧力が掛けられた位置と、現在表示されているキャラクタの表示位置に基づいて、該キャラクタの動きを決定してキャラクタの表示制御を行う。
【0110】
このように、タッチパッド20を設けることで、ユーザの指の走査に対応する複雑かつ多数の入力を可能とすることができるため、表示制御するキャラクタも、これに対応して複雑かつ多数の動作を行うように表示制御することができる。
【0111】
また、仮想世界のキャラクタのリアクションを、実世界のアクションに即したリアクションとすることができる。
【0112】
また、タッチパッド20は、表示部12の表面に設けられており、該表示部12に表示されるキャラクタを該タッチパッド20越しに見ながら操作することができる。そして、このタッチパッド20上の指の走査は、表示部12に表示されているキャラクタの動作に反映される。
【0113】
このため、ユーザは、表示部12に表示されるキャラクタを、直接的に指で触って操作する感覚を提供することができる。このため、ユーザは、表示部12に表示されているキャラクタの頭を撫でたり、くすぐる等のように、あたかもペットのように取り扱うことができる。従って、表示部12に表示されているキャラクタを、より親密感の増すキャラクタとすることができる。
【0114】
なお、この例では、タッチパッド20を設けることで複雑な入力を可能としたが、このタッチパッド20の代わりに、トラックボールやジョイスティック等の入力手段を設けてもよい。
【0115】
このトラックボールやジョイスティックは、その性格上、表示部12以外の箇所に設けられるが、上記タッチパッド20と同様に、複雑な入力を可能とすることができるため、該タッチパッド20を設けた場合と同様に上述と同様の効果を得ることができる。
【0116】
また、タッチパッド20の圧力センサにより押圧の有無を検出することとしたが、これは押圧の圧力レベルを検出し、この圧力レベルに応じてキャラクタの動作パターンを決定するようにしてもよい。この場合、圧力レベルに応じてキャラクタの動作パターンを決定することができるため、押圧の有無に応じてキャラクタの動作パターンを決定するよりも、ユーザの指の動作を詳細に解析してキャラクタの動作パターンを決定することができる。
【0117】
〔第1の実施の形態及び第2の実施の形態の複合動作〕
以上、理解容易とするために、本発明を適用した携帯電話機を第1の実施の形態及び第2の実施の形態に分けて説明したが、各実施の形態の携帯電話機を複合化してもよい。この場合の動作を、上述の第1の実施の形態における第1の制御パターン(現在データパターン=11011)を例にとって、当該携帯電話機の利用形態に即したかたちで説明する。
【0118】
まず、携帯電話機のCPU13は、タイマ1から時刻情報を取得する。例えば、この時刻情報が平日の午前8時15分を示していたとする。
【0119】
次にCPU13は、スケジュール帳4から当日のスケジュールを参照して、この午前8時15分近辺の時刻にスケジュールが入っているか否かを判別する。このスケジュールとして、例えば午前9時に友人Aと駅前の喫茶店で待ち合わせるスケジュールが入っていたとする。
【0120】
次にCPU13は、通話履歴メモリ5を参照して、この午前8時15分近辺の時間帯で、日常的に通話を行う相手がいるか否かを確認する。例えば、ユーザが、午前8時00分〜午前8時10分の時間帯に5分程度、友人Bに日常的に電話を掛けることが検出されたとする。
【0121】
次にCPU13は、光センサ2からの検出出力に基づいて、携帯電話機周辺の明るさを検出する。この検出において、朝であるにも関わらず、携帯電話機周辺が暗いことが検出されたとする。
【0122】
次にCPU13は、音センサ3からの検出出力に基づいて、携帯電話機周辺の雑音レベルを検出する。この検出において、携帯電話機周辺に殆ど音がしないことが検出されたとする。
【0123】
次にCPU13は、上記各検出結果に基づいて、携帯電話機が置かれている現状を判断する。
【0124】
すなわち、この例の場合、現在、平日の朝8時過ぎである。また、本日は友人Aとの待ち合わせがあり、この待ち合わせ時刻まで1時間足らずとなっている。これにも関わらず、携帯電話機の周囲は暗くて静かである。ユーザは、日常的に行っている友人Bへの電話も掛けていない。これは、ユーザが朝寝坊をしている可能性が高いことを示す。そして、このままでは、友人Aとの待ち合わせ遅刻してしまう。
【0125】
このため、CPU13は、携帯電話機の着信音を鳴らし、同時にバイブレーションを駆動する。また、CPU13は、表示部12に、「起きろー」と叫んでいるキャラクタの画像を表示制御する。
【0126】
これにより、ユーザは、携帯電話機のキャラクタに起こされて、予定どおりスケジュールを履行することが可能となる。
【0127】
これに対して、ユーザは既に起床しており、自宅で静かに本日の行動の整理をしている最中であったとすると、このような携帯電話機の動作は、ユーザにとって迷惑である。
【0128】
このため、ユーザは、携帯電話機のこのような動作を停止させるために、携帯電話機を手にとり、「起きろー」と叫んでいるキャラクタの口を指で塞ぐ。
【0129】
このようなユーザの行動は、上記タッチパッド20の圧力センサにより検出され、CPUは、着信音及びバイブレーション機能7をオフ制御すると共に、前述のようにキャラクタが口を閉じる画像を表示部12に表示制御する。
【0130】
なお、この場合、キャラクタがお辞儀をして誤っている画像や、キャラクタが「起きてた?」と訪ねる画像、或いはキャラクタが「おはよー。もうすぐAさんとの待ち合わせ時刻だよ」と教示する画像を表示してもよい。
【0131】
この例からわかるように、表示部12に表示されているキャラクタは、いわばマネージャーとなってユーザを見守ってくれている。そして、このようなマネージャー的及びフレンドリーなキャラクタを提供する当該各実施の形態の携帯電話機は、非常に利便性の高い機器であるといえよう。
【0132】
以上、本発明を実施の形態に即したかたちで説明したが、これら各実施の形態は本発明の一例であることを理解されたい。このため、上述の実施の形態の説明では、本発明を携帯電話機に適用することとしたが、これは、PHS電話機(PHS:Personal Handyphone System),通信機能を有するPDA装置(PDA:Personal Digital Assistants)、或いは通信機能を備えたパーソナルコンピュータ装置等の他の端末装置に適用してもよい。この場合でも、上述と同様の効果を得ることができる。
【0133】
また、上述の各センサ2,3等の他、温度センサ等の他のセンサを用いるようにしてもよい。
【0134】
そして、これら以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論であることを付け加えておく。
【0135】
【発明の効果】
本発明は、実世界のアクションに対応するリアクションとなるように、複雑かつ多数の動作パターンで表示部に表示されたキャラクタを表示制御することができる。
【0136】
また、本発明は、表示部に表示されたキャラクタを能動的に動作させることができる。
【図面の簡単な説明】
【図1】本発明を適用した第1の実施の形態の携帯電話機の主要構成を示すブロック図である。
【図2】上記第1の実施の形態の携帯電話機の制御の流れを示すフローチャートである。
【図3】上記第1の実施の形態の携帯電話機に設けられたタイマからの時刻情報に基づいて行われる昼夜の判断動作を説明するための図である。
【図4】上記第1の実施の形態の携帯電話機に設けられたスケジュール帳に登録されているスケジュールの有無の判断動作を説明するための図である。
【図5】上記第1の実施の形態の携帯電話機に設けられた通話履歴メモリに記憶された通話履歴の有無の判断動作を説明するための図である。
【図6】上記第1の実施の形態の携帯電話機に設けられた光センサからの検出出力に基づいて行われる、該携帯電話機の周囲の明るさの判断動作を説明するための図である。
【図7】上記第1の実施の形態の携帯電話機に設けられた音センサからの検出出力に基づいて行われる、該携帯電話機の周囲の音の判断動作を説明するための図である。
【図8】上記第1の実施の形態の携帯電話機における、上記各検出結果に基づいて行われる制御の制御パターンを説明するための図である。
【図9】本発明を適用した第2の実施の形態の携帯電話機の主要構成を示すブロック図である。
【図10】上記第2の実施の形態の携帯電話機に設けられているタッチパッドに対する入力例と、この入力に基づいて検出されるXY座標データの例を示す図である。
【図11】上記検出されたXY座標データに基づいて行われる、上記第2の実施の形態の携帯電話機のユーザの指の移動方向及び移動距離の検出動作を説明するための図である。
【図12】上記第2の実施の形態の携帯電話機の表示部に表示されたキャラクタの表示制御動作を説明するための図である。
【図13】上記第2の実施の形態の携帯電話機の表示部に表示されたキャラクタの各部位のXY座標データの一例を示す図である。
【符号の説明】
1…タイマ、2…光センサ、3…音センサ、4…スケジュール帳、5…通話履歴メモリ、6…制御パターンテーブル、7…バイブレーション機能、8…音声制御部、9…スピーカ部、10…キャラクタ音声メモリ、11…キャラクタ描画部、12…表示部、13…制御部(CPU)、20…タッチパッド(位置センサ,圧力センサ)、21…入力情報変換部、22…圧力検出部、23…入力情報解析部、24…ユーザ入力動作判定部、25…キャラクタ動作選択部、26…キャラクタデータ処理部、27…キャラクタデータ保存部、28…その他の携帯電話機の構成要素
[0001]
BACKGROUND OF THE INVENTION
The present invention is suitable for use in a terminal device such as a mobile phone, a PHS phone (PHS: Personal Handyphone System), a PDA device having a communication function (PDA: Personal Digital Assistants), or a personal computer device having a communication function. The present invention relates to an information processing apparatus, and more particularly to an information processing apparatus that determines the current state based on a sensor and controls operation of a terminal device.
[0002]
[Prior art]
2. Description of the Related Art Nowadays, an application program (interaction program) that displays a predetermined character on a display screen of a terminal device such as a mobile phone or a personal computer device and displays the character in response to a user's key operation is known.
[0003]
For example, when the “1” key of a numeric keypad provided on a cellular phone is pressed, the interaction program performs display control of the character so that the character in the display screen raises the right hand. When the key is pressed, display control of the character is performed so that the character in the display screen raises the right foot.
[0004]
Thus, the user can interactively operate the characters displayed on the standby screen of the mobile phone or the desktop of the personal computer device via a desired key operation.
[0005]
In many cases, the standby screen or desktop of a mobile phone simply displays an image of a character or the like, but by enabling the operation of the character displayed in this way, the standby image is interesting and enjoyable. And desktop images.
[0006]
[Problems to be solved by the invention]
However, in the conventional interaction program, “character motion” is assigned to “operation keys”. For this reason, there is a limit to the number of operation keys provided on a terminal device such as a mobile phone or a personal computer device, so that there is a problem that the motion pattern of characters is small and simplified.
[0007]
The operation of “pressing” the operation key is an operation of “pressing” in the real world. The user sensuously expects the action of the character to “push” and to move backward when the character is pushed by the finger.
[0008]
However, the operation key provided on the terminal device has only an operation method of “press”, and the character performs a plurality of patterns of movement for one operation of “press”. There is a problem that there is a reaction that is far from the real world action as the reaction of the character in the world.
[0009]
Further, since the conventional interaction program controls the display of the character after waiting for the user's key operation, there is a problem that only the passive display control can be performed.
[0010]
The present invention has been made in view of the above-described problems, and can display and control a character with a large number of complicated motion patterns so that a reaction corresponding to an action in the real world can be performed. An object of the present invention is to provide an information processing apparatus that can be operated automatically.
[0011]
[Means for Solving the Problems]
  An information processing apparatus according to the present invention includes:In order to solve the above problems,
  A character image display unit for displaying a character image of a predetermined character on the display unit;
  A two-dimensional input unit that includes a pressure sensor, is provided so that the character image displayed on the display unit can be viewed, and detects an operation position, an operation distance, and a pressing force by a user's contact operation;
  At least a timer for measuring time, a light sensor for detecting light, and a sound sensor for detecting sound, and based on outputs from the timer and each sensor, a device to which the information processing apparatus is applied comprehensively A current state determination unit for determining the current state;
  The character image display unit is controlled to display the character image that performs an operation corresponding to the current state of the device determined by the current state determination unit, and the user's contact operation is detected by the two-dimensional input unit. Corresponds to the operation position and operation distance by this contact operation.AndIn addition, the character image display unit is controlled so as to display the character image that performs an action that becomes a reaction in the real world, or corresponds to the pressing force by the contact operation and performs an action that becomes a reaction in the real world. A control unit for controlling the character image display unit to display the character image;
  Have
[0012]
  In the present invention, the current state determination unit includes at least a timer for measuring time, a light sensor for sensing light, and a sound sensor for sensing sound, and based on the outputs from the timer and each sensor, The current status of the device to which the information processing apparatus is applied is determined. The control unit controls the character image display unit to display a character image that performs an operation corresponding to the current state of the device determined by the current state determination unit. Thereby, the character displayed on the display unit can be actively operated. In addition, when the contact operation of the user is detected by the two-dimensional input unit, the control unit displays the character image corresponding to the operation position and the operation distance by the contact operation and performing an action that becomes a real world reaction. The character image display unit is controlled to display, or the character image display unit is controlled so as to display the character image corresponding to the pressing force by the contact operation and performing a real world reaction. To do. Thereby, the character displayed on the display unit can be displayed in a complex and numerous motion patterns so as to be a reaction corresponding to an action in the real world.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, as a first embodiment, an example of a terminal device that actively moves characters and the like, and as a second embodiment, a complex and a large number of operation patterns so as to be a reaction corresponding to an action in the real world. An example of a terminal device that controls the display of characters will be described.
[0014]
[First Embodiment]
[Configuration of First Embodiment]
FIG. 1 is a block diagram showing a main configuration of a terminal device according to a first embodiment to which the present invention is applied. The terminal device shown in FIG. 1 is a mobile phone. Since the block diagram is complicated, the communication system and the like are not shown.
[0015]
In FIG. 1, a mobile phone includes a timer 1 (= time sensor) that measures time, an optical sensor 2 that detects the brightness of a place where the mobile phone is placed, and a place where the mobile phone is placed. And a sound sensor 3 for detecting sounds around the sound.
[0016]
In addition, this mobile phone includes a schedule book 4 in which a user's schedule including data such as date, start time, and end time is stored, and each of the call date, call time, call destination telephone number, call destination name, etc. A call history memory 5 in which a call history consisting of data is stored, and a control pattern in which information on a plurality of control patterns for operating the mobile phone based on each information in the timer 1 to call history memory 5 is stored And a table.
[0017]
In addition, the mobile phone has a vibration function 7 for vibrating the mobile phone, a voice control unit 8 for controlling the sound generation of a predetermined voice corresponding to the control pattern via the speaker unit 9, and a plurality of voice patterns of characters. Based on the stored character voice memory 10, based on the control pattern, a character drawing unit 11 for drawing a character to be displayed on the display unit 12, and a control unit 13 (CPU) for controlling the entire mobile phone. ing.
[0018]
[Operation of First Embodiment]
The flowchart in FIG. 2 shows a flow until the mobile phone actively operates a character or the like. The flowchart of FIG. 2 starts when the main power supply of the mobile phone is turned on.
[0019]
First, in step S1 and step S2, the CPU 13 acquires time information from the timer 1, and holds 1-bit data of “1” or “0” according to the time information.
[0020]
Specifically, as shown in FIG. 3, for example, the CPU 13 determines that “daytime” is from 4:00 am to 16:00 pm, and if the current time corresponds to this daytime, “1” is set. Retain data. On the other hand, the CPU 13 determines that “nighttime” is from 16:00 pm to 4:00 pm, and holds “0” data when the current time corresponds to this nighttime.
[0021]
Next, the schedule book 4 stores, for example, each date such as date, start time, and end time of a future schedule. In step S3 and step S4, the CPU 13 acquires schedule information within a predetermined time, for example, on the current day from the schedule book 4, and holds the 1-bit data according to the schedule information.
[0022]
Specifically, in this case, the CPU 13 operates as a schedule sensor, and when the schedule book 4 stores, for example, the schedule for the current day, the CPU 13 determines that the schedule is “present” as shown in FIG. ”Is retained. On the other hand, when the schedule for the current day is not stored in the schedule book 4, it is determined that the schedule is “none” and data “0” is held.
[0023]
Next, when the user calls, the call history memory 5 stores data such as a call date, a call time, a call destination telephone number, and a call destination name as a history. In step S5 and step S6, the CPU 13 acquires a call history from the call history memory 5, and detects call history information within a predetermined time, for example, within 3 hours from the current time. Then, the 1-bit data is held according to the presence / absence of the call history information within the predetermined time.
[0024]
Specifically, in this case, the CPU 13 operates as a call history sensor, and when the call history within the predetermined time exists in the call history memory 5, the call history is determined to be “present” as shown in FIG. The data “1” is held. On the other hand, when the call history within the predetermined time does not exist in the call history memory 5, the CPU 13 determines that the call history is “none” and holds “0” data.
[0025]
In this example, the call history such as the call date, call time, call destination phone number, call destination name, etc. stored when the user calls is used, but this is because the user receives a call. An incoming history such as an incoming date, an incoming time, a destination telephone number, and a sender name may be used. Alternatively, the call history and the incoming call history may be used together.
[0026]
Next, the optical sensor 2 detects the illuminance (brightness) of the place where the mobile phone is placed. In step S7 and step S8, the CPU 13 acquires illuminance information detected by the optical sensor 2, and holds the 1-bit data corresponding to the illuminance information.
[0027]
Specifically, as shown in FIG. 6, the CPU 13 determines that the illuminance is between 0.0 and 0.4, for example, “dark”, and “1” when the current illuminance corresponds to this range. Retain data. In contrast, the CPU 13 determines that the illuminance is, for example, between 0.4 and 1.0 as “bright”, and retains data of “0” when the current illuminance corresponds to this range.
[0028]
In this example, two kinds of judgments “dark” or “bright” are performed, but this may be performed by a plurality of “dark”, “dim”, “slightly bright”, “bright”, etc. You may make it perform the judgment divided into the step. This is because the CPU 13 sets the number of bits held in this brightness determination to 2 bits, and “dark” = “00”, “dim” = “01”, “slightly bright” = “10”, “bright” = If “11” is set, this can be realized.
[0029]
Next, the sound sensor 3 detects the loudness (sound pressure level) around the place where the mobile phone is placed. In step S9, the CPU 13 acquires information (sound pressure information) indicating the sound pressure level detected by the sound sensor 3, and holds 1-bit data corresponding to the sound pressure information.
[0030]
Specifically, as shown in FIG. 7, the CPU 13 determines that the surroundings are “quiet” when the sound pressure level is less than 40 dB, for example, and “1” when the current sound pressure level is less than 40 dB. ”Is retained. On the other hand, when the sound pressure level is 40 dB or more, for example, the CPU 13 determines that the surroundings are “noisy”, and holds “0” data when the current sound pressure level is 40 dB or more.
[0031]
In this example, two types of judgments are made such as “quiet” or “noisy”, but this is performed in multiple stages such as “quiet”, “normal”, “somewhat noisy”, “noisy”, etc. You may make it perform the judgment divided into. As in the case of the above illuminance, this can be realized by setting the number of bits of data held by the CPU 13 based on the sound pressure information to 2 bits.
[0032]
Next, in step S10, the CPU 13 determines that the “current data pattern”, which is a combination of the 1-bit data held in steps S2, S4, S6, S8, and S9, and the control pattern table 6 are used. Is compared with the “data pattern” of each control pattern. In step S11, the “data pattern” that matches the “current data pattern” is detected from the “data patterns” stored in the operation pattern table 6 to correspond to the “current data pattern”. The “control pattern” to be detected is detected.
[0033]
Next, in step S12, the CPU 13 controls each part of the mobile phone based on the detected control pattern. As a result, one control process shown in the flowchart of FIG. 2 is completed.
[0034]
The control process shown in the flowchart of FIG. 2 is repeatedly executed while the main power source of the mobile phone is turned on.
[0035]
[Specific examples of control]
As an example, FIG. 8 shows a relationship between each control pattern and a control example of each unit.
[0036]
[First control pattern]
In FIG. 8, when the “current data pattern” becomes “11011”, the CPU 13 selects the first control pattern from the control pattern table 6.
[0037]
This first control pattern is currently daytime (1), there is a schedule for the day (1), there is no call history within three hours (0), the surrounding of the mobile phone is dark (1), The case around the telephone is quiet (1).
[0038]
In such a case, it is morning, and the user is sleeping while the schedule is on, and the telephone that is being used every morning is not yet used. In other words, the user is oversleeping in the morning.
[0039]
For this reason, the CPU 13 sets and controls the voice control unit 8 to “ring tone → on” and “volume → maximum level”, and reads out the character voice information for waking up from the character voice memory 10, for example, “Wake up”. Control. This character voice information is supplied to the voice control unit 8.
[0040]
Further, the CPU 13 controls the character drawing unit 11 and drives and controls the vibration function so as to draw a character that performs a screaming action.
[0041]
As a result, the character that performs the screaming action is displayed on the display unit 12 of the mobile phone, and the voice of the character “Wake up” is controlled to be uttered through the speaker unit 9, and the mobile phone is Drive vibration.
[0042]
In this case, the CPU 13 continuously executes the voice production control and the vibration function drive control until a stop operation is performed by the user.
[0043]
Thereby, in this case, the mobile phone functions as an alarm clock. The user will recognize that he / she has been awakened by looking at the character screaming “Wake up” displayed on the display unit 12. You will also remember the schedule for the day and will implement the schedule as scheduled. As a result, emotions such as intimacy will be remembered for the character who has woken up in this way.
[0044]
[Second control pattern]
Next, when the “current data pattern” is “10011”, the CPU 13 selects the second control pattern from the control pattern table 6.
[0045]
This second control pattern is currently daytime (1), there is no schedule for the day (0), there is no call history within three hours (0), the surroundings of the mobile phone are dark (1), and the mobile phone The case around is quiet (1).
[0046]
In such a case, it is morning, and the user is still sleeping, and the telephone that is being used every morning is not yet used. In other words, since the user has no schedule, the user is sleeping comfortably.
[0047]
For this reason, the CPU 13 sets and controls the voice control unit 8 so as to turn on the ringtone without changing the normally set volume, and wakes up from the character voice memory 10, for example, “Would you wake up soon?” The character voice information is read out and controlled.
[0048]
In addition, the CPU 13 controls the character drawing unit 11 and controls the vibration function to be turned off so as to draw a character that performs an easy-visiting action.
[0049]
As a result, a character performing a gentle visit operation is displayed on the display unit 12 of the mobile phone, and the voice of the character “Why do you want to get up?” Is controlled through the speaker unit 9.
[0050]
In this case, the CPU 13 continues to execute the sound production control until the user performs a stop operation.
[0051]
Thus, in this case, as in the first control pattern, the mobile phone functions as an alarm clock, but the mobile phone gently acts as an alarm clock and wakes up the user gently.
[0052]
Thus, depending on the presence or absence of the schedule, the way the user wakes up differs between the first control pattern and the second control pattern. By controlling the operation of each unit based on a plurality of sensor outputs, it is possible to perform control according to the situation in this way.
[0053]
[Third control pattern]
Next, when the “current data pattern” is “10101”, the CPU 13 selects the third control pattern from the control pattern table 6.
[0054]
This third control pattern is currently daytime (1), there is no schedule for the day (0), there is a call history within 3 hours (1), the surroundings of the mobile phone are bright (0), and the mobile phone The case around is quiet (1).
[0055]
In such a case, it is morning, the user is getting up because there is a call history, and the surroundings are quiet. In other words, the user is waking up but not knowing what he is doing.
[0056]
Therefore, the CPU 13 sets and controls the voice control unit 8 to “ring tone → on” and “volume → minimum level”, and also performs voice control so as to ring the ring tone only for 2 seconds, for example, to attract the user's attention. The unit 8 is controlled.
[0057]
Further, the CPU 13 reads out and controls character voice information such as “Hey, what are you doing?” From the character voice memory 10, for example.
[0058]
Further, the CPU 13 controls the character drawing unit 11 and controls the vibration function to be turned off so as to draw a character that performs such a visiting action.
[0059]
As a result, after the ringing tone of the mobile phone has been sounded for 2 seconds, the character that performs the visiting action is displayed on the display unit 12. "Is it?"
[0060]
As a result, since the ringtone of the mobile phone has been ringed, the user will be asked “Hey, what are you doing?” From the character displayed on the display unit 12 when looking at the mobile phone. . For this reason, the user will be more intimate with such characters.
[0061]
[Fourth control pattern]
Next, when the “current data pattern” becomes “10100”, the CPU 13 selects the fourth control pattern from the control pattern table 6.
[0062]
This fourth control pattern is currently daytime (1), there is no schedule for the day (0), there is a call history within three hours (1), the surroundings of the mobile phone are bright (0), and the mobile phone This is a case where the surroundings of the house are noisy (0).
[0063]
In such a case, it is morning and the user has woken up because there is a call history, and the surroundings are noisy, so the user is in a noisy place such as in the city or on a train, or television This is a state in which broadcasting and listening to music are being performed. In this case, in any case, the user is currently unable to rest on the character.
[0064]
For this reason, the CPU 13 sets and controls the voice control unit 8 so as to turn off the ringtone, and controls the character drawing unit 11 so as to draw a character that performs a predetermined action for such a situation. The vibration function is also controlled off.
[0065]
This is the same state as the so-called “manner mode”. For this reason, it is possible to prevent inconvenience caused to the people in the city or on the train by the unexpected ringtone. Alternatively, it is possible to prevent inconvenience that disturbs users who concentrate on television broadcasting and music.
[0066]
The explanation of the control pattern will be limited to the explanation of the above four patterns because the explanation will be long, but other control patterns will be controlled according to the current situation determined according to each sensor output. I want you to understand.
[0067]
[Effect of the first embodiment]
As is apparent from the above description, the cellular phone according to the first embodiment includes each sensor output from the timer 1, the optical sensor 2 and the sound sensor 3, the schedule registered in the schedule book 4, and the call history memory. The current state where the mobile phone is placed is determined based on the call history stored in 5, and each part of the mobile phone is controlled so as to perform an operation in accordance with the determination result.
[0068]
Thus, instead of passive control in which each unit is controlled after waiting for the user's input, active control is performed so that the mobile phone (including characters, etc.) is operated by spontaneously judging the current state. Can do.
[0069]
[Second Embodiment]
[Configuration of Second Embodiment]
Next, FIG. 9 shows a block diagram of a terminal device according to a second embodiment to which the present invention is applied. The terminal device shown in FIG. 9 is also a mobile phone as in the first embodiment, and only the main configuration is shown.
[0070]
In FIG. 9, the cellular phone includes character data that stores position information of each part of the character displayed on the touch pad 20, the CPU 13, the display unit 12, and the display unit 12 with a built-in pressure sensor and position sensor. A holding unit 27 and other components 28 of a mobile phone such as a communication system are included.
[0071]
The touch pad 20 is formed of a transparent plate member in which transparent electrodes are arranged in a matrix, and is provided so as to cover the entire surface of the display unit 12 (or may be a part of the surface). For this reason, when the user operates the touch pad 20, the operation is performed by scanning the surface of the display unit 12 with a finger (or an input pen).
[0072]
The CPU 13 corresponds to the CPU 13 in the first embodiment described above. In the case of the mobile phone according to the second embodiment, the CPU 13 includes an input information conversion unit 21 that converts position information from the position sensor of the touch pad 20 into XY coordinate data on the display screen of the display unit 12, and a touch. A pressure detection unit 22 that detects the presence or absence of the pressing force of the user based on the detection output from the pressure sensor of the pad 20 is provided.
[0073]
Further, the CPU 13 analyzes the input direction of the user's finger (the operation direction of the touch pad 20) based on the XY coordinate data from the input information conversion unit 21, and the input information analysis unit 23. And a user input operation determination unit 24 that determines the movement of the user's finger based on the analysis output from.
[0074]
Further, the CPU 13 selects a character motion selection unit 25 that selects a motion pattern of the character displayed on the display unit 12 based on the determination output from the user input motion determination unit 24 and the pressure detection output from the pressure detection unit 22. Referring to the position information of each part of the character stored in the character data storage unit 27, the character drawing unit 11 performs a drawing process on the character image indicating the action selected by the character action selection unit 25. And a character data processing unit 26 for forming drawing processing data.
[0075]
[Operation of Second Embodiment]
[When pressure is not detected]
First, the pressure detection unit 22 of the CPU 13 detects that the user has pressed the touch pad 20 when a pressure detection output indicating a pressing force equal to or greater than a predetermined threshold is supplied from the pressure sensor of the touch pad 20. It has become. For this reason, when the pressure detection output indicates a pressing force equal to or less than the predetermined threshold, the CPU 13 assumes that the user is not pressing the touch pad 20, and only the movement of the user's finger described below is performed. Perform display control.
[0076]
First, when the user scans the touch pad 20 with a finger, the position sensor forms finger position information corresponding to the scanning, and supplies the information to the input information conversion unit 21. The input information conversion unit 21 captures each position information by sampling at a predetermined interval, and converts each captured position information into XY coordinate data on the display screen of the display unit 12.
[0077]
In FIG. 10, a trajectory when the touch pad 20 is scanned with a finger, XY coordinate data formed by sampling position information corresponding to the trajectory and performing XY coordinate conversion processing, and input from the input information conversion unit 21 are input. The XY coordinate data supplied to the information analysis unit 23 is shown.
[0078]
FIG. 10 shows an example in which a finger is moved in a substantially zigzag shape in the vertical direction of the touch pad 20. For such scanning, (X, Y) = (30, 50) → (X, Y) = (30, 40) → (X, Y) = (30, 30) → (X, Y) ) = (30,20)... XY coordinate data is sequentially formed, and “(30,50), (30,40)” → “(( 30, 40), (30, 30) ”→“ (30, 30), (30, 20) ”...
[0079]
The notation (X, Y) = (30, 50) indicates that the X coordinate is the position of 30 dots in the horizontal direction of the display unit 12, and the Y coordinate is the position of 50 dots in the vertical direction of the display unit 12. I mean.
[0080]
Next, the input information analysis unit 23 analyzes the direction and distance in which the user moved the finger based on the XY coordinate data supplied in a state where the front and rear are set as one set. Specifically, when the set of XY coordinate data is “(X1, Y1), (X2, Y2)”, the input information analysis unit 23 sets “X2-X1” and “Y2-Y1”. An operation is performed, and the direction and distance in which the user moves the finger is analyzed based on the X coordinate value and the Y coordinate value obtained by the operation.
[0081]
FIG. 11 shows an example of this analysis operation. In FIG. 11, for example, if the XY coordinate data supplied in a state where the front and rear are set as one set is “(50, 40), (50, 60)”, the input information analysis unit 23 displays “50− 50 "and" 60-40 "are calculated. The calculation of “50-50” corresponds to the calculation of “X2-X1”, and the calculation of “60-40” corresponds to the calculation of “Y2-Y1”. In this example, the calculated value of “X2−X1” is “0”, and the calculated value of “Y2−Y1” is “+20”.
[0082]
Next, the user input operation determination unit 24 detects the direction and distance in which the user moved the finger based on the analysis result (= the calculated value) from the input information analysis unit 23.
[0083]
Specifically, the user input operation determination unit 24 moves the display unit 12 in the right direction when the sign of the calculation value of “X2−X1” is “+”, and the sign of the calculation value is “−”. Is detected as a leftward movement of the display unit 12, and when the sign of the calculated value of “Y2−Y1” is “+”, the display unit 12 is moved upward. When the sign of the calculated value is “−”, it is detected as a downward movement of the display unit 12.
[0084]
In the case of the above-described calculation values, the calculation value of “X2−X1” is “0”, and the calculation value of “Y2−Y1” is “+20”. This indicates that there is no movement in the horizontal direction of the display unit 12 in the X direction, but a movement of +20 dots has occurred in the vertical direction of the display unit 12 in the Y direction. Therefore, in this case, the user input operation determination unit 24 determines the user's input operation on the assumption that the user has moved his / her finger by 20 dots upward in the display unit 12. Such a determination output is supplied to the character action selection unit 25.
[0085]
Further, in another example, for example, if the XY coordinate data supplied in a state where the front and rear are set as a set is “(30, 30), (40, 50)”, “X2-X1” The calculated value is “+10”, and the calculated value of “Y2−Y1” is “+20”. This indicates that there is a movement of +10 dots in the horizontal direction of the display unit 12 and +20 dots in the vertical direction of the display unit 12. Therefore, in this case, the user input operation determination unit 24 determines that the user has moved his / her finger by about 20 dots in the upper right direction of the display unit 12.
[0086]
Next, the character motion selection unit 25 selects (determines) the character motion based on the character data before moving display stored in the character data storage unit 27 and the determination output from the user input motion determination unit 24. To do.
[0087]
FIG. 12 shows a schematic diagram of a humanoid character displayed on the display unit 12. In this case, the display unit 12 assumes that the number of dots in the vertical (Y direction) × horizontal (X direction) is 100 dots × 80 dots.
[0088]
The character data storage unit 27 stores XY coordinate data for each part such as the head, trunk, right hand, and left hand of the character before moving display as character data.
[0089]
Specifically, in this example, as shown in FIG. 13, the XY coordinate data “(30, 80), (50, 80)” at both ends of the line segment corresponding to the width of the head of the character is used as the character data. XY coordinate data “(40, 60), (40, 40)” at both ends of the line segment corresponding to the length of the trunk, XY coordinate data “(40, 60),” corresponding to the length of the right hand, (20, 80) ", XY coordinate data" (40, 60), (60, 40) "and the like corresponding to the length of the left hand are stored in the character data storage unit 27.
[0090]
Here, when the movement of the user's finger “(50, 40), (60, 40)” described with reference to FIG. 11 is superimposed on the character image, a line corresponding to the left hand of the character as shown in FIG. It can be seen that a line segment corresponding to the movement of the user's finger intersects the minute.
[0091]
The XY coordinate data “(50, 40), (60, 40)” are adjacent samples as described above. That is, it means that the sample (60, 40) was obtained immediately after the sample (50, 40) was obtained. This sample is obtained by using a sampling frequency of several kHz, for example. Despite such a high frequency, each XY coordinate data of (50, 40) → (60, 40) is obtained in a short time. That it was obtained continuously means that the user's finger was moved so as to flick upward on the display screen.
[0092]
Considering such a movement and position of the user's finger over the character image shown in FIG. 12, it can be seen that the left hand of the character is flipped upward by the user's finger.
[0093]
The character action selection unit 25 has an action pattern table in which a plurality of pieces of information indicating action patterns are stored. The character action selection unit 25 selects the corresponding action pattern from the action pattern table based on the character image before moving display and the movement and position of the user's finger in this way, and the selected action pattern. Information to be shown is supplied to the character data processing unit 26.
[0094]
In the case of the above-described example, since the left hand of the character is flipped upward by the user's finger, the character action selection unit 25 selects an action pattern for raising the left hand of the character, and information indicating this action pattern is subjected to character data processing. To the unit 26.
[0095]
Next, the character data processing unit 26 forms drawing processing data for drawing a character that performs an action corresponding to the information indicating the action pattern from the character action selecting unit 25, and controls the character drawing unit 11. To do.
[0096]
The character drawing unit 11 performs drawing processing for the character displayed on the display unit 12 based on the drawing processing data.
[0097]
In the case of the above-described example, the character data processing unit 26 forms drawing processing data for drawing a character that performs the action of raising the left hand, and supplies this to the character drawing unit 11. As a result, the character drawing unit 11 performs display control of the character that performs the action of raising the left hand as indicated by the dotted line in FIG.
[0098]
[When pressure is detected]
Next, the drawing processing operation when the pressure is detected by the pressure detection unit 22 of the CPU 13 will be described.
[0099]
As described above, the pressure detection unit 22 detects that the user has pressed the touch pad 20 when a pressure detection output indicating a pressing level equal to or higher than a predetermined threshold is supplied from the pressure sensor of the touch pad 20. It has become. When the pressure detection unit 22 detects the pressing force, the character action selection unit 25 determines the pressure level and the position on the display unit 12 where the pressure is applied, and the determination from the user input action determination unit 24. The operation pattern is selected based on the output.
[0100]
Specifically, for example, when the user presses the character's mouth with a finger in order to press the character's mouth, for example, “with pressure” is indicated from the position around the mouth of the character indicated by a circle in FIG. Will be detected. The pressure detection unit 22 takes in the pressure detection output of the center coordinates “(40, 72)” of the pressure detection outputs corresponding to the detected range, and supplies this to the character action selection unit 25. .
[0101]
In this example, since the user presses the character's mouth with a finger, the input information analysis unit 23 is continuously supplied with the XY coordinate data of (40, 72). For this reason, the user input motion determination unit 24 determines that the user's finger is stopped at the XY coordinate position of (40, 72) on the display unit 12, and supplies this determination output to the character motion selection unit 25. To do.
[0102]
The character action selection unit 25 detects the position where the user's finger is stopped based on the XY coordinate data of each part of the character stored in the character data storage unit 27.
[0103]
In this case, since the XY coordinates at which the user's finger is stopped are (40, 72), the character motion selection unit 25 determines that the user's finger is stopped at the position of the mouth of the character.
[0104]
In this case, the character action selection unit 25 is supplied with a pressure detection output indicating that a press is detected from the position of the mouth of the character.
[0105]
Since the user's finger is stopped at the position of the character's mouth and the character's mouth is pressed by the user's finger, the character action selection unit 25 selects, for example, an action pattern in which the character closes the mouth, Information indicating this motion pattern is supplied to the character data processing unit 26.
[0106]
The character data processing unit 26 forms drawing processing data for drawing a character that performs an action corresponding to the information indicating the action pattern from the character action selecting unit 25, and controls the character drawing unit 11.
[0107]
As a result, the character drawing unit 11 performs a drawing process on the character that performs the closing action of the mouth, and this is displayed on the display unit 12.
[0108]
[Effect of the second embodiment]
As is clear from the above description, the mobile phone according to the second embodiment detects the movement of the user's finger on the display unit 12 by the touch pad 20 provided with the position sensor and the pressure sensor. Based on the movement of the finger of the user and the display position of the currently displayed character, the movement of the character is determined and display control of the character is performed.
[0109]
Further, the pressure sensor detects a position where the user applies pressure with a finger on the display unit 12, and based on the position where the pressure is applied and the display position of the currently displayed character, The character is controlled by determining the movement.
[0110]
As described above, since the touch pad 20 is provided, it is possible to input a complicated and a large number of inputs corresponding to the scanning of the user's finger. The display can be controlled to
[0111]
In addition, the reaction of the character in the virtual world can be a reaction that matches the action in the real world.
[0112]
The touch pad 20 is provided on the surface of the display unit 12, and can be operated while looking at the character displayed on the display unit 12 through the touch pad 20. The scanning of the finger on the touch pad 20 is reflected in the action of the character displayed on the display unit 12.
[0113]
For this reason, the user can provide the feeling of touching and operating the character displayed on the display part 12 with a finger directly. Therefore, the user can handle the character displayed on the display unit 12 as if it were a pet, such as stroking or tickling the head of the character. Therefore, the character displayed on the display unit 12 can be a character that is more intimate.
[0114]
In this example, the touch pad 20 is provided to enable complicated input. However, instead of the touch pad 20, input means such as a trackball or a joystick may be provided.
[0115]
The trackball and joystick are provided in places other than the display unit 12 due to their characteristics. However, in the same manner as the touchpad 20, it is possible to enable complicated input. Therefore, when the touchpad 20 is provided. Similarly to the above, the same effect as described above can be obtained.
[0116]
Further, although the presence or absence of the pressure is detected by the pressure sensor of the touch pad 20, the pressure pattern of the pressure may be detected, and the action pattern of the character may be determined according to the pressure level. In this case, since the character's motion pattern can be determined according to the pressure level, the character's motion is analyzed by analyzing the user's finger motion in detail rather than determining the character's motion pattern according to the presence or absence of pressing. The pattern can be determined.
[0117]
[Combined operation of the first embodiment and the second embodiment]
As described above, for easy understanding, the mobile phone to which the present invention is applied has been described in the first embodiment and the second embodiment, but the mobile phone of each embodiment may be combined. . The operation in this case will be described by taking the first control pattern (current data pattern = 111011) in the first embodiment as an example and conforming to the usage mode of the mobile phone.
[0118]
First, the CPU 13 of the mobile phone acquires time information from the timer 1. For example, it is assumed that this time information indicates 8:15 am on weekdays.
[0119]
Next, the CPU 13 refers to the schedule of the current day from the schedule book 4 and determines whether or not the schedule is in the vicinity of 8:15 am. As this schedule, for example, it is assumed that there is a schedule for meeting with a friend A at a coffee shop in front of the station at 9 am.
[0120]
Next, the CPU 13 refers to the call history memory 5 and checks whether or not there is a partner who makes a call on a daily basis in the time zone around 8:15 am. For example, it is assumed that it is detected that the user makes a call to the friend B on a daily basis for about 5 minutes in the time zone from 8:00 am to 8:10 am.
[0121]
Next, the CPU 13 detects the brightness around the mobile phone based on the detection output from the optical sensor 2. In this detection, it is assumed that the surroundings of the mobile phone are detected to be dark in the morning.
[0122]
Next, the CPU 13 detects the noise level around the mobile phone based on the detection output from the sound sensor 3. In this detection, it is assumed that almost no sound is detected around the mobile phone.
[0123]
Next, the CPU 13 determines the current state where the mobile phone is placed based on each detection result.
[0124]
That is, in this example, it is currently past 8:00 on weekdays. In addition, there is a meeting with friend A today, and it is less than one hour until this meeting time. Despite this, the surroundings of the mobile phone are dark and quiet. The user does not make a phone call to the friend B who goes on a daily basis. This indicates that there is a high possibility that the user is oversleeping in the morning. And if it keeps as it is, the meeting with the friend A will be late.
[0125]
For this reason, the CPU 13 sounds a ringtone of the mobile phone and simultaneously drives vibration. Further, the CPU 13 controls the display unit 12 to display an image of a character screaming “Wake up”.
[0126]
As a result, the user can be awakened by the character of the mobile phone and execute the schedule as scheduled.
[0127]
On the other hand, if the user has already woken up and is quietly organizing today's behavior at home, the operation of such a mobile phone is annoying for the user.
[0128]
Therefore, in order to stop the operation of the mobile phone, the user picks up the mobile phone and closes the mouth of the character screaming “Wake up” with his / her finger.
[0129]
Such user behavior is detected by the pressure sensor of the touch pad 20, and the CPU controls the ring tone and the vibration function 7 to be turned off, and displays the image of the character closing the mouth on the display unit 12 as described above. Control.
[0130]
In this case, the image that the character bows and is incorrect, the image that the character visits “Wake up?”, Or the character teaches “Oh yes. An image may be displayed.
[0131]
As can be seen from this example, the character displayed on the display unit 12 serves as a manager and watches over the user. The mobile phone according to each of the embodiments that provides such manager-like and friendly characters can be said to be a very convenient device.
[0132]
As mentioned above, although this invention was demonstrated in the form according to embodiment, it should be understood that each of these embodiment is an example of this invention. For this reason, in the description of the above-described embodiment, the present invention is applied to a mobile phone. This is because a PHS phone (PHS: Personal Handyphone System), a PDA device having a communication function (PDA: Personal Digital Assistants). Or other terminal devices such as a personal computer device having a communication function. Even in this case, the same effect as described above can be obtained.
[0133]
In addition to the sensors 2 and 3 described above, other sensors such as a temperature sensor may be used.
[0134]
In addition, it should be added that various modifications can be made according to the design and the like as long as they do not depart from the technical idea of the present invention.
[0135]
【The invention's effect】
  The present invention has a complex and multiple operation pattern so that the reaction corresponds to a real-world action.Displayed on the displayCharacter display can be controlled.
[0136]
  The present invention also provides:Displayed on the displayThe character can be actively moved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a main configuration of a cellular phone according to a first embodiment to which the present invention is applied.
FIG. 2 is a flowchart showing a control flow of the mobile phone according to the first embodiment.
FIG. 3 is a diagram for explaining a day / night determination operation performed based on time information from a timer provided in the mobile phone according to the first embodiment;
FIG. 4 is a diagram for explaining an operation for determining whether there is a schedule registered in a schedule book provided in the mobile phone according to the first embodiment;
FIG. 5 is a diagram for explaining an operation of determining whether or not there is a call history stored in a call history memory provided in the mobile phone according to the first embodiment.
FIG. 6 is a diagram for explaining an operation for determining brightness around the mobile phone, which is performed based on a detection output from an optical sensor provided in the mobile phone according to the first embodiment.
FIG. 7 is a diagram for explaining a judgment operation of sounds around the mobile phone, which is performed based on a detection output from a sound sensor provided in the mobile phone according to the first embodiment.
FIG. 8 is a diagram for explaining a control pattern of control performed based on each detection result in the mobile phone according to the first embodiment.
FIG. 9 is a block diagram showing a main configuration of a mobile phone according to a second embodiment to which the present invention is applied.
FIG. 10 is a diagram illustrating an example of input to a touch pad provided in the mobile phone according to the second embodiment and an example of XY coordinate data detected based on the input.
FIG. 11 is a diagram for explaining a detection operation of a moving direction and a moving distance of a user's finger of the mobile phone according to the second embodiment, which is performed based on the detected XY coordinate data.
FIG. 12 is a diagram for explaining a display control operation of a character displayed on the display unit of the mobile phone according to the second embodiment.
FIG. 13 is a diagram showing an example of XY coordinate data of each part of the character displayed on the display unit of the mobile phone according to the second embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Timer, 2 ... Light sensor, 3 ... Sound sensor, 4 ... Schedule book, 5 ... Call history memory, 6 ... Control pattern table, 7 ... Vibration function, 8 ... Voice control part, 9 ... Speaker part, 10 ... Character Audio memory, 11 ... Character drawing unit, 12 ... Display unit, 13 ... Control unit (CPU), 20 ... Touch pad (position sensor, pressure sensor), 21 ... Input information conversion unit, 22 ... Pressure detection unit, 23 ... Input Information analysis unit, 24 ... user input motion determination unit, 25 ... character motion selection unit, 26 ... character data processing unit, 27 ... character data storage unit, 28 ... other mobile phone components

Claims (3)

表示部に所定のキャラクタのキャラクタ画像を表示するキャラクタ画像表示部と、
圧力センサを備え、上記表示部に表示された上記キャラクタ画像を目視可能なように設けられると共に、ユーザの接触操作による操作位置、操作距離、及び押圧力を検出する二次元入力部と、
少なくとも時刻を計時するタイマ、光を感知する光センサ、音を感知する音センサ、ユーザの予定が記憶されたスケジュール帳から所定時間以内のスケジュールを検出するスケジュールセンサ、及びユーザの通話履歴が記憶された通話履歴メモリから所定時間以内の通話履歴を検出する通話履歴センサを備え、上記タイマ及び各センサからの各出力に基づいて、総合的に当該情報処理装置が適用された機器の現状を判断する現状判断部と、
上記現状判断部により判断された上記機器の現状に対応する動作を行う上記キャラクタ画像を表示するように上記キャラクタ画像表示部を制御すると共に、上記二次元入力部でユーザの接触操作が検出された際に、この接触操作による操作位置及び操作距離に対応し、かつ、実世界のリアクションとなる動作を行う上記キャラクタ画像を表示するように上記キャラクタ画像表示部を制御し、或いは上記接触操作による押圧力に対応し、かつ、実世界のリアクションとなる動作を行う上記キャラクタ画像を表示するように上記キャラクタ画像表示部を制御する制御部と
を有する情報処理装置。
A character image display unit for displaying a character image of a predetermined character on the display unit;
A two-dimensional input unit that includes a pressure sensor, is provided so that the character image displayed on the display unit can be viewed, and detects an operation position, an operation distance, and a pressing force by a user's contact operation;
At least a timer for measuring time, a light sensor for sensing light, a sound sensor for sensing sound, a schedule sensor for detecting a schedule within a predetermined time from a schedule book in which a user's schedule is stored, and a user's call history are stored. A call history sensor that detects a call history within a predetermined time from the call history memory, and comprehensively determines the current status of the device to which the information processing apparatus is applied, based on each output from the timer and each sensor. The current situation determination section;
The character image display unit is controlled to display the character image that performs an operation corresponding to the current state of the device determined by the current state determination unit, and the user's contact operation is detected by the two-dimensional input unit. In this case, the character image display unit is controlled so as to display the character image corresponding to the operation position and the operation distance by the contact operation and performing the action as a real-world reaction, or the press by the contact operation is performed. An information processing apparatus comprising: a control unit that controls the character image display unit so as to display the character image corresponding to pressure and performing an action that is a reaction in the real world .
所定の音声を発生する音声発生部を有し、Having a sound generator for generating a predetermined sound;
上記制御部は、上記キャラクタ画像表示部の制御と共に、所定の音声を発生するように上記音声発生部を制御するThe control unit controls the sound generation unit to generate a predetermined sound together with the control of the character image display unit.
請求項1に記載の情報処理装置。  The information processing apparatus according to claim 1.
振動機能を有し、
上記制御部は、上記キャラクタ画像表示部の制御と共に、上記振動機能を駆動制御する
請求項1又は請求項2に記載の情報処理装置。
Has vibration function,
The control unit drives and controls the vibration function together with the control of the character image display unit.
The information processing apparatus according to claim 1 or 2.
JP2002264508A 2002-09-10 2002-09-10 Information processing device Expired - Fee Related JP4211968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002264508A JP4211968B2 (en) 2002-09-10 2002-09-10 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002264508A JP4211968B2 (en) 2002-09-10 2002-09-10 Information processing device

Publications (2)

Publication Number Publication Date
JP2004102719A JP2004102719A (en) 2004-04-02
JP4211968B2 true JP4211968B2 (en) 2009-01-21

Family

ID=32263929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002264508A Expired - Fee Related JP4211968B2 (en) 2002-09-10 2002-09-10 Information processing device

Country Status (1)

Country Link
JP (1) JP4211968B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1803114A2 (en) * 2004-10-01 2007-07-04 Audiobrax Indústria E Comércio De Produtos Eletrônicos S.A. Rhythmic device for the production, playing, accompaniment and evaluation of sounds
WO2006037198A1 (en) * 2004-10-01 2006-04-13 Audiobrax Indústria E Comércio De Produtos Eletrônicos S.A. Portable electronic device for instrumental accompaniment and evaluation of sounds
JP4701395B2 (en) * 2005-10-14 2011-06-15 国立大学法人九州工業大学 Drawing control device
US7538760B2 (en) 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
JP2014130467A (en) * 2012-12-28 2014-07-10 Sony Corp Information processing device, information processing method, and computer program
KR101865300B1 (en) * 2016-05-27 2018-06-07 주식회사 하이딥 Method for controlling behavior of character in touch input device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10295932A (en) * 1997-04-28 1998-11-10 Kyushu Hitachi Maxell Ltd Portable game console
JPH11259271A (en) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk Agent device
JP2000029661A (en) * 1998-07-16 2000-01-28 Sharp Corp Information terminal provided with character and voice input/output function
JP2000056889A (en) * 1998-08-04 2000-02-25 Matsushita Electric Ind Co Ltd Portable terminal device and window control method
JP2001217903A (en) * 2000-01-31 2001-08-10 Hitachi Ltd Telephone, information terminal device and method of notifying incoming call thereof
JP3738383B2 (en) * 2000-05-26 2006-01-25 富士通株式会社 Communication device

Also Published As

Publication number Publication date
JP2004102719A (en) 2004-04-02

Similar Documents

Publication Publication Date Title
AU2023204608B2 (en) Semantic framework for variable haptic output
JP2021179951A (en) Systems, methods and user interfaces for supporting scheduled mode changes on electronic devices
CN105094661B (en) Mobile terminal
WO2018223535A1 (en) Vibration notification method for mobile terminal, and mobile terminal
JP2019079415A (en) Electronic device, control device, control program, and operating method of electronic device
CN107222391A (en) Group's based reminding method, device and equipment
CN107864298A (en) An intelligent reminder method and device
WO2021068627A1 (en) Interaction method for electronic device and electronic device
JP4211968B2 (en) Information processing device
CN108322614A (en) Event-prompting method, device, storage medium and electronic equipment
EP4270163A1 (en) User interfaces for facilitating operations
CN110225200A (en) Reminding method and device, storage medium and electronic equipment
JP2002296376A (en) Portable radio terminal device
JP2018121274A (en) Electronic equipment, control method, and program
CN110456935A (en) For adjusting the device and method of the offer of notice
CN111263007A (en) Alarm clock control method and electronic equipment
JP2011114569A (en) Portable terminal and incoming call response method
WO2023211790A1 (en) User interfaces for facilitating operations
CN119759432A (en) A home screen wake-up system based on the metaphor of walking outward
JP2014064175A (en) Portable terminal equipment, portable terminal control method, and portable terminal control program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20031113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20031212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050811

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081022

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees