[go: up one dir, main page]

JP2008305108A - Handwriting input device, control method thereof, handwriting input control program, and recording medium with the program recorded thereon - Google Patents

Handwriting input device, control method thereof, handwriting input control program, and recording medium with the program recorded thereon Download PDF

Info

Publication number
JP2008305108A
JP2008305108A JP2007150995A JP2007150995A JP2008305108A JP 2008305108 A JP2008305108 A JP 2008305108A JP 2007150995 A JP2007150995 A JP 2007150995A JP 2007150995 A JP2007150995 A JP 2007150995A JP 2008305108 A JP2008305108 A JP 2008305108A
Authority
JP
Japan
Prior art keywords
unit
trajectory
display
handwriting input
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007150995A
Other languages
Japanese (ja)
Inventor
Minoru Nishihata
実 西畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007150995A priority Critical patent/JP2008305108A/en
Publication of JP2008305108A publication Critical patent/JP2008305108A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Telephone Set Structure (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a handwriting input device, etc., wherein restriction to a handwriting input range is reduced. <P>SOLUTION: The handwriting input device is prepared for inputting handwritten data. The handwriting input device is provided with a display part 24 for displaying information, a displacement detection part 31 for detecting displacement of at least two axes of its own device, a locus creation part 41 for creating locus data indicating the locus of changes of the own device as handwritten data on the basis of the displacement information detected by the displacement detection part 31, and a display control part 42 for controlling the display part 24 so as to display a part or all of the locus. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、手書き情報を入力するための手書き入力装置およびその制御方法、手書き入力制御プログラム、並びに、該プログラムを記録した記録媒体に関するものである。特に、本発明は、携帯端末における手書き情報の入力に関するものである。   The present invention relates to a handwriting input device for inputting handwritten information, a control method therefor, a handwriting input control program, and a recording medium on which the program is recorded. In particular, the present invention relates to input of handwritten information in a mobile terminal.

近年、携帯電話等の携帯端末が広く普及している。また、携帯端末は多機能化しており、それに伴って機能を操作するためのキー操作も複雑化している。このようにキー操作が複雑になると、キー操作に不慣れな人は、文字を入力するのにも時間がかかってしまう。   In recent years, mobile terminals such as mobile phones have become widespread. In addition, mobile terminals have become multifunctional, and accordingly, key operations for operating functions have become complicated. If the key operation is complicated as described above, a person unfamiliar with the key operation takes time to input characters.

一方、キー操作のみの入力機能を有する携帯端末では、利用者が手書きの文字や図形等(以下「文字等」と称する。)を作成したり、作成した手書きの文字等を表示させたりすることが困難であるという不便さも生じる。   On the other hand, in a portable terminal having an input function only for key operations, a user can create handwritten characters, figures, etc. (hereinafter referred to as “characters”) or display the created handwritten characters, etc. Inconvenience that it is difficult occurs.

そこで、キー操作の代わりに入力パッドを用いて文字等を入力する手書き文字入力方法が知られている。これは、感圧素子を透明なフィルムにマトリクス状に配置した入力パッドを表示装置上に貼り合わせ、該入力パッドをペン状の器具で圧力を加えることにより、座標を指示したり、手書きの文字等を入力したりするものである。   Thus, a handwritten character input method is known in which characters and the like are input using an input pad instead of key operations. This is because the input pads in which pressure-sensitive elements are arranged in a matrix on a transparent film are pasted on a display device, and pressure is applied to the input pads with a pen-like instrument to indicate coordinates or handwritten characters. Or the like.

また、非特許文献1には、ウェアラブルなコンピュータを身につけたユーザが、任意の場所にペンを使って情報を書き込み、他のユーザとその情報を共有することを可能にするシステムが開示されている。このシステムでは、透過型ヘッドマウントディスプレイ(HMD)または、単眼のアイフォンを装着したユーザが屋外、屋内を移動し、適当な場所で立ち止まり、宙でジャイロセンサなどによる2次元入力装置を動かすと、面前に仮想のメモ書きを作成することができる。   Non-Patent Document 1 discloses a system that allows a user who wears a wearable computer to write information using a pen at any place and share the information with other users. Yes. In this system, when a user wearing a transmissive head mounted display (HMD) or a monocular eyephone moves outdoors or indoors, stops at an appropriate location, and moves a two-dimensional input device such as a gyro sensor in the air, You can create a virtual memo.

また、従来、ペンライトなどの光の軌跡をカメラで撮影することにより文字や図形の入力を可能にするシステムが考えられている。   Conventionally, there has been considered a system that enables input of characters and figures by photographing a light locus such as a penlight with a camera.

また、非特許文献2には、ペンデバイスにカメラとレーザポインタとを装備し、レーザポインタの軌跡をカメラで撮影することにより手書き文字等を入力する手書き入力システムが開示されている。
特開2005−284882号公報(2005年10月13日公開) 椎尾一郎、山本吉伸,「空気ペン:空間への描画による情報共有」,“第59回情報処理学会全国大会”、論文集(4)、p.39−40,1999年9月29日 佐官雄介,「ウェアラブルコンピュータに適した高精細手書き情報生成のためのペンデバイス」,修士論文,2004年2月6日
Non-Patent Document 2 discloses a handwriting input system in which a pen device is equipped with a camera and a laser pointer, and a handwritten character or the like is input by photographing the locus of the laser pointer with the camera.
Japanese Patent Laying-Open No. 2005-284882 (released on October 13, 2005) Ichiro Shiio and Yoshinobu Yamamoto, “Air Pen: Sharing Information by Drawing in Space”, “59th National Convention of Information Processing Society”, Proceedings (4), p. 39-40, September 29, 1999 Yusuke Sakan, "Pen device for generating high-definition handwritten information suitable for wearable computers", Master thesis, February 6, 2004

しかしながら、上記のキー操作の代わりに文字等を入力する方法では、以下のような問題が生じる。   However, the method of inputting characters or the like instead of the above key operation has the following problems.

すなわち、入力パッド、ペンデバイス、HMDなどを別途設ける必要があるため、部品のコストが高くなってしまう。また、入力パッドを利用した手書き文字入力方法では、携帯端末のように書き込み対象画面が小さいと書き辛い。   That is, since it is necessary to separately provide an input pad, a pen device, an HMD, and the like, the cost of components increases. Also, in the handwritten character input method using the input pad, it is difficult to write if the screen to be written is small like a mobile terminal.

また、携帯端末にて入力パッドまたはペンデバイスを利用する場合、利用者は、一方の手で携帯端末を保持し、片方の手で入力パッドまたはペンデバイスを操作することになり、両方の手が入力操作のために塞がってしまうことになる。   When using an input pad or pen device on a mobile terminal, the user holds the mobile terminal with one hand and operates the input pad or pen device with one hand. It will be blocked for input operation.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、手書きの入力範囲の制約が少ない手書き入力装置などを提供することにある。特に、本発明の目的は、片手の操作で手書き情報の入力が可能な携帯型手書き入力装置などを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a handwriting input device with few restrictions on the handwriting input range. In particular, an object of the present invention is to provide a portable handwritten input device that can input handwritten information by one-handed operation.

本発明に係る手書き入力装置は、手書き情報を入力するための手書き入力装置であって、情報を表示する表示部と、自装置の少なくとも2軸の変位情報を検出する変位検出手段と、該変位検出手段が検出した変位情報に基づいて、自装置の変化の軌跡を示す軌跡情報を前記手書き情報として作成する軌跡作成手段と、前記軌跡の一部または全部を表示するように前記表示部を制御する表示制御手段とを備えることを特徴としている。   A handwriting input device according to the present invention is a handwriting input device for inputting handwritten information, a display unit for displaying information, a displacement detecting means for detecting displacement information of at least two axes of the own device, and the displacement Based on the displacement information detected by the detecting means, trajectory creating means for creating trajectory information indicating a trajectory of change of the device as the handwritten information, and controlling the display unit to display a part or all of the trajectory. And a display control means.

また、本発明に係る手書き入力装置の制御方法は、手書き情報を入力するための手書き入力装置であって、情報を表示する表示部を備える手書き入力装置の制御方法において、上記課題を解決するために、自装置の少なくとも2軸の変位情報を検出する変位検出ステップと、該変位検出ステップにて検出された変位情報に基づいて、自装置の変化の軌跡を示す軌跡情報を前記手書き情報として作成する軌跡作成ステップと、前記軌跡の一部または全部を表示するように前記表示部を制御する表示制御ステップとを含むことを特徴としている。   Moreover, the control method of the handwriting input device which concerns on this invention is a handwriting input device for inputting handwritten information, Comprising: In order to solve the said subject in the control method of a handwriting input device provided with the display part which displays information. In addition, a displacement detection step for detecting displacement information of at least two axes of the own device and, based on the displacement information detected in the displacement detection step, locus information indicating a change locus of the own device is created as the handwritten information. And a display control step of controlling the display unit so as to display a part or all of the trajectory.

ここで、手書きの情報の例としては、手書きの文字、記号、図形などが挙げられる。また、上記の軸は、座標軸と回転軸とを含む概念である。   Here, examples of handwritten information include handwritten characters, symbols, figures, and the like. Moreover, said axis is a concept including a coordinate axis and a rotation axis.

上記の構成および方法によると、自装置を動かすと、変位情報が検出され、検出された変位情報に基づいて、自装置の変化の軌跡を示す軌跡情報が手書き情報として作成され、作成された軌跡の一部または全部が表示される。従って、本発明の手書き入力装置は、手書きの入力可能な範囲は、自装置の移動可能な範囲であるので、入力パッド等の従来の入力デバイスに比べて、手書きの入力範囲の制約が少なくて済む。その結果、ユーザが所望する手書きの文字等を入力することができる。   According to the above configuration and method, when the device is moved, displacement information is detected, and based on the detected displacement information, locus information indicating a locus of change of the device is created as handwritten information, and the created locus A part or all of is displayed. Therefore, in the handwriting input device of the present invention, the handwritten input range is a range in which the device can be moved, and thus there are fewer restrictions on the handwriting input range than conventional input devices such as an input pad. That's it. As a result, it is possible to input handwritten characters desired by the user.

なお、上記軌跡情報は、軌跡作成手段から取得してもよいし、記憶部から取得してもよい。すなわち、本発明に係る手書き入力装置では、情報を記憶する記憶部をさらに備えており、前記軌跡作成手段は、作成した軌跡情報を前記記憶部に書き込んでおり、前記表示制御手段は、前記記憶部から前記軌跡の一部または全部を取得してもよい。   The trajectory information may be acquired from a trajectory creation unit or may be acquired from a storage unit. That is, the handwriting input device according to the present invention further includes a storage unit that stores information, the trajectory creation unit writes the created trajectory information in the storage unit, and the display control unit includes the storage unit. A part or all of the trajectory may be acquired from the unit.

また、上記軌跡を修正したい場合もあり得る。そこで、本発明に係る手書き入力装置では、前記変位検出手段が検出した変位情報に基づいて、前記記憶部に記憶された軌跡情報が示す軌跡の一部を消去する軌跡消去手段をさらに備えることが好ましい。   There may also be cases where it is desired to correct the trajectory. Therefore, the handwriting input device according to the present invention further includes a trajectory erasure unit that erases a part of the trajectory indicated by the trajectory information stored in the storage unit based on the displacement information detected by the displacement detection unit. preferable.

さらに、本発明に係る手書き入力装置では、ユーザの操作を受け付ける操作部と、該操作部における操作に基づいて、前記軌跡作成手段および前記軌跡消去手段の何れか一方が動作するように指示する動作指示手段とをさらに備えることが好ましい。この場合、ユーザの操作に基づいて、軌跡を作成したり消去したりすることができる。   Furthermore, in the handwriting input device according to the present invention, an operation unit that receives a user operation, and an operation that instructs one of the trajectory creation unit and the trajectory deletion unit to operate based on the operation in the operation unit It is preferable to further include an instruction unit. In this case, the trajectory can be created or deleted based on the user's operation.

本発明に係る手書き入力装置では、前記表示制御手段は、前記表示部に表示するための表示用画像のうち、前記表示部の表示画面内に表示される表示領域を、前記変位検出手段が検出した変位情報に基づいて変更するように、前記表示部を制御することが好ましい。この場合、表示部の表示画面よりもサイズが大きい表示用画像を、手書き入力装置を移動させることで容易に確認することができる。従って、上記表示画面よりもサイズが大きい軌跡を、手書き入力装置を移動させることで容易に確認することができる。   In the handwriting input device according to the present invention, the display control unit detects a display area displayed in the display screen of the display unit among display images to be displayed on the display unit. It is preferable to control the display unit so as to change based on the displacement information. In this case, the display image having a size larger than the display screen of the display unit can be easily confirmed by moving the handwriting input device. Therefore, a locus having a size larger than that of the display screen can be easily confirmed by moving the handwriting input device.

さらに、前記表示制御手段は、前記変位検出手段が検出した変位情報に対応する前記表示用画像の位置が、前記表示画面内に表示されるように、前記表示部を制御することが好ましい。ここで、変位情報に対応する前記表示用画像の位置は、上記軌跡作成手段が作成中である軌跡の位置や、上記軌跡消去手段が消去中である軌跡の位置などのように、ユーザが手書き入力装置を移動させることによって実行される位置、すなわち、ユーザが注目している位置である。従って、上記の場合、ユーザが注目している表示用画像の位置が表示画面から外れることを防止できる。   Furthermore, it is preferable that the display control unit controls the display unit so that a position of the display image corresponding to the displacement information detected by the displacement detection unit is displayed in the display screen. Here, the position of the display image corresponding to the displacement information is handwritten by the user, such as the position of the trajectory being created by the trajectory creation means or the position of the trajectory being erased by the trajectory elimination means. This is a position that is executed by moving the input device, that is, a position that the user is paying attention to. Therefore, in the above case, it is possible to prevent the position of the display image that the user is paying attention from from the display screen.

本発明に係る手書き入力装置では、撮影を行う撮影部をさらに備えており、前記変位検出手段は、前記撮影部にて撮影された撮影画像に基づいて、自装置の変位情報を検出してもよい。この場合、携帯電話機やデジタルカメラのように、撮影部と表示部とを備える電子デバイスであれば、さらなる部品を追加すること無しに本発明を実現することができる。   The handwriting input device according to the present invention further includes an imaging unit that performs imaging, and the displacement detection unit may detect displacement information of the own device based on a captured image captured by the imaging unit. Good. In this case, the present invention can be realized without adding additional components if it is an electronic device including a photographing unit and a display unit, such as a mobile phone or a digital camera.

なお、撮影画像から変位情報を検出する方法としては、撮影画像から動きベクトルを検出する方法や、撮影された基準物体の画像から、基準物体との相対位置を検出する方法が挙げられる。また、自装置の変位情報の検出には、撮影部を利用する他に、位置センサ、加速度センサ、ジャイロセンサなどを利用してもよい。   Note that methods for detecting displacement information from a captured image include a method of detecting a motion vector from a captured image, and a method of detecting a relative position with respect to a reference object from a captured image of the reference object. For detecting the displacement information of the device itself, a position sensor, an acceleration sensor, a gyro sensor, or the like may be used in addition to the photographing unit.

また、本発明に係る手書き入力装置は、携帯型の電子デバイスに適用することができる。この場合、携帯型の電子デバイスを片手で移動させるだけで手書き情報の入力が可能となる。   The handwriting input device according to the present invention can be applied to a portable electronic device. In this case, handwritten information can be input simply by moving the portable electronic device with one hand.

なお、上記手書き入力装置の各手段を、手書き入力制御プログラムによりコンピュータ上で実行させることができる。さらに、上記手書き入力制御プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記手書き入力制御プログラムを実行させることができる。   Each means of the handwriting input device can be executed on a computer by a handwriting input control program. Further, by storing the handwriting input control program in a computer-readable recording medium, the handwriting input control program can be executed on an arbitrary computer.

以上のように、本発明に係る手書き入力装置は、自装置を動かすことにより手書き情報の入力が可能であるので、従来の入力デバイスに比べて、手書きの入力範囲の制約が少なくて済むという効果を奏する。   As described above, the handwriting input device according to the present invention is capable of inputting handwritten information by moving the device itself, so that the handwriting input range is less restricted than conventional input devices. Play.

〔実施の形態1〕
本発明の一実施形態について図1〜図7を参照して説明する。本実施形態は、本発明の手書き入力装置をカメラ付き携帯電話機に適用したものである。
[Embodiment 1]
An embodiment of the present invention will be described with reference to FIGS. In this embodiment, the handwriting input device of the present invention is applied to a camera-equipped mobile phone.

図2は、本実施形態の携帯電話機10の外観を示している。携帯電話機10は、いわゆるクラムシェル型であり、同図に開いた状態で示されている。同図の(a)には、携帯電話機10を閉じたときに内側となる部分が示されており、この部分は、携帯電話機10を開いたときにユーザが主に利用する側である。そこで、本願では同図の(a)に示される側を前面側とする。また、同図の(b)は、携帯電話機10を閉じたときに外側となる部分を示しており、この部分は、携帯電話機10を開いたときに同図の(a)の側と反対側となる。そこで、本願では同図の(b)に示される側を背面側とする。すなわち、図2において、(a)が正面図となり、(b)が背面図となる。   FIG. 2 shows the appearance of the mobile phone 10 of the present embodiment. The mobile phone 10 is a so-called clamshell type, and is shown in an open state in FIG. (A) of the figure shows a portion that becomes an inner side when the cellular phone 10 is closed, and this portion is a side that is mainly used by the user when the cellular phone 10 is opened. Therefore, in the present application, the side shown in FIG. Moreover, (b) of the figure shows the part which becomes outside when the cellular phone 10 is closed, and this part is the opposite side to the (a) side of the figure when the cellular phone 10 is opened. It becomes. Therefore, in the present application, the side shown in FIG. That is, in FIG. 2, (a) is a front view and (b) is a rear view.

携帯電話機10は、筐体11の正面側に、情報が表示される表示画面12と、ユーザの操作を受け付ける操作ボタン群13と、ユーザの音声をマイクロフォンに到達させるための送話口14と、イヤホンまたはスピーカが出力する音声を外部に到達させるための受話口15とが設けられ、筐体11の背面側に撮影を行うカメラ(撮影部)16が設けられている。   The mobile phone 10 has a display screen 12 on which information is displayed on the front side of the housing 11, an operation button group 13 for receiving user operations, a mouthpiece 14 for allowing the user's voice to reach the microphone, An earpiece 15 for allowing sound output from the earphone or the speaker to reach the outside is provided, and a camera (photographing unit) 16 that performs imaging on the back side of the housing 11 is provided.

操作ボタン群13は、携帯電話機10における各種設定や機能切替を行うための機能ボタン群と、数字や文字などの記号を入力するための入力ボタン群とから構成されている。具体的には、上記機能ボタン群は、携帯電話機10の電源のON/OFFを切り替るための電源ボタン、カメラ16を起動するためのカメラボタン、メールソフトを起動するためのメールボタン、選択対象を上下左右方向に移動させるための十字ボタン、該十字ボタンの中央に配置されており種々の選択を決定するための決定ボタン、入力された記号をキャンセルしたり、操作をキャンセルしたりするためのクリアボタンなどを含んでいる。また、上記入力ボタン群は、テンキーである。   The operation button group 13 includes a function button group for performing various settings and function switching in the mobile phone 10 and an input button group for inputting symbols such as numbers and characters. Specifically, the function button group includes a power button for switching on / off the power of the mobile phone 10, a camera button for starting the camera 16, a mail button for starting mail software, and a selection target A cross button for moving up, down, left and right, a determination button arranged at the center of the cross button for determining various selections, for canceling input symbols and canceling operations Includes a clear button. The input button group is a numeric keypad.

カメラ16は、被写体の撮影を行うものである。具体的には、カメラ16は、CCD(Charge Coupled Device)、CMOS(Complementary Metal-oxide Semiconductor)イメージセンサなどの撮像素子と光学系とを含んでいる。   The camera 16 is for photographing a subject. Specifically, the camera 16 includes an imaging device such as a charge coupled device (CCD) and a complementary metal-oxide semiconductor (CMOS) image sensor and an optical system.

本実施形態の携帯電話機10は、自装置の少なくとも2軸の変位情報を検出し、検出した変位情報に基づいて、自装置の変化の軌跡を示す軌跡データを手書きデータとして作成し、前記軌跡の一部または全部を表示させるものである。これにより、携帯電話機10において手書きの入力可能な範囲は、自装置の移動可能な範囲であるので、入力パッド等の従来の入力デバイスに比べて、手書きの入力範囲の制約が少なくて済む。その結果、ユーザが所望する手書きの文字等を入力することができる。   The mobile phone 10 according to the present embodiment detects displacement information of at least two axes of the own device, creates trajectory data indicating the trajectory of the change of the own device as handwritten data based on the detected displacement information, and Some or all of them are displayed. Thus, the handwritten input range in the mobile phone 10 is a range in which the mobile device can be moved, so that there are fewer restrictions on the handwritten input range than conventional input devices such as an input pad. As a result, it is possible to input handwritten characters desired by the user.

次に、携帯電話機10の詳細な構成について図1〜図3を参照して説明する。図3は、本実施形態における携帯電話機10のハードウェア構成の具体例を示している。図示のように、携帯電話機10は、制御部20、入出力部21、および記憶部22を含んでいる。   Next, a detailed configuration of the mobile phone 10 will be described with reference to FIGS. FIG. 3 shows a specific example of the hardware configuration of the mobile phone 10 in the present embodiment. As shown in the figure, the mobile phone 10 includes a control unit 20, an input / output unit 21, and a storage unit 22.

制御部20は、携帯電話機10内の各種構成を統括的に制御するものである。制御部20の機能は、例えばRAM(Random Access Memory)やフラッシュメモリなどの記憶装置に記憶されたプログラムをCPU(Central Processing Unit)が実行することによって実現される。なお、制御部20の詳細については後述する。   The control unit 20 comprehensively controls various components in the mobile phone 10. The function of the control unit 20 is realized by a CPU (Central Processing Unit) executing a program stored in a storage device such as a RAM (Random Access Memory) or a flash memory. Details of the control unit 20 will be described later.

入出力部21は、携帯電話機10の外部と情報の入出力を行うものである。入出力部21は、操作部23、表示部24、画像入力部(撮影部)25、通信部26、音声入力部27、および音声出力部28を含んでいる。   The input / output unit 21 inputs / outputs information from / to the outside of the mobile phone 10. The input / output unit 21 includes an operation unit 23, a display unit 24, an image input unit (imaging unit) 25, a communication unit 26, an audio input unit 27, and an audio output unit 28.

操作部23は、携帯電話機10の表面に設けられた操作ボタン群13などの入力デバイスをユーザが操作することにより、操作データを作成して制御部20に送信するものである。入力デバイスとしては、ボタンスイッチの他にタッチパネルなどが挙げられる。   The operation unit 23 creates operation data and transmits it to the control unit 20 when the user operates an input device such as the operation button group 13 provided on the surface of the mobile phone 10. Examples of the input device include a touch panel in addition to the button switch.

表示部24は、制御部20から画像データを受信し、受信した画像データに基づいて表示画面12に画像を表示するものである。具体的には、表示部24は、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electroluminescence)ディスプレイなどの表示素子と、受信した画像データに基づいて表示素子を駆動するドライバ回路とを含んでいる。   The display unit 24 receives image data from the control unit 20 and displays an image on the display screen 12 based on the received image data. Specifically, the display unit 24 includes a display element such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), and an EL (Electroluminescence) display, and a driver circuit that drives the display element based on received image data. Is included.

画像入力部25は、カメラ16にて撮影された撮影画像の入力を受け付けて、撮影画像データを生成するものである。画像入力部25は、生成した撮影画像データを制御部20に送信する。具体的には、画像入力部25は、カメラ16からの電気信号をRGB各色のデジタル映像データに変換する映像処理回路を含んでいる。   The image input unit 25 receives input of a captured image captured by the camera 16 and generates captured image data. The image input unit 25 transmits the generated captured image data to the control unit 20. Specifically, the image input unit 25 includes a video processing circuit that converts an electrical signal from the camera 16 into digital video data of RGB colors.

通信部26は、外部の装置と通信を行うためのものである。具体的には、通信部26は、アンテナ、通信処理回路などを含んでいる。   The communication unit 26 is for communicating with an external device. Specifically, the communication unit 26 includes an antenna, a communication processing circuit, and the like.

音声入力部27は、外部から入力された音波を、アナログの電気信号である音声信号に変換し、さらに所定のデジタル形式の音声データに変換して、制御部20に送信するものである。具体的には、音声入力部27はマイクロフォン、A/D変換器、音声符号器などを含んでいる。   The voice input unit 27 converts a sound wave input from the outside into a voice signal that is an analog electric signal, further converts the voice signal into a predetermined digital format, and transmits the voice data to the control unit 20. Specifically, the voice input unit 27 includes a microphone, an A / D converter, a voice encoder, and the like.

音声出力部28は、制御部20からの音声データを音声信号に変換し、さらに音波に変換して外部に出力するものである。具体的には、音声出力部28は、音声復号器、D/A変換器、スピーカ、イヤホン、音声出力用コネクタなどを含んでいる。通常、携帯電話機10では、通話を行う場合にはイヤホンが利用され、着信の報知やテレビ電話を行う場合にはスピーカが利用される。また、音楽を聴く場合には、周囲の人々に配慮して、音声出力用コネクタにヘッドホンが接続される。   The audio output unit 28 converts the audio data from the control unit 20 into an audio signal, further converts it into a sound wave, and outputs it to the outside. Specifically, the audio output unit 28 includes an audio decoder, a D / A converter, a speaker, an earphone, an audio output connector, and the like. Normally, the mobile phone 10 uses an earphone when making a call, and a speaker when making an incoming call notification or a videophone call. Also, when listening to music, headphones are connected to the audio output connector in consideration of the surrounding people.

記憶部22は、各種データおよびプログラムを記憶するものである。記憶部22は、制御部20において実行されるプログラムを記憶するプログラム格納領域29と、上記プログラムの中間データまたは他の装置から受信したデータ等を記憶するデータ格納領域30とを含む構成である。具体的には、記憶部22は、読出し専用の半導体メモリであるROM(Read Only Memory)と、ワーキングメモリとしてのRAMとを含んでいる。   The storage unit 22 stores various data and programs. The storage unit 22 includes a program storage area 29 that stores a program executed by the control unit 20 and a data storage area 30 that stores intermediate data of the program or data received from another device. Specifically, the storage unit 22 includes a ROM (Read Only Memory) that is a read-only semiconductor memory and a RAM as a working memory.

なお、上記の構成は、一般的な携帯電話機のハードウェア構成であるが、本発明に係る手書き入力装置のハードウェア構成は、上記に示されるハードウェア構成に限定されない。   Although the above configuration is a hardware configuration of a general mobile phone, the hardware configuration of the handwriting input device according to the present invention is not limited to the hardware configuration shown above.

本実施形態では、入出力部21は、自装置である携帯電話機10の変位を検出する変位検出部(変位検出手段)31を含んでいる。変位検出部31は、検出した変位データを制御部20に送信する。なお、上記変位を検出する方法としては、種々の公知の方法を用いることができる。上記方法の一例としては、位置センサを用いて位置を検出する方法や、2軸以上のジャイロセンサなどを用いて加速度を検出する方法が挙げられる。   In the present embodiment, the input / output unit 21 includes a displacement detection unit (displacement detection means) 31 that detects the displacement of the mobile phone 10 that is the device itself. The displacement detection unit 31 transmits the detected displacement data to the control unit 20. Various known methods can be used as a method for detecting the displacement. As an example of the above method, there is a method of detecting a position using a position sensor or a method of detecting an acceleration using a gyro sensor having two or more axes.

上記方法の他の例としては、特許文献1に記載のように、カメラ16によって撮影された画像から動きベクトルを検出する方法や、カメラ16によって撮影された基準物体の画像から、基準物体との相対位置を検出する方法が挙げられる。この場合、近時、市販の携帯電話機の大部分がカメラ16を有するので、市販の携帯電話機と同様のハードウェア構成で本発明を実現することができる。   As another example of the above method, as described in Patent Document 1, a method of detecting a motion vector from an image captured by the camera 16 or a reference object image from an image of a reference object captured by the camera 16 is described. A method for detecting the relative position is mentioned. In this case, since most of the commercially available mobile phones have the camera 16 recently, the present invention can be realized with the same hardware configuration as that of the commercially available mobile phone.

図1は、携帯電話機10における制御部20および記憶部22の概略構成を示している。図示のように、制御部20は、変位データ取得部(変位検出手段)40、軌跡作成部(軌跡作成手段)41、および表示制御部(表示制御手段)42を含んでいる。また、記憶部22のデータ格納領域30は、軌跡データ格納部30aを含んでいる。   FIG. 1 shows a schematic configuration of the control unit 20 and the storage unit 22 in the mobile phone 10. As shown in the figure, the control unit 20 includes a displacement data acquisition unit (displacement detection unit) 40, a locus creation unit (trajectory creation unit) 41, and a display control unit (display control unit) 42. The data storage area 30 of the storage unit 22 includes a trajectory data storage unit 30a.

変位データ取得部40は、変位検出部31から変位データを取得するものである。変位データ取得部40は、取得した変位データを軌跡作成部41に送信する。   The displacement data acquisition unit 40 acquires displacement data from the displacement detection unit 31. The displacement data acquisition unit 40 transmits the acquired displacement data to the trajectory creation unit 41.

軌跡作成部41は、変位データ取得部40からの変位データに基づき、携帯電話機10の基準位置からの変化の軌跡を示す軌跡データを、手書きデータとして作成するものである。軌跡作成部41は、作成した軌跡データをデータ格納領域30の軌跡データ格納部30aに記憶する。   The trajectory creation unit 41 creates trajectory data indicating the trajectory of change from the reference position of the mobile phone 10 as handwritten data based on the displacement data from the displacement data acquisition unit 40. The trajectory creation unit 41 stores the created trajectory data in the trajectory data storage unit 30 a of the data storage area 30.

なお、基準位置は、携帯電話機10が手書き入力の動作を開始した時点における携帯電話機10の位置とすることが望ましいが、操作ボタン群13の所定のボタンを操作した時点における携帯電話機10の位置とするなど、任意の位置を設定することができる。また、基準位置および変位は、撮影画像上の位置でもよいし、実際の空間上の位置でもよい。さらに、基準位置および変位を示す座標は、デカルト座標でもよいし、極座標のように回転角度を含む座標でもよい。   The reference position is preferably the position of the mobile phone 10 when the mobile phone 10 starts the handwriting input operation. However, the reference position is the same as the position of the mobile phone 10 when a predetermined button of the operation button group 13 is operated. It is possible to set an arbitrary position such as. Further, the reference position and the displacement may be a position on the captured image or a position on an actual space. Further, the coordinates indicating the reference position and the displacement may be Cartesian coordinates or coordinates including a rotation angle such as polar coordinates.

また、軌跡データは、ビットマップデータであってもよいし、ベクトルデータであってもよい。   Further, the trajectory data may be bitmap data or vector data.

表示制御部42は、取得したデータに基づく表示を行うように、表示部24を制御するものである。本実施形態では、表示制御部42は、軌跡データ格納部30aに格納された軌跡データに基づいて、軌跡の一部または全部を手書きの文字等として表示するように表示部24を制御している。これにより、図2の(a)に示すように、携帯電話機10の表示画面12に手書きの文字等が表示される。   The display control unit 42 controls the display unit 24 to perform display based on the acquired data. In the present embodiment, the display control unit 42 controls the display unit 24 to display part or all of the trajectory as handwritten characters or the like based on the trajectory data stored in the trajectory data storage unit 30a. . Thereby, as shown to (a) of FIG. 2, a handwritten character etc. are displayed on the display screen 12 of the mobile telephone 10. FIG.

なお、図2の(a)に示すように、ユーザが軌跡の先端部を容易に認識できるように、軌跡の先端部にポインタを追加表示することが望ましい。なお、ポインタとしては、図2の(a)に示すような照準記号、図7に示すような矢印記号、ペン記号、カーソルなど、任意の記号を選択できる。さらに、カメラ16で撮影した撮影画像を背景画像として表示画面12に表示してもよい。   As shown in FIG. 2A, it is desirable to additionally display a pointer at the tip of the trajectory so that the user can easily recognize the tip of the trajectory. As the pointer, an arbitrary symbol such as an aiming symbol as shown in FIG. 2A, an arrow symbol as shown in FIG. 7, a pen symbol, or a cursor can be selected. Further, a photographed image photographed by the camera 16 may be displayed on the display screen 12 as a background image.

本実施形態では、ユーザが携帯電話機10を移動させることにより、手書きの文字等を入力できるので、タッチパネルやマウスパッドなど入力デバイスに比べて、入力のために移動可能な領域が大幅に拡大することができる。   In the present embodiment, since the user can input handwritten characters by moving the mobile phone 10, the area that can be moved for input is greatly expanded as compared to an input device such as a touch panel or a mouse pad. Can do.

一方、携帯電話機10の移動に伴って、上記軌跡が表示部24の表示領域(表示画面)内からはみ出すことが考えられる。このため、表示制御部42は、上記軌跡の先端が常に表示部24に表示されるように、軌跡データにおける表示領域を移動したり、上記軌跡全体が表示部24に表示されるように、縮小表示したりすることが望ましい。   On the other hand, it is conceivable that the locus protrudes from the display area (display screen) of the display unit 24 as the mobile phone 10 moves. For this reason, the display control unit 42 moves the display area in the trajectory data so that the tip of the trajectory is always displayed on the display unit 24, or reduces the entire trajectory so that the entire trajectory is displayed on the display unit 24. It is desirable to display it.

図4および図5は、文字等の軌跡の移動に伴って表示領域が移動する様子を示している。なお、図示の例では、説明の簡略化のために2軸(X軸、Y軸)の位置センサを用いた例を示している。また、表示領域の座標をローカル座標とし、位置センサからの座標データ(軌跡データ)をグローバル座標としている。   4 and 5 show how the display area moves in accordance with the movement of the trajectory of characters and the like. In the illustrated example, an example using a biaxial (X-axis, Y-axis) position sensor is shown for the sake of simplicity of explanation. In addition, the coordinates of the display area are local coordinates, and the coordinate data (trajectory data) from the position sensor is global coordinates.

すなわち、グローバル座標で示される画像全体が、表示部24に表示するための表示用画像である。また、ローカル座標にて実線で囲まれた領域が表示画面内に表示される表示領域である。   That is, the entire image indicated by the global coordinates is a display image to be displayed on the display unit 24. In addition, an area surrounded by a solid line in local coordinates is a display area displayed on the display screen.

図4および図5を参照すると、軌跡の先端Rが移動する方向に、ローカル座標の原点Gをグローバル座標上で移動させることにより、軌跡の先端Rを表示領域内に納まることが理解できる。従って、ユーザは、文字等を途切れることなく連続して書き続けることができる。なお、このとき、表示画面上では、上記軌跡を含む画像が、上記軌跡の先端Rが移動する方向と反対方向にスクロールすることになる。   4 and 5, it can be understood that the tip R of the locus falls within the display area by moving the origin G of the local coordinates on the global coordinates in the direction in which the tip R of the locus moves. Therefore, the user can continue to write characters and the like continuously without interruption. At this time, on the display screen, the image including the trajectory scrolls in the direction opposite to the direction in which the tip R of the trajectory moves.

上記構成の携帯電話機10における処理動作について図6に基づいて説明する。図6は、手書きの文字等を入力するときに制御部20が行う処理動作を示している。   A processing operation in the mobile phone 10 having the above configuration will be described with reference to FIG. FIG. 6 shows processing operations performed by the control unit 20 when inputting handwritten characters or the like.

図6に示すように、まず、変位データ取得部40が、変位検出部31が検出した変位データを取得する(ステップS10(以下「S10」と略称することがある。他のステップについても同様である。))。次に、取得した変位データに基づいて、軌跡作成部41は、上記軌跡データを手書きデータとして作成し(S11)、作成した軌跡データを記憶部22のデータ格納領域30における軌跡データ格納部30aに記憶する(S12)。次に、表示制御部42は、記憶部22の軌跡データ格納部30aに記憶された軌跡データに基づいて、基準位置からの変化の軌跡を表示部24に表示させる(S13)。その後、ステップS10に戻って上記動作を繰り返す。   As shown in FIG. 6, first, the displacement data acquisition unit 40 acquires the displacement data detected by the displacement detection unit 31 (step S10 (hereinafter sometimes abbreviated as “S10”. The same applies to other steps). is there.)). Next, based on the acquired displacement data, the trajectory creation unit 41 creates the trajectory data as handwritten data (S11), and the created trajectory data is stored in the trajectory data storage unit 30a in the data storage area 30 of the storage unit 22. Store (S12). Next, the display control unit 42 causes the display unit 24 to display a trajectory of change from the reference position based on the trajectory data stored in the trajectory data storage unit 30a of the storage unit 22 (S13). Then, it returns to step S10 and repeats the said operation | movement.

〔実施の形態2〕
次に、本発明の他の実施形態について図8〜図11を参照して説明する。図1〜図7に示される携帯電話機10は、手書きの文字等を入力する描画モードのみを有しているが、本実施形態の携帯電話機10は、さらに、入力された手書きの文字等を消去する消去モードと、入力された手書きの文字等をスクロールさせるスクロールモードとを有している。
[Embodiment 2]
Next, another embodiment of the present invention will be described with reference to FIGS. Although the mobile phone 10 shown in FIGS. 1 to 7 has only a drawing mode for inputting handwritten characters, the mobile phone 10 of the present embodiment further erases input handwritten characters and the like. An erasing mode for scrolling, and a scroll mode for scrolling input handwritten characters and the like.

本実施形態における携帯電話機10は、図1〜図7に示される携帯電話機10に比べて、制御部20の構成が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の機能を有する構成には同一の符号を付して、その説明を省略する。   The mobile phone 10 according to the present embodiment is different from the mobile phone 10 shown in FIGS. 1 to 7 in the configuration of the control unit 20, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure which has the function similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図8は、携帯電話機10における制御部20および記憶部22の概略構成を示している。図示の制御部20および記憶部22には、図1に示す制御部20および記憶部22に比べて、操作データ取得部(動作指示手段)43および軌跡消去部(軌跡消去手段)44が追加され、変位データ取得部40、軌跡作成部41、および表示制御部42の機能が変更されている
操作データ取得部43は、操作部23からの操作データを取得するものである。操作データ取得部43は、取得した操作データに基づいて各ブロックに指示を行う。
FIG. 8 shows a schematic configuration of the control unit 20 and the storage unit 22 in the mobile phone 10. Compared with the control unit 20 and the storage unit 22 shown in FIG. 1, an operation data acquisition unit (operation instruction unit) 43 and a track deletion unit (track deletion unit) 44 are added to the illustrated control unit 20 and storage unit 22. The operation data acquisition unit 43 in which the functions of the displacement data acquisition unit 40, the trajectory creation unit 41, and the display control unit 42 are changed acquires operation data from the operation unit 23. The operation data acquisition unit 43 instructs each block based on the acquired operation data.

本実施形態では、操作データ取得部43は、操作部23にて所定のボタン(例えば図2(a)に示す決定ボタン17)が押されたことを示す操作データを取得すると、上記描画モードに移行し、軌跡作成部41に動作するように指示する。また、操作データ取得部43は、操作部23にて他の所定のボタン(例えば図2(a)に示すクリアボタン18)が押されたことを示す操作データを取得すると、上記消去モードに移行し、軌跡消去部44に動作するように指示する。また、操作データ取得部43は、何れの操作データも取得しない、或いは、上記所定のボタンまたは上記他の所定のボタンが離されたことを示す操作データを取得すると、上記スクロールモードに移行し、表示制御部42にスクロールモードにおける動作を行うように指示する。   In the present embodiment, when the operation data acquisition unit 43 acquires operation data indicating that a predetermined button (for example, the determination button 17 shown in FIG. 2A) has been pressed on the operation unit 23, the operation data acquisition unit 43 enters the drawing mode. The process proceeds to instruct the trajectory creation unit 41 to operate. When the operation data acquisition unit 43 acquires operation data indicating that another predetermined button (for example, the clear button 18 shown in FIG. 2A) has been pressed on the operation unit 23, the operation data acquisition unit 43 shifts to the erasure mode. The trajectory erasing unit 44 is instructed to operate. Further, when the operation data acquisition unit 43 does not acquire any operation data, or acquires operation data indicating that the predetermined button or the other predetermined button is released, the operation data acquisition unit 43 shifts to the scroll mode, Instructs the display control unit 42 to perform an operation in the scroll mode.

変位データ取得部40は、図1に示す変位データ取得部40に比べて、取得した変位データを、軌跡作成部41の他に、軌跡消去部44および表示制御部42にも送信している点が異なり、その他の機能は同様である。   Compared to the displacement data acquisition unit 40 shown in FIG. 1, the displacement data acquisition unit 40 transmits the acquired displacement data to the locus deletion unit 44 and the display control unit 42 in addition to the locus creation unit 41. The other functions are the same.

軌跡作成部41は、図1に示す軌跡作成部41に比べて、操作データ取得部43から描画モードの指示を受け取ったときに動作する点が異なり、その他の機能は同様である。   The trajectory creation unit 41 is different from the trajectory creation unit 41 shown in FIG. 1 in that it operates when it receives a drawing mode instruction from the operation data acquisition unit 43, and the other functions are the same.

軌跡消去部44は、操作データ取得部43から消去モードの指示を受け取ったときに動作するものであり、軌跡データ格納部30aに格納された軌跡データの一部を、変位データ取得部40からの変位データに基づき消去するものである。軌跡消去部44は、一部が消去された軌跡データで軌跡データ格納部30aを更新する。なお、軌跡消去部44が消去する幅は、軌跡作成部41が作成する軌跡の幅よりも広いことが望ましい。   The trajectory erasure unit 44 operates when receiving an instruction of the erasure mode from the operation data acquisition unit 43. A part of the trajectory data stored in the trajectory data storage unit 30a is transferred from the displacement data acquisition unit 40. Erasing is based on the displacement data. The trajectory deletion unit 44 updates the trajectory data storage unit 30a with the trajectory data from which a part has been deleted. The width erased by the trajectory erasing unit 44 is preferably wider than the width of the trajectory created by the trajectory creation unit 41.

表示制御部42は、図1に示す表示制御部42に比べて、操作データ取得部43からスクロールモードの指示を受け取ったときに、変位データ取得部40からの変位データに基づき表示画面12のスクロールを行う点が異なり、その他の機能は同様である。   Compared to the display control unit 42 shown in FIG. 1, the display control unit 42 scrolls the display screen 12 based on the displacement data from the displacement data acquisition unit 40 when receiving an instruction for the scroll mode from the operation data acquisition unit 43. The other functions are the same.

上記の構成によると、ユーザが上記所定のボタンを押しながら携帯電話機10を動かすことにより、軌跡データが作成されて手書き情報が入力されることになる。また、ユーザが上記他の所定のボタンを押しながら携帯電話機10を動かすことにより、対応する軌跡データが消去されて、対応する手書き情報が消去されることになる。そして、ユーザが上記所定のボタンおよび上記他の所定のボタンの何れも押すことなく携帯電話機10を動かすことにより、入力された手書き情報が表示画面12上でスクロールすることになる。   According to the above configuration, when the user moves the mobile phone 10 while pressing the predetermined button, locus data is created and handwritten information is input. Further, when the user moves the mobile phone 10 while pressing the other predetermined button, the corresponding locus data is deleted, and the corresponding handwritten information is deleted. Then, when the user moves the mobile phone 10 without pressing any of the predetermined button and the other predetermined buttons, the input handwritten information is scrolled on the display screen 12.

上記構成の携帯電話機10における処理動作について図9〜図11に基づいて説明する。図9は、制御部20が行う処理動作を示している。   Processing operations in the mobile phone 10 having the above configuration will be described with reference to FIGS. FIG. 9 shows processing operations performed by the control unit 20.

図9に示すように、まず、操作データ取得部43は、操作部23の何れのボタンが押されたかを判断する(S20)。図2の(a)に示す決定ボタン17が押された場合、描画モードに移行し(S21)、同図の(a)に示すクリアボタン18が押された場合、消去モードに移行し(S22)、何れのボタンも押されなかった場合、スクロールモードに移行する(S23)。その後、ステップS20に戻って、上記動作を繰り返す。なお、描画モード(S21)の処理動作は、図6に示す処理動作に比べて、繰返し動作が省略される点が異なり、その他の処理動作は同様である。   As shown in FIG. 9, the operation data acquisition unit 43 first determines which button of the operation unit 23 has been pressed (S20). When the enter button 17 shown in FIG. 2A is pressed, the drawing mode is entered (S21). When the clear button 18 shown in FIG. 2A is pushed, the mode is changed to the erasing mode (S22). ) If none of the buttons are pressed, the process shifts to the scroll mode (S23). Then, it returns to step S20 and repeats the said operation | movement. The processing operation in the drawing mode (S21) is different from the processing operation shown in FIG. 6 in that the repeated operation is omitted, and the other processing operations are the same.

図10は、消去モード(S22)における処理動作を示している。図示のように、まず、変位データ取得部40が、変位検出部31が検出した変位データを取得する(S25)。次に、軌跡消去部44は、記憶部22の軌跡データ格納部30aに記憶された軌跡データのうち、取得した変位データに対応する部分を消去し(S26)、変更後の軌跡データを記憶部22の軌跡データ格納部30aに記憶する(S27)。すなわち、軌跡データ格納部30aに記憶された軌跡データを更新する。   FIG. 10 shows the processing operation in the erase mode (S22). As shown in the figure, first, the displacement data acquisition unit 40 acquires the displacement data detected by the displacement detection unit 31 (S25). Next, the trajectory deletion unit 44 deletes a portion corresponding to the acquired displacement data from the trajectory data stored in the trajectory data storage unit 30a of the storage unit 22 (S26), and stores the changed trajectory data in the storage unit. It memorize | stores in 22 locus | trajectory data storage parts 30a (S27). That is, the trajectory data stored in the trajectory data storage unit 30a is updated.

そして、表示制御部42は、記憶部22の軌跡データ格納部30aに記憶された変更後の軌跡データに基づいて、基準位置からの変化の軌跡を表示部24に表示させる(S28)。その後、消去モード(S22)を終了して、図9に示すルーチンに戻る。   Then, the display control unit 42 causes the display unit 24 to display a trajectory of change from the reference position based on the changed trajectory data stored in the trajectory data storage unit 30a of the storage unit 22 (S28). Thereafter, the erase mode (S22) is terminated and the routine returns to the routine shown in FIG.

図11は、スクロールモード(S23)における処理動作を示している。図示のように、まず、変位データ取得部40が、変位検出部31が検出した変位データを取得する(S30)。次に、表示制御部42は、取得した変位データに基づいて、表示画面12の表示領域(図4・図5を参照)を移動させ(S31)、移動された表示領域に含まれる軌跡を、記憶部22の軌跡データ格納部30aに記憶された軌跡データに基づいて表示部24に表示させる(S32)。その後、スクロールモード(S23)を終了して、図9に示すルーチンに戻る。   FIG. 11 shows the processing operation in the scroll mode (S23). As shown in the drawing, first, the displacement data acquisition unit 40 acquires the displacement data detected by the displacement detection unit 31 (S30). Next, the display control unit 42 moves the display area of the display screen 12 (see FIGS. 4 and 5) based on the acquired displacement data (S31), and the trajectory included in the moved display area is Based on the trajectory data stored in the trajectory data storage unit 30a of the storage unit 22, it is displayed on the display unit 24 (S32). Thereafter, the scroll mode (S23) is terminated, and the routine returns to the routine shown in FIG.

なお、本実施形態では、上記所定のボタンが押されている間、描画モードに移行しているが、上記所定のボタンが押された場合に描画モードに移行し、上記所定のボタンが再び押された場合にスクロールモードに移行してもよい。同様に、本実施形態では、上記他の所定のボタンが押されている間、消去モードに移行しているが、上記他の所定のボタンが押された場合に消去モードに移行し、上記他の所定のボタンが再び押された場合にスクロールモードに移行してもよい。   In this embodiment, the drawing mode is entered while the predetermined button is pressed. However, the drawing mode is entered when the predetermined button is pressed, and the predetermined button is pressed again. In such a case, the scroll mode may be entered. Similarly, in the present embodiment, the mode is shifted to the erase mode while the other predetermined button is pressed. However, when the other predetermined button is pressed, the mode is shifted to the erase mode, and the other When the predetermined button is pressed again, the scroll mode may be entered.

〔利用例1〕
次に、上述のように手書き入力された軌跡データの利用例について、図12〜図16を参照して説明する。
[Usage example 1]
Next, usage examples of trajectory data input by handwriting as described above will be described with reference to FIGS.

図12は、本実施形態の携帯電話機10における軌跡データの一利用例を示している。本利用例では、携帯電話機10は、カメラ16での撮影により作成された撮影画像のデータに、軌跡データを組み込んで外部の通信端末に送信しており、同図は、写真画像を撮影するステップから、文字を入力したデータを送信するステップまでの携帯電話機10の表示画面12の遷移を示している。   FIG. 12 shows an example of usage of trajectory data in the mobile phone 10 of the present embodiment. In this usage example, the mobile phone 10 incorporates the trajectory data into the captured image data created by photographing with the camera 16 and transmits it to an external communication terminal. The transition of the display screen 12 of the mobile phone 10 from the step until the step of transmitting data in which characters are input is shown.

まず、携帯電話機10に備えられたカメラ16で、或る人物を撮影する。すると、図12の(a)に示すように、表示画面12に撮影画像を表示する。次に、所定のボタンを押すことにより描画モードに移行し、ユーザが、例えば「I 記号(ハートマーク) U」と書くように携帯電話機10を移動させる。このとき、表示制御部42は、描画する点を携帯電話機10の表示画面12内に固定し、上記撮影画像を携帯電話機10の移動方向と逆方向にスクロールするように表示部24を制御する。すると、図12の(b)に示すように、上記撮影画像内に、携帯電話機10の移動による軌跡、すなわち「I 記号(ハートマーク) U」という手書きの文字等が追加された画像のデータが作成される。   First, a certain person is photographed by the camera 16 provided in the mobile phone 10. Then, the captured image is displayed on the display screen 12 as shown in FIG. Next, a predetermined button is pressed to shift to the drawing mode, and the user moves the mobile phone 10 to write, for example, “I symbol (heart mark) U”. At this time, the display control unit 42 controls the display unit 24 so that the drawing point is fixed in the display screen 12 of the mobile phone 10 and the captured image is scrolled in the direction opposite to the moving direction of the mobile phone 10. Then, as shown in FIG. 12 (b), data of an image in which a trajectory due to the movement of the mobile phone 10, that is, a handwritten character such as “I symbol (heart symbol) U” or the like is added to the photographed image. Created.

次に、図12の(c)に示すように、送信先のE−mailアドレスと題名とを設定し、送信ボタンを選択すると、図12の(d)に示すように、電子メールを送信する。このとき、上記画像のデータをメッセージ等と共に送信先に送信する。これにより、携帯電話機10は、他の通信端末との間で、手書きの文字等のやりとりを容易に行うことができる。   Next, as shown in FIG. 12 (c), when the destination E-mail address and title are set and the send button is selected, an e-mail is sent as shown in FIG. 12 (d). . At this time, the image data is transmitted to a transmission destination together with a message or the like. Thereby, the mobile phone 10 can easily exchange handwritten characters and the like with other communication terminals.

図13は、図12の(b)に示すような手書きの文字等を入力する場合における表示画面12の表示例を示している。図13の(a)に示すように、撮影画像を半透明表示して、軌跡の先端部に、ペンと該ペンを保持する右手との画像を合成して表示してもよい。   FIG. 13 shows a display example of the display screen 12 when handwritten characters and the like as shown in FIG. As shown in FIG. 13A, the captured image may be displayed semi-transparently, and an image of the pen and the right hand holding the pen may be combined and displayed at the tip of the locus.

また、撮影画像をそのまま表示して、軌跡の先端部に、図13の(b)に示すようなポインタを重畳して表示してもよいし、図13の(c)に示すような筆記具をデフォルメした画像を重畳して表示してもよい。   Further, the captured image may be displayed as it is, and a pointer as shown in FIG. 13B may be superimposed on the tip of the locus, or a writing instrument as shown in FIG. A deformed image may be superimposed and displayed.

〔利用例2〕
本実施形態における携帯電話機10は、動画を撮影すると同時に、手書きの軌跡を「背景と同一の動画像」または「時間情報を伴う座標データ」として記録し、後の再生時に文字等を生成するという動作を再現することができる。
[Usage example 2]
The mobile phone 10 in the present embodiment records a handwritten trajectory as “the same moving image as the background” or “coordinate data with time information” at the same time as shooting a moving image, and generates characters and the like during later playback. The operation can be reproduced.

図14は、時間情報を伴う座標データの一例を表形式で示している。図15は、時間変化にともなう座標変化の一例を示している。ここで、時間情報を伴う座標データとは、時系列に沿った座標指示のデータをいい、例えば、図14の例を用いて説明すると、以下の通りである。   FIG. 14 shows an example of coordinate data with time information in a table format. FIG. 15 shows an example of coordinate changes with time. Here, the coordinate data accompanied by time information refers to coordinate designation data along a time series. For example, the coordinate data is as follows when described with reference to the example of FIG.

図14を参照すると、0ミリ秒の時における軌跡の先端部の座標位置は、(X,Y)=(10,20)であり、モードは座標移動となっている。すなわち、軌跡の先端部の座標位置が(10,20)に合わせられる。次に、10ミリ秒の時における軌跡の先端部の座標位置は(20,30)と指示され、モードは描画モードとなっている。すなわち、(10,20)から(20,30)までは線分が描画される。さらには、20ミリ秒の時における軌跡の先端部の座標位置は(40,50)と指示され、モードは描画モードとなっている。すなわち、(20,30)から(40,50)までは線分が描画される。   Referring to FIG. 14, the coordinate position of the tip of the locus at 0 milliseconds is (X, Y) = (10, 20), and the mode is coordinate movement. That is, the coordinate position of the tip of the locus is set to (10, 20). Next, the coordinate position of the tip of the locus at 10 milliseconds is designated as (20, 30), and the mode is the drawing mode. That is, a line segment is drawn from (10, 20) to (20, 30). Furthermore, the coordinate position of the tip of the locus at 20 milliseconds is indicated as (40, 50), and the mode is the drawing mode. That is, line segments are drawn from (20, 30) to (40, 50).

図14に示すような時間情報を伴う座標データを利用すれば、図15に示すように、文字等の軌跡を描画の順番で表示させることができる。   If coordinate data with time information as shown in FIG. 14 is used, as shown in FIG. 15, the trajectory of characters and the like can be displayed in the drawing order.

以上のように、文字書き込み時の動作を「位置ベクトル+時間データ」として記録し、これらのデータを携帯電話機10の利用者間で送受信することができる。また、チャットにも用いることができる。また、前記時間情報を伴う座標データは、ベクトルをデータとして送信しているため、動画データではあるが、比較的データ量を抑えることができる。   As described above, the operation at the time of writing a character can be recorded as “position vector + time data”, and these data can be transmitted and received between users of the mobile phone 10. It can also be used for chatting. The coordinate data accompanied by the time information is a moving image data because the vector is transmitted as data, but the data amount can be relatively suppressed.

〔利用例3〕
本実施形態における携帯電話機10では、軌跡データを複数の端末間で送受信することができる。図16は、本実施形態の携帯電話機10における他の利用例を示しており、複数の端末間でチャットを行っている場合の携帯電話機10の表示画面12を示している。
[Usage example 3]
In the mobile phone 10 according to the present embodiment, trajectory data can be transmitted and received between a plurality of terminals. FIG. 16 shows another example of use in the mobile phone 10 of the present embodiment, and shows the display screen 12 of the mobile phone 10 when chatting is performed between a plurality of terminals.

図16に示すように、携帯端末Aの利用者が、携帯端末Aの表示画面上に「もうかりまっか?」との手書きの文字を入力し、該文字が入力されたデータを携帯端末Bに送信する。上記データを受信した携帯端末Bの利用者は、同じデータ上に「サッパリですわ。」と異なる手書きの文字を書き込むことができる。   As shown in FIG. 16, the user of the mobile terminal A inputs a handwritten character “Is it already?” On the display screen of the mobile terminal A, and transmits the data with the input character to the mobile terminal B. To do. The user of the portable terminal B that has received the data can write handwritten characters that are different from “simple” on the same data.

上記メッセージの表示位置は、時間的順序に依存しないため、携帯端末Bでは、携帯端末Aによって入力された「もうかりまっか?」という文字上に新たな文字を重ねて入力することができる。また、チャットをするときに、軌跡データだけを送受信してもよいし、背景画像データと共に送受信してもよい。これにより、背景を撮影しながらチャットを行うことができる。   Since the display position of the message does not depend on the temporal order, the mobile terminal B can input a new character over the character “Is it already?” Input by the mobile terminal A. Further, when chatting, only the trajectory data may be transmitted / received or may be transmitted / received together with the background image data. Thereby, it is possible to chat while photographing the background.

また、図15に示すように、手書きの文字等の軌跡を、受信側(携帯端末B)において、送信側(携帯端末A)での入力時の時系列順に表示してもよい。この場合、動的で、かつ、よりリアリティのあるチャットを楽しむことが可能となる。なお、このとき、受信側において、図16に示すような「ペンを保持した手」、または「ペン」の画像を、時系列順に表示中の軌跡の先端に表示すると、よりリアリティが増すので好ましい。   Further, as shown in FIG. 15, the locus of handwritten characters or the like may be displayed on the receiving side (mobile terminal B) in the order of time series at the time of input on the transmitting side (mobile terminal A). In this case, it is possible to enjoy a dynamic and more realistic chat. At this time, on the receiving side, it is preferable to display an image of a “hand holding a pen” or “pen” as shown in FIG. .

また、本実施形態における携帯電話機のような小さい表示画面上においても操作性を落とさずにチャットを行うことが可能である。また、さらには、表示画面が比較的大きく、表示画面上に入力パッドを備えた携帯端末による入力処理と同様の処理を、携帯電話機10のように表示画面12の小さい本実施形態の携帯電話機10でも実現できる。   In addition, even on a small display screen such as a mobile phone in the present embodiment, it is possible to chat without degrading operability. Furthermore, the mobile phone 10 of the present embodiment in which the display screen is relatively large and the processing similar to the input processing by the mobile terminal provided with the input pad on the display screen is small, like the mobile phone 10. But it can be realized.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

最後に、携帯電話機10の各ブロック、特に制御部20は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the mobile phone 10, particularly the control unit 20, may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、携帯電話機10は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである携帯電話機10の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記携帯電話機10に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the mobile phone 10 is a storage device (recording device) such as a CPU that executes instructions of a control program that realizes each function, a ROM that stores the program, a RAM that expands the program, a memory that stores the program and various data, and the like. Medium). An object of the present invention is to provide a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the mobile phone 10 which is software that realizes the above-described functions is recorded in a computer-readable manner, This can also be achieved by supplying the mobile phone 10 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、携帯電話機10を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The mobile phone 10 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

以上のように、本発明に係る手書き入力装置は、自装置を動かすことにより手書き情報の入力が可能であるので、携帯可能な電子デバイスだけでなく、自装置を移動させることができる任意の電子デバイスに適用することができる。   As described above, since the handwriting input device according to the present invention can input handwritten information by moving its own device, not only a portable electronic device but also any electronic device that can move its own device. Can be applied to devices.

本発明の一実施形態である携帯電話機における制御部および記憶部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part and memory | storage part in the mobile telephone which is one Embodiment of this invention. 上記携帯電話機を開いた状態での外観を示す正面図および背面図である。It is the front view and back view which show the external appearance in the state which opened the said mobile telephone. 上記携帯電話機のハードウェア構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of the hardware constitutions of the said mobile telephone. 文字等の軌跡の移動に伴って表示領域が移動する様子を示すグラフである。It is a graph which shows a mode that a display area moves with the movement of locus | trajectories, such as a character. 文字等の軌跡の移動に伴って表示領域が移動する様子を示すグラフである。It is a graph which shows a mode that a display area moves with the movement of locus | trajectories, such as a character. 上記制御部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which the said control part performs. 上記携帯電話機の表示画面に表示されるポインタの例を示す正面図である。It is a front view which shows the example of the pointer displayed on the display screen of the said mobile telephone. 本発明の他の実施形態である携帯電話機における制御部および記憶部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part and memory | storage part in the mobile telephone which is other embodiment of this invention. 上記制御部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which the said control part performs. 消去モードにおいて、上記制御部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which the said control part performs in deletion mode. スクロールモードにおいて、上記制御部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which the said control part performs in scroll mode. 上記携帯電話機が作成する軌跡データの一利用例を示す図である。It is a figure which shows one usage example of the locus | trajectory data which the said mobile telephone produces. 上記軌跡データを作成する場合における表示画面の表示例を示す図である。It is a figure which shows the example of a display of a display screen in the case of producing the said locus | trajectory data. 時間情報を伴う座標データの一例を表形式で示す図である。It is a figure which shows an example of the coordinate data with time information in a table format. 文字等の軌跡を描画の順番で表示できることを示す図である。It is a figure which shows that the locus | trajectory of a character etc. can be displayed in order of drawing. 上記携帯電話機が作成する軌跡データの他の利用例を示す図である。It is a figure which shows the other usage example of the locus | trajectory data which the said mobile telephone produces.

符号の説明Explanation of symbols

10 携帯電話機(手書き入力装置)
12 表示画面
13 操作ボタン群
16 カメラ(撮影部)
17 決定ボタン
18 クリアボタン
20 制御部
21 入出力部
22 記憶部
23 操作部
24 表示部
25 画像入力部(撮影部)
29 プログラム格納領域
30 データ格納領域
30a 軌跡データ格納部
31 変位検出部(変位検出手段)
40 変位データ取得部(変位検出手段)
41 軌跡作成部(軌跡作成手段)
42 表示制御部(表示制御手段)
43 操作データ取得部(動作指示手段)
44 軌跡消去部(軌跡消去手段)
10 Mobile phone (handwriting input device)
12 Display screen 13 Operation button group 16 Camera (shooting unit)
17 OK button 18 Clear button 20 Control unit 21 Input / output unit 22 Storage unit 23 Operation unit 24 Display unit 25 Image input unit (shooting unit)
29 Program storage area 30 Data storage area 30a Trajectory data storage section 31 Displacement detection section (displacement detection means)
40 Displacement data acquisition unit (displacement detection means)
41 Trajectory creation unit (trajectory creation means)
42 Display control unit (display control means)
43 Operation data acquisition unit (operation instruction means)
44 Trajectory elimination unit (trajectory elimination means)

Claims (11)

手書き情報を入力するための手書き入力装置であって、
情報を表示する表示部と、
自装置の少なくとも2軸の変位情報を検出する変位検出手段と、
該変位検出手段が検出した変位情報に基づいて、自装置の変化の軌跡を示す軌跡情報を前記手書き情報として作成する軌跡作成手段と、
前記軌跡の一部または全部を表示するように前記表示部を制御する表示制御手段とを備えることを特徴とする手書き入力装置。
A handwriting input device for inputting handwritten information,
A display for displaying information;
Displacement detecting means for detecting displacement information of at least two axes of the own device;
Based on the displacement information detected by the displacement detection means, trajectory creation means for creating trajectory information indicating the trajectory of change of the device as the handwritten information;
A handwriting input device comprising: display control means for controlling the display unit so as to display part or all of the locus.
情報を記憶する記憶部をさらに備えており、
前記軌跡作成手段は、作成した軌跡情報を前記記憶部に書き込んでおり、
前記表示制御手段は、前記記憶部から前記軌跡の一部または全部を取得することを特徴とする請求項1に記載の手書き入力装置。
A storage unit for storing information;
The trajectory creation means writes the created trajectory information in the storage unit,
The handwriting input apparatus according to claim 1, wherein the display control unit acquires a part or all of the trajectory from the storage unit.
前記変位検出手段が検出した変位情報に基づいて、前記記憶部に記憶された軌跡情報が示す軌跡の一部を消去する軌跡消去手段をさらに備えることを特徴とする請求項2に記載の手書き入力装置。   The handwriting input according to claim 2, further comprising trajectory erasing means for erasing a part of a trajectory indicated by trajectory information stored in the storage unit based on displacement information detected by the displacement detecting means. apparatus. ユーザの操作を受け付ける操作部と、
該操作部における操作に基づいて、前記軌跡作成手段および前記軌跡消去手段の何れか一方が動作するように指示する動作指示手段とをさらに備えることを特徴とする請求項3に記載の手書き入力装置。
An operation unit for receiving user operations;
The handwriting input device according to claim 3, further comprising an operation instruction unit that instructs one of the trajectory creation unit and the trajectory deletion unit to operate based on an operation in the operation unit. .
前記表示制御手段は、前記表示部に表示するための表示用画像のうち、前記表示部の表示画面内に表示される表示領域を、前記変位検出手段が検出した変位情報に基づいて変更するように、前記表示部を制御することを特徴とする請求項1から4までの何れか1項に記載の手書き入力装置。   The display control unit changes a display area displayed in the display screen of the display unit among the display images to be displayed on the display unit based on the displacement information detected by the displacement detection unit. The handwriting input device according to any one of claims 1 to 4, wherein the display unit is controlled. 前記表示制御手段は、前記変位検出手段が検出した変位情報に対応する前記表示用画像の位置が、前記表示画面内に表示されるように、前記表示部を制御することを特徴とする請求項5に記載の手書き入力装置。   The display control unit controls the display unit so that a position of the display image corresponding to the displacement information detected by the displacement detection unit is displayed in the display screen. 5. The handwriting input device according to 5. 撮影を行う撮影部をさらに備えており、
前記変位検出手段は、前記撮影部にて撮影された撮影画像に基づいて、自装置の変位情報を検出することを特徴とする請求項1から6までの何れか1項に記載の手書き入力装置。
It also has a shooting part that takes pictures,
The handwriting input device according to any one of claims 1 to 6, wherein the displacement detection unit detects displacement information of the device itself based on a photographed image photographed by the photographing unit. .
携帯型であることを特徴とする請求項1から7までの何れか1項に記載の手書き入力装置。   The handwriting input device according to any one of claims 1 to 7, wherein the handwriting input device is portable. 請求項1から8までの何れか1項に記載の手書き入力装置を動作させるための手書き入力制御プログラムであって、コンピュータを上記の各手段として機能させるための手書き入力制御プログラム。   A handwriting input control program for operating the handwriting input device according to any one of claims 1 to 8, wherein the computer functions as each of the above means. 請求項9に記載の手書き入力制御プログラムが記録されたコンピュータ読取り可能な記録媒体。   A computer-readable recording medium on which the handwriting input control program according to claim 9 is recorded. 手書き情報を入力するための手書き入力装置であって、情報を表示する表示部を備える手書き入力装置の制御方法において、
自装置の少なくとも2軸の変位情報を検出する変位検出ステップと、
該変位検出ステップにて検出された変位情報に基づいて、自装置の変化の軌跡を示す軌跡情報を前記手書き情報として作成する軌跡作成ステップと、
前記軌跡の一部または全部を表示するように前記表示部を制御する表示制御ステップとを含むことを特徴とする手書き入力装置の制御方法。
In the control method of a handwriting input device for inputting handwritten information, comprising a display unit for displaying information,
A displacement detection step for detecting displacement information of at least two axes of the device;
Based on the displacement information detected in the displacement detecting step, a trajectory creating step for creating trajectory information indicating a trajectory of change of the device as the handwritten information;
A display control step of controlling the display unit so as to display a part or all of the trajectory.
JP2007150995A 2007-06-06 2007-06-06 Handwriting input device, control method thereof, handwriting input control program, and recording medium with the program recorded thereon Pending JP2008305108A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007150995A JP2008305108A (en) 2007-06-06 2007-06-06 Handwriting input device, control method thereof, handwriting input control program, and recording medium with the program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007150995A JP2008305108A (en) 2007-06-06 2007-06-06 Handwriting input device, control method thereof, handwriting input control program, and recording medium with the program recorded thereon

Publications (1)

Publication Number Publication Date
JP2008305108A true JP2008305108A (en) 2008-12-18

Family

ID=40233795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007150995A Pending JP2008305108A (en) 2007-06-06 2007-06-06 Handwriting input device, control method thereof, handwriting input control program, and recording medium with the program recorded thereon

Country Status (1)

Country Link
JP (1) JP2008305108A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081102A (en) * 2008-09-24 2010-04-08 Casio Computer Co Ltd Imaging apparatus, and image processing method and image processing program for the same
JP2011128977A (en) * 2009-12-18 2011-06-30 Aplix Corp Method and system for providing augmented reality
JP2014092902A (en) * 2012-11-02 2014-05-19 Toshiba Corp Electronic apparatus and handwritten document processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049290A (en) * 1996-08-05 1998-02-20 Sony Corp Device and method for processing information
JP2001243012A (en) * 2000-01-18 2001-09-07 Hewlett Packard Co <Hp> Pointing device for display of digital camera
JP2007066180A (en) * 2005-09-01 2007-03-15 Softbank Mobile Corp Method for processing motion trajectory information and personal digital assistant

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049290A (en) * 1996-08-05 1998-02-20 Sony Corp Device and method for processing information
JP2001243012A (en) * 2000-01-18 2001-09-07 Hewlett Packard Co <Hp> Pointing device for display of digital camera
JP2007066180A (en) * 2005-09-01 2007-03-15 Softbank Mobile Corp Method for processing motion trajectory information and personal digital assistant

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081102A (en) * 2008-09-24 2010-04-08 Casio Computer Co Ltd Imaging apparatus, and image processing method and image processing program for the same
JP2011128977A (en) * 2009-12-18 2011-06-30 Aplix Corp Method and system for providing augmented reality
JP2014092902A (en) * 2012-11-02 2014-05-19 Toshiba Corp Electronic apparatus and handwritten document processing method

Similar Documents

Publication Publication Date Title
US11099704B2 (en) Mobile terminal and control method for displaying images from a camera on a touch screen of the mobile terminal
CN110233976B (en) Video synthesis method and device
US9264694B2 (en) Hand-held imaging apparatus and storage medium storing program
KR101472021B1 (en) Mobile terminal equipped with flexible display and controlling method thereof
EP2180676B1 (en) Mobile communication terminal and screen scrolling method thereof
KR102227087B1 (en) Wearable glass-type device and control method of the wearable glass-type device
US8503932B2 (en) Portable communication device and remote motion input device
JP4034796B2 (en) Mobile terminal device
US20090219224A1 (en) Head tracking for enhanced 3d experience using face detection
WO2022083241A1 (en) Information guide method and apparatus
CN110300274B (en) Video file recording method, device and storage medium
KR20170112491A (en) Mobile terminal and method for controlling the same
KR20100027502A (en) A mobile terminal having a flexible display unit and a control method thereof
JP2016062600A (en) Mobile terminal and control method thereof
JP2009042967A (en) Information input display system, information terminal and display device
CN113204672B (en) Resource display method, device, computer equipment and medium
JP2021526267A (en) Mobile terminals and electronic devices equipped with mobile terminals
US20240048819A1 (en) Method for editing materials and terminal
KR20200034528A (en) Mobile terminal
CN112383808A (en) Video playing method, device, terminal and storage medium
JP5649809B2 (en) Multimedia sticky note device
CN113766275B (en) Video editing method, device, terminal and storage medium
WO2021218783A1 (en) Cross-application processing method for multimedia content, and electronic device
CN110992268A (en) Background setting method, device, terminal and storage medium
KR101672215B1 (en) Mobile terminal and operation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110726