[go: up one dir, main page]

JPH04180119A - Locus recognizing and function executing device - Google Patents

Locus recognizing and function executing device

Info

Publication number
JPH04180119A
JPH04180119A JP2307005A JP30700590A JPH04180119A JP H04180119 A JPH04180119 A JP H04180119A JP 2307005 A JP2307005 A JP 2307005A JP 30700590 A JP30700590 A JP 30700590A JP H04180119 A JPH04180119 A JP H04180119A
Authority
JP
Japan
Prior art keywords
command
vector
position data
pointing device
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2307005A
Other languages
Japanese (ja)
Inventor
Kazuhide Nakajima
和英 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2307005A priority Critical patent/JPH04180119A/en
Publication of JPH04180119A publication Critical patent/JPH04180119A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PURPOSE:To attain the input of graphics and simple characters without showing the choices on a display by deciding whether the locus produced by the continuous changes of the position data given from a pointing device corresponds to any of registered loci or not. CONSTITUTION:An operator moves a mouse 16 with push of a stroke command start button 32 and draws one of a triangle, a square, a character 'W', a character 'Z', etc. Thus a CPU 11 of a locus recognizing/function executing device compares the drawn figure with a graphic part of a graphic-command table registered previously. Then the CPU 11 translates the drawn figure into a command to draw a triangle, a square, a broken line, or an ellipse. Then the operator inputs a graphic apex, etc., and a desired graphic is shown on a display 22. Thus the input of graphics, etc., is attained just with operation of a pointing device. Then the plotting and data processing operations can be facilitated.

Description

【発明の詳細な説明】 「産業上の利用分野」 本発明はワークステーションやコンピュータのようにマ
ウス等のポインティング・デバイスを用いて情報の処理
を行うことのできる情報処理装置に使用する機能実行装
置に係わり、特にポインティング・デバイスの操作によ
って生じる軌跡を判別したり、情報処理装置の実行する
機能を指定するようにした軌跡認識および機能実行装置
に関する。
Detailed Description of the Invention "Field of Industrial Application" The present invention relates to a function execution device used in an information processing device such as a workstation or computer that can process information using a pointing device such as a mouse. In particular, the present invention relates to a trajectory recognition and function execution device that determines a trajectory caused by the operation of a pointing device and specifies a function to be executed by an information processing device.

「従来の技術」 例えばワークステーション等の情報処理装置で作画を行
うときには、円や三角形といった作画の対象となる図形
を選択した後に、マウス等のポインティング・デバイス
を操作して位置データを入力し、これらの図形を描画す
るようになっている。
"Prior Art" For example, when drawing on an information processing device such as a workstation, after selecting a figure to be drawn such as a circle or triangle, position data is input by operating a pointing device such as a mouse. These shapes are now drawn.

作画の対象となる図形の選択を行うためには、表示画面
の下の部分等に図形の選択メニューを表示して、これを
テレキーやマウスで選択したり、作画専用のウィンドウ
を表示して、その中の所望の図形を選択する等の手法が
存在した。
To select a shape to draw, display the shape selection menu at the bottom of the display screen and select it with the telekey or mouse, or display a drawing window and select There were methods such as selecting a desired figure from among them.

作画の際の図形の選択に限らず、−船釣に情報処理装置
で各種機能を選択するためにはポインティング・デバイ
スで所望の箇所を選択したり、キーボード上のファンク
ションキーを押したり、キーボード外に配置された専用
のスイッチを選択したり、デイスプレィ上にポツプアッ
プメニューを表示して所望の箇所を選択する等の手法が
存在した。
In addition to selecting shapes when drawing, in order to select various functions on the information processing device when fishing on a boat, you must select the desired location with a pointing device, press a function key on the keyboard, or press a button outside the keyboard. There were methods such as selecting a dedicated switch placed on the screen, or displaying a pop-up menu on the display and selecting the desired location.

「発明が解決しようとする課題」 このうち図形の選択メニューや作画専用のウィンドウあ
るいはポツプアップメニューを表示して選択を行う情報
処理装置では、それぞれメニユーやウィンドウを表示す
る操作と、表示内容から所望のものを選択する操作との
2段階の操作を必要とし、機能の選択までの作業が煩雑
であり、迅速な作業を行うことができないという問題が
あった。
"Problems to be Solved by the Invention" Among these, in information processing devices that display a figure selection menu, a window dedicated to drawing, or a pop-up menu to make a selection, the operation of displaying the menu or window, and the desired This method requires a two-step operation of selecting a function, and the work up to the selection of a function is complicated, and there is a problem in that the work cannot be done quickly.

また、キーボード上のファンクションキーやキーボード
外のスイ、チを押して選択を行うようにした情報処理装
置では、専用のファンクションキーやスイッチを配置す
る必要があり、選択する機能が多くなるとその実現が困
難になるという問題があった。また、この装置では機能
を選択する際にオペレータが視線をデイスプレィから他
の箇所に移動させる必要があり、効率的な操作を行うこ
とができないという問題もあった。
In addition, in information processing devices where selections are made by pressing function keys on the keyboard or switches or keys outside the keyboard, it is necessary to arrange dedicated function keys and switches, which is difficult to achieve when there are many functions to select. There was a problem with becoming. Additionally, this device requires the operator to move his or her line of sight from the display to another location when selecting a function, which poses a problem in that efficient operations cannot be performed.

更にポツプアップメニューから機能を選択するような場
合には、例えば三角形という図形の選択と三角形を描く
ための位置データの人力といった複合した機能選択がで
きないという問題があった。
Furthermore, when selecting a function from a pop-up menu, there is a problem in that it is not possible to select a complex function, such as selecting a figure, such as a triangle, and manually inputting position data to draw the triangle.

そこで本発明の第1の目的は、デイスプレィ上に選択肢
を表示することなく図形や簡単な文字を人力することの
できる軌跡認識装置を提供することにある。
SUMMARY OF THE INVENTION Accordingly, a first object of the present invention is to provide a trajectory recognition device that can manually draw figures and simple characters without displaying options on a display.

本発明の第2の目的は、デイスプレィ上に選択肢を表示
することなくデイスプレィを用いて機能選択を行うこと
のできる機能実行装置を提供することにある。
A second object of the present invention is to provide a function execution device that allows function selection using a display without displaying options on the display.

本発明の第3の目的は、デイスプレィ上に選択肢を表示
することなく複合した機能選択も行うことのできる機能
実行装置を提供することにある。
A third object of the present invention is to provide a function execution device that can also perform complex function selections without displaying options on a display.

「課題を解決するための手段」 請求項1記載の発明では、位置データを人・力するため
のマウス等のポインティング・デバイスと、予め定めら
れた複数の機能のそれぞれに対応させて軌跡を登録した
登録手段と、ポインティング・デバイスから入力された
位置データの連続的な変化によって生じる軌跡が登録手
段に登録された軌跡のいずれに該当するかを判別する判
別手段とを軌跡認識装置に具備させる。
"Means for Solving the Problem" In the invention described in claim 1, a pointing device such as a mouse for manually inputting position data and a trajectory are registered in correspondence with each of a plurality of predetermined functions. The trajectory recognition device is provided with a registration means, and a discrimination means for determining which of the trajectories registered in the registration means corresponds to a trajectory caused by continuous changes in position data input from a pointing device.

そして、請求項1記載の発明ではポインティング・デバ
イスから人力されたデータを予め登録、した軌跡と比較
して、これらの軌跡のいずれが入力されたかを判別し、
これにより図形や簡単な文字の人力を可能にして前記し
た第1の目的を特徴する 請求項2記載の発明では、位置データを入力するための
マウス等のポインティング・デバイスと、予め定tられ
た複数の機能のそれぞれに対応させて軌跡を登録した登
録手段と、ポインティング・デバイスから入力された位
置データの連続的な変化によって生じる軌跡が登録手段
に登録された軌跡のいずれに該当するかを判別する判別
手段と、この判別手段によって判別された軌跡に対応す
る機能の選択を行う機能選択手段とを機能実行装置に具
備させる。
The invention according to claim 1 compares the data input manually from the pointing device with pre-registered trajectories to determine which of these trajectories has been input.
In the invention according to claim 2, characterized in that the above-mentioned first object is achieved by enabling manual input of figures and simple characters, a pointing device such as a mouse for inputting position data, and a pointing device such as a mouse for inputting position data, Determines which of the registration means corresponds to a trajectory registered in correspondence with each of a plurality of functions, and the trajectory registered in the registration means that occurs due to continuous changes in position data input from a pointing device. The function execution device is provided with a discriminating means for determining the function, and a function selecting means for selecting a function corresponding to the trajectory determined by the discriminating means.

そして、請求項2記載の発明では認識された軌跡からど
の機能が指定されたかを判別して機能の選択を可能にし
、前記した第2の目的を達成する。
According to the second aspect of the present invention, it is possible to select a function by determining which function is specified from the recognized locus, thereby achieving the second object.

「実施例」 以下実施例につき本発明の詳細な説明する。"Example" The present invention will be described in detail with reference to Examples below.

第1図は本発明の一実施例における軌跡認識・機能実行
装置の回路構成の要部を表わしたものである。
FIG. 1 shows the main part of the circuit configuration of a trajectory recognition/function execution device in one embodiment of the present invention.

この軌跡認識・機能実行装置はCPU (中央処理装置
)11を備えており、データバス等のバス12を通じて
各種の回路装置と接続されている。
This trajectory recognition/function execution device includes a CPU (central processing unit) 11, and is connected to various circuit devices through a bus 12 such as a data bus.

このうちRAM13はこの軌跡認識・機能実行装置の制
御を行うためのプログラムや機能判別のための各種デー
タを一時的に格納するためのランダム・アクセス・メモ
リである。人力制御部14は、キーボード15や、これ
に接続されたマウス1Gから文章や位置データ等の各種
データの人力を行うための回路である。マウス16は位
置データの人力の他にこの実施例では機能判別用のデー
タも人力することになる。
Of these, the RAM 13 is a random access memory for temporarily storing programs for controlling the locus recognition/function execution device and various data for function determination. The human power control unit 14 is a circuit for manually controlling various data such as text and position data from the keyboard 15 and the mouse 1G connected thereto. In this embodiment, in addition to manually inputting position data, the mouse 16 also manually inputs data for function determination.

ディスク制御部17は、磁気ディスク18との間でデー
タの人出力を制御する回路である。磁気ディスク18に
は、前記したプログラムが格納されており、この他、必
要に応じて文書データやその他の保存すべきデータを格
納することもできる。
The disk control unit 17 is a circuit that controls data output between the magnetic disk 18 and the magnetic disk 18 . The magnetic disk 18 stores the above-mentioned programs, and can also store document data and other data to be saved as needed.

デイスプレィ制御部21は、CRT等のデイスプレィ2
2に対して文字データ等を視覚的に表示させるようにな
っている。プリンタ制御部23は、レーザプリンタ等の
プリンタ24を制御して文書のプリントアウトを行わせ
るようになっている。
The display control unit 21 controls a display 2 such as a CRT.
2, character data etc. are visually displayed. The printer control unit 23 controls a printer 24 such as a laser printer to print out a document.

なお、本実施例の軌跡認識・機能実行装置ではポインテ
ィング・デバイスとしてマウス15を使用しているが、
ジョイスティック、トラックホール等のように位置デー
タの連続的な変化を人力することのできる装置であれば
、他の装置も同様に使用することができる。
Note that although the trajectory recognition/function execution device of this embodiment uses the mouse 15 as a pointing device,
Other devices can be used in the same way as long as they are devices that can manually change position data continuously, such as joysticks, track holes, etc.

ところで、この実施例の軌跡認識・機能実行装置は、次
の3つの過程を経て所望の機能を実現する。
By the way, the trajectory recognition/function execution device of this embodiment realizes a desired function through the following three processes.

(1)データ収集の過程: この軌跡認識・機能実行装置は、マウス16を使用して
カーソルの軌跡に関する位置データを収集することがで
きる。
(1) Process of data collection: This trajectory recognition/function execution device can use the mouse 16 to collect position data regarding the trajectory of the cursor.

第2図は本実施例で使用するマウスを表わしたものであ
る。このように、マウス16には3つのボタン31〜3
3が設けられている。このうちの中央のボタン32はス
トロークコマンド起動ボタンと称されている。マウス1
6を移動させるときに、このストロークコマンド起動ボ
タン32を押すと、この時点からカーソルの軌跡を表わ
した位置データが順次収集される。位置データの収集は
、ストロークコマンド起動ボタン32を離すことで終了
する。
FIG. 2 shows a mouse used in this embodiment. In this way, the mouse 16 has three buttons 31 to 3.
3 is provided. The center button 32 among these is called a stroke command activation button. mouse 1
When the stroke command activation button 32 is pressed when moving the cursor 6, position data representing the trajectory of the cursor is sequentially collected from this point onwards. Collection of position data ends when the stroke command activation button 32 is released.

(i)形判別の過程: 先の過程で求まった位胃データの集合から、誤差によっ
て生じたデータを除いて、有効とされる位置データの集
合を求めることができる。マウス16を用いて三角形の
ように頂点を含んだ形を描いた場合には、人間の手のぶ
れによって頂点に相当する位置データが1か所に複数存
在することがあり得る。このような場合でも正確に形の
判別を行うために、本実施例の軌跡認識・機能実行装置
では(a)まず、ぶれを除いて頂点となる位置データを
確定する。(b)また、このようにして求めた頂点間を
直線で結ぶことによって、人間がマウス16を用いて直
線を描いたときのぶれによる非直線性を修正する。(C
’)そして、頂点間のベクトルを求めることによって形
の判別を可能にする。
(i) Process of shape discrimination: From the set of position data obtained in the previous process, data caused by errors can be removed to obtain a set of position data that is considered valid. When a shape including vertices, such as a triangle, is drawn using the mouse 16, a plurality of position data corresponding to the vertices may exist at one location due to human hand movement. In order to accurately determine the shape even in such a case, the trajectory recognition/function execution device of this embodiment (a) first determines the position data of the apex by removing blur. (b) Furthermore, by connecting the vertices obtained in this manner with a straight line, non-linearity caused by blurring when a human draws a straight line using the mouse 16 is corrected. (C
') Then, the shape can be determined by finding the vector between the vertices.

なお、オペレータが円のような曲線を描いたような場合
には、頂点と見られるような点が通常の図形を描いたと
きよりも多数出現することになる。
Note that when the operator draws a curved line such as a circle, more points that can be seen as vertices appear than when the operator draws a normal figure.

また、頂点を結んで求められたそれぞれの直線の向きの
変化にある法則性が存在する。これにより、実際には頂
点が存在しない図形と、三角形のように頂点が存在する
図形とを区別することができる。
In addition, there is a regularity in the change in direction of each straight line found by connecting the vertices. This makes it possible to distinguish between figures that do not actually have vertices and figures that do have vertices, such as triangles.

(1■)機能実行の過程: オペレータが描いた形が判別されたら、その形に対応す
る機能が選択され、これが実行される。
(1) Process of function execution: Once the shape drawn by the operator is determined, a function corresponding to the shape is selected and executed.

第3図は、この軌跡認識・機能実行装置による機能実行
のための制御の概要を表わしたものである。オペレータ
がストロークコマンド起動ボタン32を押しながらマウ
ス16を机上で動かし、ある形の入力を試みたものとす
る。この場合、まず座標テーブル“PM)″が生成され
る(第3図ステップ■)。ここで座標テーブルとは、マ
ウス16を移動させたことによって採取されたすべての
点の位置データを時間軸上に並べて収容したテーブルを
いう。この明細書で符号“()″はデータの集合を表わ
している。この座標テーブル“P (−)”および後に
述べる他のテーブルは、すべてRAM13上に形成され
る。
FIG. 3 shows an outline of control for function execution by this trajectory recognition/function execution device. Assume that the operator moves the mouse 16 on the desk while pressing the stroke command activation button 32 and tries to input a certain type of input. In this case, first, a coordinate table "PM)" is generated (step (3) in FIG. 3). Here, the coordinate table refers to a table in which position data of all points taken by moving the mouse 16 are arranged and stored on the time axis. In this specification, the symbol "()" represents a set of data. This coordinate table "P (-)" and other tables described later are all formed on the RAM 13.

座標テーブルが作成されたら、それぞれの位置データで
示された点を順に結んで、長さと向きを表わしたベクト
ルを作成する。これらのベクトルは集められてベクトル
テーブル“V()”が生成される(ステップ■)。
Once the coordinate table is created, the points indicated by each position data are connected in order to create a vector representing the length and direction. These vectors are collected to generate a vector table "V()" (step 2).

次に、ある程度近づいているそれぞれの点を集めて、こ
れらの集合を表わした近接点テーブル“N()”を作成
する(ステップ■)。これらの点は、ベクトルテーブル
“V([”に収容された各ベクトルの長さを基準値と比
較することによって抽出することができる。
Next, points that are close to each other to some extent are collected to create a nearby point table "N()" representing a set of these points (step 2). These points can be extracted by comparing the length of each vector contained in the vector table "V([") with a reference value.

次に、この近接点テーブル“N()”に収容されたそれ
ぞれ−まとまりの点の位置が頂点に相当するものとして
、頂点テーブル“T()”を生成する(ステップ■)。
Next, a vertex table "T()" is generated on the assumption that the positions of each group of points stored in this proximity point table "N()" correspond to vertices (step 2).

例えばオペレータがマウス16を操作して三角形を描い
たものとすると、3つの位置に多くの点が集中するので
、3つの頂点を表わしたテーブルが生成されることにな
る。
For example, if the operator operates the mouse 16 to draw a triangle, many points will be concentrated at three positions, so a table representing three vertices will be generated.

このようにして頂点が判別されたら、先のステップ■で
求めた座標テーブル“PC)”におけるそれぞれ頂点近
傍に配置されている複数の点の中からそれぞれ最も適切
と推測される点を選択して、その近傍の点を廃棄する作
業が行われる(ステップ■)。これは頂点を描くときに
手のぶれによって互いに近接した複数の点がサンプリン
グされる事実を配慮したためである。
Once the vertices have been determined in this way, select the point that is estimated to be the most appropriate from among the multiple points placed near the vertices in the coordinate table “PC)” obtained in the previous step ①. , the work of discarding points in its vicinity is performed (step ■). This is to take into account the fact that when drawing vertices, multiple points close to each other are sampled due to hand movement.

頂点の決定が行われたら、廃棄された点を頂点テーブル
“T()”からも削除し、修正された頂点テーブル“T
′ ()”が作成される(ステップ■)。
Once the vertices have been determined, the discarded points are also deleted from the vertex table “T()” and the modified vertex table “T()” is created.
′ ()” is created (step ■).

以上の作業で頂点が確定するので、これらの頂点を順に
結んだ図形を描くことができる。この図形は、次の第1
表に例として示したように、軌跡認識・機能実行装置に
予め登録されている図形−コマント対応表の図形部分と
比較され、一致した図形のコマンドに翻訳される(ステ
ップ■)。
Since the vertices are determined through the above steps, we can draw a figure connecting these vertices in order. This figure is the first of the following
As shown in the table as an example, it is compared with the graphic part of the graphic-command correspondence table registered in advance in the trajectory recognition/function execution device, and translated into a command with a matching graphic (step 2).

(以下余白) 第1表 そして、コマンドへの変換が成功した場合には該当する
コマンドの実行が行われることになる(ステップ■)。
(Left space below) Table 1 If the conversion to a command is successful, the corresponding command will be executed (step ■).

例えばオペレータがマウス16を操作して三角形を描き
、これが認識された場合には三角形を入力するモードに
移行し、オペレータが新たに3点を入力すると、それら
を頂点とした三角形がデイスプレィ22上に表示される
ことになる。
For example, the operator operates the mouse 16 to draw a triangle, and if this is recognized, the mode shifts to a triangle input mode, and when the operator inputs three new points, a triangle with those vertices is displayed on the display 22. It will be displayed.

なお、この軌跡認識・機能実行装置で例えば「三角形を
描く」というコマンドと、「図形の内部を黒く塗り潰す
」というコマンドの合計2つのコマンドを併せて実行さ
せるような場合には、2つのコマンドが人力されるとい
う意味の図形を最初に人力し、この後、2つのコマンド
の図形を順に人力するようにしてもよいし、人力された
コマンドの実行を指示する図形を人力するようにし才も
よい。
In addition, if this trajectory recognition/function execution device is to execute two commands at the same time, for example, a command to "draw a triangle" and a command to "paint the inside of a figure black," the two commands You can first manually create a shape that means that the command is to be manually performed, and then manually create the shapes for the two commands in order. good.

第4図は、座標テーブル“P()”生成の過程を具体的
に表わしたものである。第1図に示したCPUIIはス
トロークコマンド起動ボタン32が押されるかどうかを
監視している(第4図ステップ■)。そして、ストロー
クコマンド起動ボタン32が押されたら(Y) 、RA
MI a内の座標テーブル“PC)”を初期化する(ス
テップ■)。そして、カーソルの位置データ(座標デー
タ)P、、をこのテーブルに書き込む(ステップ■)。
FIG. 4 specifically shows the process of generating the coordinate table "P()". The CPU II shown in FIG. 1 monitors whether the stroke command activation button 32 is pressed (Step 4 in FIG. 4). Then, when the stroke command activation button 32 is pressed (Y), the RA
Initialize the coordinate table "PC" in MI a (step ■). Then, the cursor position data (coordinate data) P, , are written into this table (step ■).

位置データの書き込みはストロークコマンド起動ボタン
32が離されるまで所定の周期で連続的に行われる(ス
テップ■:N)。ストロークコマンド起動ボタン32が
離されると、座標テーブル“P (l”が完成する。
Writing of position data is performed continuously at a predetermined cycle until the stroke command activation button 32 is released (step 2: N). When the stroke command activation button 32 is released, the coordinate table "P(l") is completed.

なお、装置によってはストロークコマンド起動ボタン3
2が押されてから離されるまでの時間を監視し、これが
短すぎるときや長すぎるときには、ボタン操作が目的な
く行われたものとして座標テーブル“PC)”の生成を
無効にするようにしてもよい。
Depending on the device, the stroke command activation button 3
Even if you monitor the time from when 2 is pressed until it is released, and if this is too short or too long, the generation of the coordinate table "PC" is disabled, assuming that the button operation was done without purpose. good.

第5図は、ベクトルテーブル“V()”の生成を具体的
に表わしたものである。まず作業に先立って、RAM1
3内のベクトルテーブル″V()”が初期化され(第5
図ステップ■)、ベクトルの数を表わす数値lが“1m
にセットされる(ステップ■)。そして、座標テーブル
′P()”に収容された2番目の点P2から1番目の点
P1を結んだベクトルV1 が求められる(ステップ■
)。一般に、1番目のベクトルV8 は、次の(1)式
で求めることができる。
FIG. 5 specifically shows the generation of the vector table "V()". First, before starting work, RAM1
The vector table “V()” in 3 is initialized (5th
Figure step ■), the number l representing the number of vectors is “1m
(step ■). Then, a vector V1 connecting the second point P2 and the first point P1 stored in the coordinate table 'P()'' is obtained (step
). Generally, the first vector V8 can be determined by the following equation (1).

V、 =P、。1−Pl   ・・・・・・(1)ベク
トルV1 が求められたら、これをベクトルテーブル“
V()”に収容する(ステップ■)。
V, =P,. 1-Pl... (1) Once the vector V1 is obtained, it is stored in the vector table "
V()” (step ■).

この段階でCPUIIは、数値1が座標テーブル“P(
)”に収容されている点の総数から1だけ減じた数と等
しくなったかどうかをチエツクしくステップ■)、等し
くなっていなければ、まだベクトルを作成することがで
きるので、ステップ■に戻って同様の作業を繰り返しベ
クトルv1 をベクトルテーブル“V()″に追加して
いく(ステップ■〜■)。全ベクトルの処理が終了した
ら(ステップ■;Y)、ベクトルテーブル“V〔)”が
完成する(エンド)。
At this stage, the CPU II determines that the value 1 is in the coordinate table “P(
)", check whether the number is equal to the total number of points accommodated in ``1'' minus 1. If not, you can still create a vector, so go back to step ■ and do the same. Repeat this process to add vector v1 to vector table “V()” (steps ■ to ■). When all vectors have been processed (step ■; Y), vector table “V[)” is completed. (end).

第6図は、近接点テーブル“N()″の生成を具体的に
表わしたものである。まず作業に先立って、RAM13
内の近接点テーブル“N()”が初期化される(第6図
ステップ■〉。次に、ベクトルテーブル“V()”内の
ベクトルの番号を表わした数値lが“1”にセットされ
(ステップ■)、ベクトルv1 が選択される。そして
、このベクトルVl の長さが5画素分以上存在するか
どうかのチエツクが行われる(ステップ■)。
FIG. 6 specifically shows the generation of the proximity point table "N()". First, before starting work, RAM13
The nearby point table "N()" in the vector table "V()" is initialized (step ■ in Figure 6).Next, the numerical value l representing the number of the vector in the vector table "V()" is set to "1". (Step ■), the vector v1 is selected. Then, it is checked whether the length of this vector Vl exists for five pixels or more (Step ■).

本実施例で5画素分以上となっていれば、近接点ではな
いものとして、数値lが座標テーブル“PC)”に収容
されている点の総数から1だけ減じた数と等しくなった
かどうかをチエツクする(ステップ■)。そして、全作
業が終了していないことが判別されたら、数値1を“1
”だけ加算して(ステップ■)、ステップ■に戻り、次
のベクトルについて同様の処理を行う(ステップ■、■
)。
In this example, if it is 5 pixels or more, it is assumed that it is not a nearby point, and it is determined whether the value l is equal to the total number of points stored in the coordinate table "PC" minus 1. Check (step ■). Then, if it is determined that all the work has not been completed, the number 1 is changed to “1”.
” (step ■), return to step ■, and perform the same process for the next vector (steps ■, ■
).

ところで、ステップ■でベクトルV、の長さが4画素以
下となったら、そのベクトルV1 の両端の点は近接点
であると判別される(N)。この場合には、近接点n□
 の“l”を数値1と置いて(ステップ■)、近接点テ
ーブル“N()”にその近接点n、を収容する(ステッ
プ■)。
By the way, if the length of the vector V becomes 4 pixels or less in step (2), the points at both ends of the vector V1 are determined to be adjacent points (N). In this case, the nearby point n□
"l" is set to a numerical value of 1 (step 2), and the nearby point n is stored in the nearby point table "N()" (step 2).

以下同様にして各近接点が近接点テーブル“N()”に
収容され、すべてのベクトルが調べられた段階で(ステ
ップ■;Y)、近接点テーブル“N()”が完成する(
エンド)。
Thereafter, each nearby point is stored in the nearby point table "N()" in the same way, and when all vectors have been examined (step ■; Y), the nearby point table "N()" is completed (
end).

第7図は、頂点テーブル“T()”の生成を具体的に表
わしたものである。この場合にも、まず作業に先立って
、RAM13内の頂点テーブル“T()”が初期化され
る(第6図ステップ■)。次に、ベクトルの数を表わす
数値lが“1”にセットされ(ステップ■)、これが開
始点なので、これを取敢えず第1番目の頂点として頂点
テーブル“T()”に収容する(ステップ■)。
FIG. 7 specifically shows the generation of the vertex table "T()". In this case as well, first, prior to the work, the vertex table "T()" in the RAM 13 is initialized (step (2) in FIG. 6). Next, the number l representing the number of vectors is set to "1" (step ■), and since this is the starting point, it is stored in the vertex table "T()" as the first vertex ( Step ■).

次に1番目のベクトルV1 と(i+1)番目のベクト
ルV、。1の角度の絶対値<ABS)が20度未満であ
るかどうかの判別が行われる(ステップ■)。20度未
満であれば(Y)、数値】が座標テーブル“P()″に
収容されている点の総数から1だけ減じた数と等しくな
ったかどうかをチエツクしくステップ■)、等しくなっ
ていなければ(N)、まだ頂点の検出が終了していない
ので数値】を“1”だけ加算してステップ■に戻る。
Next, the first vector V1 and the (i+1)th vector V. It is determined whether the absolute value of the angle 1<ABS) is less than 20 degrees (step ■). If it is less than 20 degrees (Y), check whether the value] is equal to the total number of points stored in the coordinate table "P()" minus 1 (Step ■), which must be equal. (N), since the detection of vertices has not yet been completed, add "1" to the value and return to step (2).

なお、1番目のベクトルのみが抽出されている段階では
ステップ■で角度の判別ができないが、この場合には2
0度未満であるとして処理し、ステップ■に進ませるよ
うにしている。
Note that the angle cannot be determined in step ■ when only the first vector has been extracted, but in this case
It is processed as being less than 0 degrees, and the process proceeds to step (3).

ところで、ステップ■で2つのベクトルのなす角度が2
0度以上であれば(N)、頂点であると判別し、頂点デ
ータt1 の“1″を数値lと置いて(ステップ■)、
頂点テーブル“T()”に頂点データt、を収容する(
ステップ■)。
By the way, in step ■, the angle between the two vectors is 2.
If it is 0 degrees or more (N), it is determined that it is a vertex, and "1" of the vertex data t1 is set as the value l (step ■),
Store vertex data t in vertex table “T()” (
Step ■).

以下同様にして各頂点データ1.が頂点テーブル“T(
)”に収容され、すべてのベクトルV、が調べられた段
階で(ステップ■;Y)、頂点テーブル“T()”に終
りの点を追加する(ステップ■)。これにより、頂点テ
ーブル“T()”が完成する(エンド)。
Similarly, each vertex data 1. is the vertex table “T(
)” and all vectors V, have been examined (step ■; Y), add the end point to the vertex table “T()” (step ■). As a result, the vertex table “T ()” is completed (end).

第8図は、座標テーブル“P(’)”の頂点ぶれの調整
を具体的に説明するためのものである。
FIG. 8 is a diagram for specifically explaining the adjustment of the vertex deviation of the coordinate table "P(')".

この作業を行うために、CPUIIは座標テーブル“P
()”をコピーして座標テーブル“P′()”を作成す
る(第8図ステップ■)。そして、座標テーブル“P′
 ()”については“ぶれ”による無効なデータを削除
していくことになる。
To perform this task, the CPU II uses the coordinate table “P”.
()" to create the coordinate table "P'()" (Step ■ in Figure 8). Then, the coordinate table "P'
Regarding "()", invalid data due to "shaking" will be deleted.

このため、数値iと数値Jを共に“1″にセットする(
ステップ■)。そして、3番目の点p′、に近接点nj
 の点を設定しくステップ■)、頂点P’(ti)が点
P′、からオペレータの手ぶれによる点であるかどうか
をチエツクする(ステップ■)。本実施例では手ぶれの
範囲を16画素としている。この結果、16画素未滴で
あれば(N)、頂点ぶれによるものとして、座標テーブ
ル“P′ ()”から点P′、を削除する(ステップ■
)。
Therefore, both the numerical value i and the numerical value J are set to "1" (
Step ■). Then, a point nj near the third point p'
Then, it is checked whether the vertex P'(ti) is a point caused by the operator's camera shake from point P' (step 2). In this embodiment, the range of camera shake is set to 16 pixels. As a result, if 16 pixels are undropped (N), the point P' is deleted from the coordinate table "P'()" as it is due to vertex blur (step
).

この作業は、数値Jが 近接点テーブル“N()”の数
に到達しないかぎり、数値Jを“1”ずつ加算しながら
(ステップ■)、すべてのデータが終わるまで繰り返さ
れる(ステップ■〜■)。数値jが 近接点テーブル“
N()”の数に到達したら(ステップ■;Y)、今度は
数値lが頂点テーブル“T()″の数に到達しないかぎ
り数値1が1ずつ加算され(ステップ■)、同様の作業
がデータが終わるまで繰り返される(ステップ■〜■)
This work is repeated until all the data are completed (steps ■ to ). The value j is the proximity point table“
When the number N()" is reached (step ■; Y), the number 1 is added by 1 (step ■) unless the number l reaches the number in the vertex table "T()", and the same operation is performed. Repeated until the data is finished (steps ■~■)
.

−数値1が頂点テーブル“”M  )”の数に到達した
ら(ステップ■;Y)、ぶれの調整された座標テーブル
“P′ ()”を基にして頂点テーブル“T′ ()”
が作成される(ステップ@)。
- When the number 1 reaches the number of the vertex table ""M)" (step ■; Y), the vertex table "T'()" is created based on the blur-adjusted coordinate table "P'()".
is created (step @).

第9図は、頂点テーブル“T′ ()”を基にしてオペ
レータの人力した図形をコマンドに翻訳する作業を具体
的に表わしたものである。
FIG. 9 specifically shows the work of translating a figure manually created by the operator into a command based on the vertex table "T'()".

まず、ベクトルの集合テーブル“C()°を初期化する
。次にCPUIIは頂点テーブル“T′ ()”の数が
2以上存在するかをチエツクする(ステップ■)。頂点
の数が“1”であれば(N)、図形を構成しないので処
理は終了する(エンド)。
First, the vector set table "C()°" is initialized. Next, the CPU II checks whether the number of vertex tables "T'()" is 2 or more (step ■). ” (N), no figure is formed and the process ends (end).

頂点の数が2以上あれば(Y)、数値lを“1”にセッ
トしくステップ■)、2つの頂点間のベクトルの方向(
ti、l)を判別して、これをベクトルの集合テーブル
“C()″に追加する(ステップ■)。このとき、第1
0図に示したようにベクトルの方向を8つの方向に区分
し、それぞれの方向を数値“1″から数値“8”までの
数字に割り当てることにする。
If the number of vertices is 2 or more (Y), set the value l to "1" (Step ■), and set the direction of the vector between the two vertices (
ti, l) is determined and added to the vector set table "C()" (step ■). At this time, the first
As shown in Figure 0, the direction of the vector is divided into eight directions, and each direction is assigned a number from "1" to "8".

ベクトルの方向を追加したら、数値lが1だけ加算され
(ステップ■)、この加算後の数値lが頂点テーブル“
T′ ()”の数よりも小さいかどうかの判別が行われ
る(ステップ■)。そして、これが小さい開はステップ
■に戻って各ベクトルの方向が調べられ、それらの結果
がベクトルの集合テーブル“(1)”に追加される(ス
テップ■〜■)。
After adding the direction of the vector, the value l is added by 1 (step ■), and the value l after this addition is added to the vertex table "
A determination is made as to whether the number is smaller than the number of vectors T'()" (step ■). If this is a small number, the direction of each vector is checked, and the results are stored in the vector set table " (1)” (steps ■ to ■).

数値1が頂点テーブル“T′ 〔)”の数と等しくなっ
たら(ステップ■; Y) 、RAMI 3上に配置さ
れたコマンド名テーブル内にこの数値の列と一致するコ
マンドが存在するかどうかのチエツクが行われる(ステ
ップ■)。次の第2表はコマンド名テーブルの一例を表
わしたものである。
When the number 1 becomes equal to the number in the vertex table "T'[)" (step ■; Y), check whether there is a command that matches this number column in the command name table placed on RAMI 3. A check is performed (step ■). Table 2 below shows an example of a command name table.

(以下余白) 第2表 このコマンド名テーブル内に一致する数値が存在すれば
(Y)、そのコマンドが実行され(ステップ■)、存在
しなければエラーとして処理が終了する(エンド)。
(Left space below) Table 2 If a matching value exists in this command name table (Y), the command is executed (step ■), and if it does not exist, the process ends as an error (end).

「変形例」 第11図は、第1の変形例における段階構造をしたコマ
ンド名テーブルを表わしたものである。
"Modified Example" FIG. 11 shows a command name table with a step structure in the first modified example.

この変形例のコマンド名テーブルは、数値が1桁の第1
のテーブル41と、数値が2桁の第2のテーブル42と
から構成されている。そして、数値が1桁か否かによっ
て参照するテーブル部分の切り換えを行うようになって
いる。
The command name table for this modification is
, and a second table 42 with two-digit numerical values. The table portion to be referred to is switched depending on whether the numerical value is one digit or not.

第12図は、このようなテーブルをもった軌跡認識・機
能実行装置のコマンド解釈の作業内容を表わしたもので
ある。第1図に示したCPUI 1はベクトルの集合テ
ーブル“C()”の数が“1”であるか否かをまずチエ
ツクしく第12図ステップ■)、“1”であれば(Y)
、第1のテーブル41を見て、対応するコマンドを読み
出す(ステップ■)。
FIG. 12 shows the contents of the command interpretation work of a trajectory recognition/function execution device having such a table. The CPU 1 shown in Figure 1 first checks whether the number of the vector set table "C()" is "1" (Figure 12 step ■), and if it is "1" (Y).
, and reads the corresponding command by looking at the first table 41 (step ■).

これに対してベクトルの集合テーブル“C()”の数が
“1”でなければ(N)、第2のテーブル42の検索を
行い、該当する数値が存在すれば(ステップ■;Y)、
この数値に対応するコマンドを読み出す(ステップ■)
。該当する数値が存在しない場合には(N)、コマンド
の読み出しは行われない(エンド)。
On the other hand, if the number of the vector set table "C()" is not "1" (N), the second table 42 is searched, and if the corresponding value exists (step ■; Y),
Read the command corresponding to this number (step ■)
. If the corresponding value does not exist (N), the command is not read (End).

第11図に示した例では2桁の数値が認識されたので、
第2のテーブル42が参照され、“move″(動く)
というコマンドが選択されている。なお、例えば1桁の
数値“3”を第1のテーブルから外しておき、数値“3
”が存在した場合には、第2のテーブルを無条件で参照
するようにしてもよい。
In the example shown in Figure 11, a two-digit number was recognized, so
The second table 42 is referenced and "move"
command is selected. For example, if you remove the one-digit number "3" from the first table,
” exists, the second table may be referred to unconditionally.

この後者の場合には、第2のテーブルは数値“3”で始
まる数値データとコマンドの対が格納されていることに
なる。
In this latter case, the second table stores pairs of numerical data and commands starting with the numerical value "3".

ところで以上説明した実施例では例えば1四角形を描こ
うとしたとき、まず四角形あるいは多角形を描くことを
認識させ、次に4点あるいは対角線上の2点を指定して
4角形を描くことになる。次に説明する第2の変形例で
は、コマンドの人力と図形入力の位置指定を共用して更
に効率を高めようとするものである。
In the embodiment described above, for example, when attempting to draw a quadrilateral, the user is first made aware that a quadrilateral or polygon is to be drawn, and then the quadrilateral is drawn by specifying four points or two diagonal points. A second modification described below attempts to further improve efficiency by sharing the human power of commands and the position designation of graphic input.

第13図は、第2の変形例におけるコマンド名テーブル
の解釈作業の様子を表わしたものである。
FIG. 13 shows how the command name table is interpreted in the second modification.

この作業では、まずベクトルの集合テーブル“C()”
から最後のベクトルC7を削除したベクトルの集合テー
ブル“C′ ()”を求める(ステップ■)。そして、
このベクトルの集合テーブル“C′ ()”に対応する
コマンド名がテーブルに存在するかどうかを判別しくス
テップ■)、存在すればそのコマンド名を読み出す(ス
テップ■)。そして、頂点テーブル“T’  ()”内
の最後に収容された頂点t7を削除した頂点テーブル“
T′ ()”を作成し、この中から最小値と最大値を求
めてこれらを矩形指定のための位置データとする(ステ
ップ■)。そして、得られた2つの頂点j ’h−1s
 t’、、−2を操作指定情報として(ステップ■)、
矩形情報と操作指定情報の合わさったコマンド名の実行
を行う(ステップ■)。
In this work, we first create a vector set table “C()”.
A vector set table "C'()" is obtained by deleting the last vector C7 from (step 2). and,
It is determined whether a command name corresponding to this vector set table "C'()" exists in the table (step (2)), and if so, the command name is read (step (2)). Then, the vertex table “T′ ()” in which the last stored vertex t7 in the vertex table
T′ ()”, find the minimum value and maximum value among them, and use these as position data for specifying the rectangle (step ■).Then, the two obtained vertices j′h−1s
t',,-2 as operation specification information (step ■),
A command name that is a combination of rectangle information and operation specification information is executed (step ■).

一方、ステップ■でコマンド名テーブルにベクトルの集
合テーブル“C′ ()”に対応するコマンド名が存在
しなかった場合には(N)、元のベクトルの集合テーブ
ル“C()”に存在するかどうかのチエツクが行われる
(ステップ■)。
On the other hand, if the command name corresponding to the vector set table "C'()" does not exist in the command name table in step ■ (N), the command name that corresponds to the vector set table "C ()" exists in the original vector set table "C ()". A check is made to see if this is the case (step ■).

そしてそのコマンド名をテーブルから読み出しくステッ
プ■)、頂点テーブル“T′ ()”から最小値と最大
値を求めて、これらを矩形情報とする(ステップ■)。
Then, the command name is read from the table (step (2)), and the minimum and maximum values are determined from the vertex table "T'()" and these are used as rectangle information (step (2)).

そして、得られた2つの頂点i ’ n−1、j’ h
−2を操作指定情報として(ステップ■)、矩形情報と
操作指定情報の合わさったコマンド名の実行を行うこと
になる(ステップ■)。
Then, the two obtained vertices i' n-1, j' h
-2 as operation designation information (step 2), a command name that is a combination of rectangle information and operation designation information is executed (step 2).

以上、矩形について説明したが、三角形等の他の図形に
ついても同様に複合化されたコマンド名で図形作成作業
を実行することができる。
Although rectangles have been described above, the figure creation work can be similarly executed for other figures such as triangles using compound command names.

「発明の効果」 このように請求項1記載の発明によれば、ポインティン
グ・デバイスを操作するだけで図形等の人力を行うこと
ができるので、言語に不案内でも作図やデータ処理を簡
易に行うことができるという利点がある。
"Effects of the Invention" As described above, according to the invention as claimed in claim 1, it is possible to manually draw figures etc. by simply operating a pointing device, so even people who are not familiar with languages can easily perform drawings and data processing. It has the advantage of being able to

また請求項2記載の発明では、認識された図形等に対応
させて機能を実行することにしたので、各種機能を図形
等の視覚的な情報に関係付けて覚えれば、各種作業を効
率的に行うことができる。
Furthermore, in the invention as claimed in claim 2, since functions are executed in correspondence with recognized figures, etc., various tasks can be performed efficiently by remembering various functions in relation to visual information such as figures. It can be carried out.

【図面の簡単な説明】[Brief explanation of the drawing]

N1図〜第10図は本発明の詳細な説明するためのもの
で、このうち第1図は軌跡認識・機能実行装置の回路構
成の概要を示すブロック図、第2図は本実施例で使用す
るマウスの平面図、第3図は軌跡認識・機能実行装置に
よる機能実行のだ約の制御の概要を表わした流れ図、第
4図は座標テーブル”P()”生成の過程を具体的に表
わした流れ図、第5図はベクトルテーブル“V【 )”
の生成を具体的に表わした流れ図、第6図は近接点テー
ブル“N()”の生成を具体的に表わした流れ図、第7
図は頂点テーブル“T()”の生成を具体的に表わした
流れ図、第8図は座標テーブル“P()”の頂点ぶれの
調整を具体的に表わした流れ図、第9図は頂点テーブル
“T′ ()”を基にしてオペレータの人力した図形を
コマンドに翻訳する作業を具体的に表わした流れ図、第
10図はベクトルの方向を数値上対応付けた説明図、第
11図および第12図は本発明の第1の変形例を説明す
るためのもので、このうち第11図はコマンド名テーブ
ルの読み出しの様子を表わした説明図、第12図は軌跡
認識・機能実行装置のコマンド解釈の作業内容を表わし
た流れ図、第13図は本発明の第2の変形例におけるコ
マンド名テーブルの解釈作業の様子を表わした流れ図で
ある。 11・・・・・・CPU、13・・・・・・RAM。 15・・・・・・キーボード、16・・・・・・マウス
、18・・・・・・磁気ディスク、 22・・・・・・デイスプレィ。 出 願 人 富士ゼロックス株式会社 代  理  人  弁理士  山  内  梅  雄第
1図 第3図    第4図 第12図 第6図 第7図 第8図 第9図 第10図 嶌  す  ノ     8  ]  2φ    −
−73 / 条 \    654 第11図 第13図
Figures N1 to 10 are for explaining the present invention in detail. Among them, Figure 1 is a block diagram showing an overview of the circuit configuration of the trajectory recognition/function execution device, and Figure 2 is used in this embodiment. Fig. 3 is a flowchart showing an overview of the control of function execution by the trajectory recognition/function execution device, and Fig. 4 specifically shows the process of generating the coordinate table "P()". Figure 5 shows the vector table “V [ )”
Fig. 6 is a flowchart specifically showing the generation of the nearby point table "N()";
The figure is a flowchart specifically showing the generation of the vertex table "T()", FIG. 8 is a flowchart specifically showing the adjustment of the vertex deviation of the coordinate table "P()", and FIG. Figure 10 is an explanatory diagram showing the numerical correspondence of vector directions, Figures 11 and 12 The figures are for explaining the first modification of the present invention, of which Figure 11 is an explanatory diagram showing how the command name table is read, and Figure 12 is a command interpretation diagram of the trajectory recognition/function execution device. FIG. 13 is a flowchart showing the operation of interpreting the command name table in the second modification of the present invention. 11...CPU, 13...RAM. 15... Keyboard, 16... Mouse, 18... Magnetic disk, 22... Display. Applicant: Fuji Xerox Co., Ltd. Agent: Patent Attorney Umeo Yamauchi
-73 / Article \ 654 Figure 11 Figure 13

Claims (1)

【特許請求の範囲】 1、位置データを入力するためのポインティング・デバ
イスと、 予め定められた複数の機能のそれぞれに対応させて軌跡
を登録した登録手段と、 前記ポインティング・デバイスから入力された位置デー
タの連続的な変化によって生じる軌跡が前記登録手段に
登録された軌跡のいずれに該当するかを判別する判別手
段 とを具備することを特徴とする軌跡認識装置。 2、位置データを入力するためのポインティング・デバ
イスと、 予め定められた複数の機能のそれぞれに対応させて軌跡
を登録した登録手段と、 前記ポインティング・デバイスから入力された位置デー
タの連続的な変化によって生じる軌跡が前記登録手段に
登録された軌跡のいずれに該当するかを判別する判別手
段と、 この判別手段によって判別された軌跡に対応する機能の
選択を行う機能選択手段 とを具備することを特徴とする機能実行装置。
[Claims] 1. A pointing device for inputting position data, a registration means for registering trajectories corresponding to each of a plurality of predetermined functions, and a position input from the pointing device. A trajectory recognition device characterized by comprising: a determining means for determining to which of the trajectories registered in the registration means a trajectory caused by continuous changes in data corresponds. 2. A pointing device for inputting position data, a registration means that registers trajectories corresponding to each of a plurality of predetermined functions, and continuous changes in the position data input from the pointing device. and a function selecting means for selecting a function corresponding to the trajectory determined by the determining means. Characteristic function execution device.
JP2307005A 1990-11-15 1990-11-15 Locus recognizing and function executing device Pending JPH04180119A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2307005A JPH04180119A (en) 1990-11-15 1990-11-15 Locus recognizing and function executing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2307005A JPH04180119A (en) 1990-11-15 1990-11-15 Locus recognizing and function executing device

Publications (1)

Publication Number Publication Date
JPH04180119A true JPH04180119A (en) 1992-06-26

Family

ID=17963874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2307005A Pending JPH04180119A (en) 1990-11-15 1990-11-15 Locus recognizing and function executing device

Country Status (1)

Country Link
JP (1) JPH04180119A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5598187A (en) * 1993-05-13 1997-01-28 Kabushiki Kaisha Toshiba Spatial motion pattern input system and input method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5598187A (en) * 1993-05-13 1997-01-28 Kabushiki Kaisha Toshiba Spatial motion pattern input system and input method

Similar Documents

Publication Publication Date Title
EP0740245B1 (en) Handwritten data and command gesture input method and apparatus
JP3186241B2 (en) Figure editing device
EP0538715A2 (en) Graphics processing system
JP3599198B2 (en) Figure editing device
JPH04180119A (en) Locus recognizing and function executing device
JPH09161088A (en) Information input device
JP3239356B2 (en) Figure editing device
JPH06215089A (en) Color image file managing device
JP4742456B2 (en) Input control method and input control program
JPS62202286A (en) Exemplary image processing device
JP3782467B2 (en) Character input method and apparatus
JPS63157222A (en) Input device for handwritten information
JPH10254675A (en) Data input method and data input device using the method
JP2922900B2 (en) Handwritten character recognition device
JP3342608B2 (en) Font data converter
JP2536948B2 (en) Three-point specified circular arc detection method and device
JPH0362170A (en) Comment input method in cad system
JPH04128794A (en) Graphic editing device
JPH02266484A (en) Information recognizing device
JPS638974A (en) Cad drawing input device
JPH04191972A (en) Editing system for character attribute
JPH059824B2 (en)
JPS63280375A (en) Picture input device
JPH05143770A (en) Handwritten character input area setting device
JPH02110761A (en) How to register commands