[go: up one dir, main page]

JP5661279B2 - User interface system and method for text editing and menu selection - Google Patents

User interface system and method for text editing and menu selection Download PDF

Info

Publication number
JP5661279B2
JP5661279B2 JP2009518347A JP2009518347A JP5661279B2 JP 5661279 B2 JP5661279 B2 JP 5661279B2 JP 2009518347 A JP2009518347 A JP 2009518347A JP 2009518347 A JP2009518347 A JP 2009518347A JP 5661279 B2 JP5661279 B2 JP 5661279B2
Authority
JP
Japan
Prior art keywords
text
user
input
objects
text object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009518347A
Other languages
Japanese (ja)
Other versions
JP2009543209A (en
Inventor
クシュラー、クリフ
Original Assignee
クシュラー、クリフ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/533,714 external-priority patent/US7382358B2/en
Application filed by クシュラー、クリフ filed Critical クシュラー、クリフ
Publication of JP2009543209A publication Critical patent/JP2009543209A/en
Application granted granted Critical
Publication of JP5661279B2 publication Critical patent/JP5661279B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Description

優先権主張
本申請は、仮出願番号第60/718,984号の利益を主張する2006年9月20日に出願された出願番号第11/533,714号の継続出願である。また、本申請はまた、2006年7月3日に出願された仮出願番号第60/806,522号および2007年5月14日に出願された仮出願番号第60/917,849号の利益を主張し、参照により本文中に組み込まれる。
Priority Claim This application is a continuation of application number 11 / 533,714 filed on September 20, 2006, claiming the benefit of provisional application number 60 / 718,984. This application also claims the benefit of provisional application number 60 / 806,522 filed on July 3, 2006 and provisional application number 60 / 917,849 filed on May 14, 2007, Incorporated into the text by reference.

発明の分野
本発明はコンピュータシステムのグラフィカルおよびジェスチャ・ユーザーインターフェースに関連し、より詳しくは、1つ以上の入力装置を使用する入力動作をユーザーが行い、かつ当該入力動作により生成されたデータはコンピュータシステムに入力されるテキストデータに対応する1つ以上の当該ユーザー入力動作として認識するために解析されるところのさまざまなコンピュータシステムに関連したものである。また、本発明は、テキスト入力方法の一部として、またはコンピュータシステムの他の制御機能のために実行するメニュー選択肢について、実行が素早く簡単なシンプルなジェスチャにより選択できる当該の2つ以上のメニューをユーザーに提示するグラフィカルアプローチにも関連する。
The present invention relates to computer system graphical and gesture user interfaces, and more particularly, a user performs an input operation using one or more input devices, and the data generated by the input operation is a computer. It relates to various computer systems that are analyzed to be recognized as one or more user input actions corresponding to text data input to the system. The present invention also provides for two or more such menus that can be selected with a simple gesture that is quick and easy to execute, as part of a text input method or for menu choices performed for other control functions of a computer system. Also relevant to the graphical approach presented to the user.

ユーザーによる、より高速なテキスト入力を可能にするために設計されたテキスト入力システムは豊富にある。一般に、さほど正確性が要求されない場合に所与の一連の行動をより速く実行することが可能であるため、テキスト入力の速度増加は、多くの場合、同程度のシステムで必要とされている基準よりも正確性の低い動作をユーザーが実行できるようにすることで可能となる。一般に、これは、システムにより生成されるテキストオブジェクトの辞書を定義することにより、またユーザーにより実行される入力動作が辞書中の1つ以上のこれらテキストオブジェクトにマッピングされているという原則のもとに、達成される。システムは次に、ユーザーにより実行された(1つ以上の)入力動作を解析し、入力動作の実行によりユーザーに意図されたオブジェクトである可能性が最も高いテキストオブジェクトを決定し、決定されたオブジェクトをその入力動作に対応するテキストとして生成する。その一例は、米国特許番号第6,801,190号においてロビンソン他(Robinson et al)が開示したシステムであり、ユーザーが不正確なタップによりテキストを入力できるバーチャルキーボードに基づくものである。もう1つの例は、言葉と関連付けられた形状プロトタイプのライブラリに比較することによりバーチャルキーボード上でトレースパスの形に基づきワードパターンを認識する「ShapeWriter」システム(米国特許公報US 2004-0120583 A1においてザイ(Zhai)が開示)である。さらに別の例として、米国特許番号第7,098,896号においてクッシュラー他(Kushler et al)が開示したシステムがある。   There are a wealth of text input systems designed to allow users to enter text faster. In general, increasing the speed of text input is often a criterion required by comparable systems because a given sequence of actions can be performed faster when less accuracy is required. This is possible by allowing the user to perform less accurate operations. In general, this is done by defining a dictionary of text objects generated by the system and on the principle that input actions performed by the user are mapped to one or more of these text objects in the dictionary. Achieved. The system then analyzes the input action (s) performed by the user, determines the text object that is most likely the object intended by the user by performing the input action, and determines the determined object Is generated as a text corresponding to the input operation. One example is the system disclosed by Robinson et al in US Pat. No. 6,801,190, which is based on a virtual keyboard that allows the user to enter text with an incorrect tap. Another example is a “ShapeWriter” system that recognizes word patterns based on the shape of a trace path on a virtual keyboard by comparing it to a library of shape prototypes associated with words (US Patent Publication US 2004-0120583 A1). (Disclosed by Zhai). Yet another example is the system disclosed by Kushler et al in US Pat. No. 7,098,896.

他のシステム(例えば、音声認識および手書き文字認識システム)において、ユーザーは、(ロビンソン他(Robinson et al)のバーチャルキーボードの場合と同様に)同一手段で正確性に劣る行動を実行するのではなく、代替「手段」を用いた情報入力によるテキスト入力(すなわち、音声認識システムの場合においては話すこと、手書き文字認識システムの場合においては筆記体で書くこと)が可能となる。この「代替手段」システムにおいて、ユーザーの入力動作(音声認識の場合においては話された言葉、手書き文字認識の場合においては筆記体のテキスト)は、システム辞書中の1つ以上のテキストオブジェクトに対応するよう同様にマッピング(「認識」)される。他のシステムはユーザーにより実行されたテキスト入力動作に本質的にあいまいさをもたらし、ひいてはユーザーにより実行されたテキスト入力動作を辞書中の1つ以上のテキストオブジェクトにマッピングする必要もある。有名な例として、「T9」として商業的に知られている入力システム(米国特許番号第5,818,437号においてグローバー他(Grover et al)が開示)がある。これは、限定数のキーを持つ携帯電話のキーパッドに一般に使用され、標準電話キーの副集合の各キーが個別文字の複数性に関連付けられ、ユーザーが入力するキーシーケンスはその入力シーケンス中のキーに関連付けられた文字に対応する1つ以上の言葉にマッピングされる入力システムである。   In other systems (eg, speech recognition and handwriting recognition systems), users do not perform less accurate actions the same way (as with the Robinson et al virtual keyboard). Thus, text input by information input using an alternative “means” (that is, speaking in the case of a speech recognition system, writing in cursive in the case of a handwritten character recognition system) is possible. In this "alternative means" system, user input actions (spoken words in the case of speech recognition, cursive text in the case of handwritten character recognition) correspond to one or more text objects in the system dictionary Similarly, mapping (“recognition”) is performed. Other systems inherently introduce ambiguity in the text input operations performed by the user, and thus need to map the text input operations performed by the user to one or more text objects in the dictionary. A well-known example is the input system commercially known as “T9” (disclosed by Grover et al in US Pat. No. 5,818,437). This is commonly used for mobile phone keypads with a limited number of keys, where each key in a subset of standard telephone keys is associated with a plurality of individual characters, and the key sequence entered by the user is within that input sequence. An input system that is mapped to one or more words corresponding to the characters associated with the key.

これらさまざまなシステム(以下「入力動作認識システム」)において、ユーザーにより実行される入力動作の性質、およびこれらの入力動作がシステム辞書中のテキストオブジェクトへマッピングされる様態の相違にもかかわらず、入力動作認識システムが一般に共通して持つ特長は多数ある。   In these various systems (hereinafter referred to as “input motion recognition system”), regardless of the nature of the input operations performed by the user and the differences in how these input operations are mapped to text objects in the system dictionary. There are many features that motion recognition systems generally have in common.

1)当該の入力動作認識システムにより特定されるテキストオブジェクトは、生成されたテキストをさらにユーザーが編集できるように、テキストプレゼンテーションシステム(テキストが表示される表示装置の領域として最も一般的に実行される)により出力される。   1) Text objects identified by the input motion recognition system are most commonly implemented as text display systems (display device areas where text is displayed) so that the user can further edit the generated text ) Is output.

2)所与の入力動作(または入力動作のシーケンス)が1つ以上の対応する特定テキストオブジェクトにマッピングされ、その入力動作に最も密接に対応すると判断される特定テキストオブジェクトがそのテキストプレゼンテーションシステムに結果的に出力される場合もある。   2) A given input action (or sequence of input actions) is mapped to one or more corresponding specific text objects, and the specific text object that is determined to most closely correspond to that input action results in that text presentation system May be output automatically.

3)システムは入力動作に合理的に密接であると判断された代替テキストオブジェクト1つ以上の記録(少なくとも限定された最近生成されたテキストオブジェクト)を維持し、出力用に実際に生成されたテキストオブジェクトとこれらの代替テキストオブジェクトを(少なくとも一時的に)関連付けることができる。その代わりまたはそれに加えて、システムは入力動作に関する特定データまたは情報を記録し、このデータを関連付けられた代替テキスト解釈の記録と関連付けること、または後に代替テキストオブジェクトを特定するためにその入力動作に関するこの記録されたデータを再処理することができる。   3) The system maintains a record of one or more alternative text objects (at least limited recently generated text objects) that are determined to be reasonably close to the input behavior, and the actual text generated for output Objects can be associated (at least temporarily) with these alternative text objects. Instead or in addition, the system records specific data or information about the input action and associates this data with the associated alternative text interpretation record, or later on this input action to identify the alternative text object. The recorded data can be reprocessed.

4)入力動作に最も密接に一致すると判断され、テキストプレゼンテーションシステムを通して出力された特定のテキストオブジェクトが、ユーザーが生成を意図したテキストオブジェクトではなく、ユーザーが生成を意図したテキストに正しく対応するように、生成されたテキストをユーザーが編集する必要がある場合もある。   4) Ensure that the specific text object that is determined to most closely match the input behavior and output through the text presentation system correctly corresponds to the text that the user intended to generate, not the text object that the user intended to generate. , The generated text may need to be edited by the user.

5)テキストプレゼンテーションシステム内にはユーザーが生成した次のテキストオブジェクトを挿入するテキスト挿入場所(または位置)がある。これは一般に「カーソル」(時折「カレット」)位置と呼ばれる(以下「テキスト挿入位置」)。   5) There is a text insertion location (or position) in the text presentation system where the next text object generated by the user is inserted. This is commonly referred to as the “cursor” (sometimes “caret”) position (hereinafter “text insertion position”).

6)ユーザーがテキスト挿入位置をテキストプレゼンテーションシステム中の新しい場所へ変更できる手段である、テキスト編集動作(または「ジェスチャ」)がある。過半数のシステムにおいて、テキストプレゼンテーションシステムはディスプレイ上のテキスト出力領域から成る。例えば、マウス使用のシステムでは、この動作は、多分例外なく、テキスト出力領域内で実行されるマウスのシングルクリックである。スタイラス使用のタッチスクリーンシステムでは、この動作は、また多分例外なく、テキスト出力領域内で実行されるスタイラスのシングルタップである。   6) There is a text editing operation (or “gesture”) that is a means by which the user can change the text insertion position to a new location in the text presentation system. In the majority of systems, the text presentation system consists of a text output area on the display. For example, in a mouse-based system, this action is probably a single click of the mouse that is performed within the text output area without exception. In stylus-based touch screen systems, this action is also a single tap of the stylus that is performed in the text output area, perhaps without exception.

7)システムにより処理される文字の分類には、一般に2つの文字クラスがある。1つ目のクラスは、システムにより生成された1つ以上のテキストオブジェクトに有効に使用できる文字から成る(以下「テキストオブジェクト文字」)。二つ目のクラスは、システムにより生成されたテキストオブジェクトに含まれないデリミタ文字としてシステムに処理される1つ以上の文字または文字種から成る(以下「デリミタ」)。デリミタ文字のクラスには、「空白」文字(スペース、タブ、改行等)が非常に一般的に含まれ、他の句読点文字もしばしば含まれる。   7) There are generally two character classes for character classification processed by the system. The first class consists of characters that can be used effectively with one or more text objects generated by the system (hereinafter "text object characters"). The second class consists of one or more characters or character types that are processed by the system as delimiter characters not included in text objects generated by the system (hereinafter “delimiters”). The class of delimiter characters very commonly includes “blank” characters (spaces, tabs, newlines, etc.) and often includes other punctuation characters.

これらの本質的に異なる入力動作認識システム全般の過半数ユーザーにより共有される傾向があるもう1つの特徴は、ユーザーは特定数の「エラー」が起こり始めるまで入力動作をより加速的に(そしてその結果としてより不正確に)行う傾向があることである。その際、エラーとは、システムによりテキストプレゼンテーションシステムに出力されるテキストオブジェクトがユーザーの意図したテキストオブジェクトではない場合である。ほとんどすべてのテキスト編集システムに共通するもう1つの特徴は、ユーザーが実行する任意の編集動作(テキストプレゼンテーションシステムに表示される任意テキストがユーザーの動作により修正される場合)は、編集済みテキストの場所へテキスト挿入位置が再配置される結果になることである。この行動は、テキスト編集の元のマウスとキーボードのモデルで道理に適っていた(かつある意味で回避できなかった)が、上述の入力動作認識システムでは多数の場合、この行動はもはや望ましいものではない。これらのシナリオで必要とされる「テキスト編集」の場合、一般にユーザーは次々と特定テキストを入力しようとしている。その課程のある時点で、ユーザーの先行入力動作の1つ以上がシステムにより「間違って認識された」ために、ユーザーが意図したものではない1つ以上のテキストオブジェクトがテキスト出力領域のどこか前に現れたという事実によって、ユーザーはテキスト出力領域を見て(またはテキストプレゼンテーションシステムを確認して)生成されたテキストが、ユーザーが生成を意図したテキストと何らかの形で異なることに気付く。大抵の場合、ユーザーは間違って認識されたテキストを修正(要するに、そのテキストオブジェクトの生成時にユーザーが実行した当初の入力動作のシステム解釈を「再マップ」または「再編集」)し、現行のテキスト挿入位置で新規テキストの入力を続けることを単に希望する。しかしながら、既存のシステムでは、編集済みテキストの場所へテキスト挿入位置を配置し直さないことには間違って認識されたテキストは一切編集できないという問題が残る。   Another feature that tends to be shared by the majority of users across these disparate input motion recognition systems is that users are more accelerating (and as a result) input motion until a certain number of "errors" begin to occur. As more inaccurate). In this case, an error is when the text object output by the system to the text presentation system is not the text object intended by the user. Another feature common to almost all text editing systems is that any editing action that the user performs (if any text displayed in the text presentation system is modified by the user's action) is the location of the edited text The result is that the text insertion position is rearranged. This behavior was reasonable (and in some ways unavoidable) in the original mouse and keyboard model for text editing, but in many cases in the input motion recognition system described above, this behavior is no longer desirable. Absent. In the case of “text editing” required in these scenarios, the user generally tries to input specific text one after another. At some point in the process, one or more text objects that were not intended by the user were placed somewhere before the text output area because one or more of the user's type-ahead actions were “incorrectly recognized” by the system. Due to the fact that it appears, the user notices that the text generated by looking at the text output area (or checking the text presentation system) is somehow different from the text that the user intended to generate. In most cases, the user corrects the misrecognized text (in other words, "remaps" or "reedits" the system interpretation of the original input action performed by the user when the text object was created) Simply wish to continue entering new text at the insertion position. However, in the existing system, there is a problem that it is impossible to edit any erroneously recognized text unless the text insertion position is relocated to the edited text.

標準のデスクトップコンピュータシステムは、ほぼ例外なくフルサイズのデスクトップ用キーボードおよびマウス(またはトラックボールあるいはグラフィックタブレットデジタイザーなどのマウス同等物)を装備している。結果として、大多数のユーザーはデスクトップシステム上でのキーボードおよびマウスの使用に慣れており比較的に手際が良い。ポータブル、ハンドヘルド機器の場合、デスクトップ用のキーボードおよびマウスはそのサイズおよび平らで比較的安定した表面を必要とすること(標準マウスの場合)から非実用的である。従って、上記の入力動作認識テキスト入力システムの多数はポータブル、ハンドヘルド機器での使用のために特別に開発されたものであるか、または当該機器での使用に特に有用であると大抵考えられている。   Standard desktop computer systems are almost always equipped with full-size desktop keyboards and mice (or mouse equivalents such as trackballs or graphic tablet digitizers). As a result, the majority of users are accustomed to using keyboards and mice on desktop systems and are relatively clever. For portable, handheld devices, desktop keyboards and mice are impractical because of their size and the need for a flat and relatively stable surface (in the case of standard mice). Thus, many of the above input motion recognition text input systems have been developed specifically for use in portable, handheld devices, or are often considered particularly useful for use in such devices. .

ポータブル計算機器は、より強力かつより有用になり続ける。タッチスクリーンは、ポータブル機器に非常に便利で、柔軟性に富み、使いやすいインターフェースであることが立証されている。タッチスクリーン・インターフェースは、タブレットPCなどの大型機器を含め、幅広いポータブル機器に使用されているが、PDAや携帯電話などの小型機器に特に効果的であることが分かっている。当該機器の開発は、機器のさらなる小型化、そしてより容易に、より高速に、かつより使いやすくするという2つの矛盾する目標に主に焦点を当てている。   Portable computing devices continue to become more powerful and more useful. Touch screens have proven to be a very convenient, flexible and easy-to-use interface for portable devices. Touch screen interfaces are used in a wide range of portable devices, including large devices such as tablet PCs, but have proven to be particularly effective in small devices such as PDAs and mobile phones. The development of the device is mainly focused on two contradictory goals: further miniaturization of the device and making it easier, faster and easier to use.

幅広いシステムで共通して使われているユーザーインターフェース・エレメントの1つに、ユーザーに選択肢を提示し、提示した代替項目の中から望ましい回答を選択できるようにすることがある。1つ以上の入力動作について考えられる代替テキスト解釈の一覧をユーザーに提示し、その入力動作を実行する際のユーザーの意図を反映する正しい解釈をユーザーが選択できるようにする必要が多々あるため、このユーザーインターフェース・エレメントは、上記の入力動作認識テキスト入力システムにおいて頻繁に使用されている。タッチスクリーン・インターフェースを使用するシステムにおいて、画面上のメニューの最も自然な操作方法は、単にスタイラスまたは指で希望する選択肢に触れて選択する方法である。メニュー表示に必要とされる表示領域は、表示されている他のエレメントが隠れないように最小化することが好ましい場合が多い。他方、ユーザーが希望のメニュー選択項目に触れて選択することを前提とすると、メニューが小さいほどユーザーはその選択動作をより正確に行わなければならず、従ってそのメニューは使い難くなる。   One user interface element commonly used in a wide range of systems is to present options to the user so that he can select the desired answer from among the alternatives presented. Because you often need to present the user with a list of possible alternative text interpretations for one or more input actions so that the user can select the correct interpretation that reflects the user ’s intention when performing that input action, This user interface element is frequently used in the above input motion recognition text input system. In a system that uses a touch screen interface, the most natural way to navigate the menus on the screen is to simply touch and select the desired option with a stylus or finger. In many cases, it is preferable to minimize the display area required for the menu display so that other displayed elements are not hidden. On the other hand, assuming that the user touches and selects a desired menu selection item, the smaller the menu, the more accurate the user must perform the selection operation, and thus the menu becomes difficult to use.

従って、これらの使用可能性の観点には必然的に緊張関係が生じる。2つ目の同様な考慮点は、もう1つのよく望まれる設計目標が、スタイラスまたはスクリーン操作用に他の特殊な器具の使用を必要とするのではなく、ユーザーが指でタッチスクリーンシステムを使用できるようにすることにあるという事実から生じる。指先はスタイラスよりも一般に正確でなく、ユーザーの指で選択を実行できるメニューの設計には表示メニューをかなり大きくする必要があるため、ここにも同じ緊張関係が生じる。   Therefore, there is inevitably a tension between these usability points of view. The second similar consideration is that another well-desired design goal requires the user to use a touch screen system with their fingers, rather than requiring the use of a stylus or other special instrument for screen operation Stems from the fact that it is in making it possible. A fingertip is generally less accurate than a stylus, and the design of a menu that can perform a selection with the user's finger requires a much larger display menu, so the same tension arises here.

上述の通り、従来の技術においては、タッチスクリーンメニューから一項目を選択するためにユーザーは希望する選択肢に直接触れる必要があった。一部の実施例においては、スタイラス(または指)による画面への最初の接触が希望する選択肢に関連した領域内で起きるようにユーザーがスタイラスの配置を制御する必要がある。他のアプローチでは、ユーザーは一連のアクティブな選択領域内の画面への最初の接触が可能で、希望の選択項目に関連した領域内まで(画面との接触を途切らせることなく)スタイラスを持ち上げずにスライドさせる。一番目のアプローチでは、希望する項目を選択するために最初の接触場所を注意深く制御しなければならず、二番目のアプローチでは、最終接触場所を同様に制御しなければならない。各メニュー選択項目は、表示メニューの所与の二次元領域として表示されるため、いずれのアプローチにおいても、希望のメニュー選択項目を有効にするには、ユーザーは二次元で画面との接触の配置を制御する必要がある。各二次元メニュー領域が小さいほど、ユーザーはその接触動作をより正確に行わなければならず、かつ、一般に、メニュー項目選択を行うためにより長い時間が必要とされる。   As described above, in the prior art, in order to select an item from the touch screen menu, the user has to directly touch a desired option. In some embodiments, the user needs to control the placement of the stylus so that the first touch to the screen with the stylus (or finger) occurs in the area associated with the desired option. In another approach, the user can make initial contact with the screen in a series of active selection areas and lift the stylus into the area associated with the desired selection (without interrupting contact with the screen) Slide without. In the first approach, the first contact location must be carefully controlled to select the desired item, and in the second approach, the final contact location must be controlled as well. Each menu choice is displayed as a given two-dimensional area of the display menu, so in either approach, the user can place the contact with the screen in two dimensions to activate the desired menu choice. Need to control. The smaller each two-dimensional menu area, the more accurately the user must perform its touching action, and generally more time is required to make a menu item selection.

本発明の方法およびシステムは、編集済みテキストの場所にテキスト挿入位置を配置し直さずにユーザーが間違って認識されたテキストを編集できるようにすることにより、入力動作認識テキスト入力システムに関する上記の問題を解決する。一態様では、テキスト出力領域に挿入するテキストを生成すると、本発明のテキスト編集システムはテキスト出力領域内においてテキスト挿入位置を追跡かつ記録し、間違って認識されたテキストの「再編集」の直後にこの位置にテキスト挿入位置を自動的に復元できるようにする。   The method and system of the present invention addresses the above-described problems with input motion-aware text input systems by allowing a user to edit misrecognized text without repositioning the text insertion position at the edited text location. To solve. In one aspect, when generating text to be inserted into a text output area, the text editing system of the present invention tracks and records the text insertion position in the text output area, immediately after "reediting" the misrecognized text. The text insertion position can be automatically restored at this position.

また別の態様では、本システムはテキスト挿入位置をテキスト出力領域内の新しい場所へ変更するために使用されるものとは異なるテキストを編集するユーザー動作(または「ジェスチャ」)を定義し、そのシステムにおいてこの独自のテキスト編集ユーザー動作はユーザーが以前に生成された(しかし間違って認識された)テキストオブジェクトを出力用に実際に生成されたテキストオブジェクトと関連した代替テキストオブジェクトの1つに変更したいことを示すために実行される(以下「再編集」ジェスチャ)。例えば、スタイラスを一回タップすることによってテキスト出力領域内における新しい場所へテキスト挿入位置を変更する、スタイラス使用のタッチスクリーンシステムにおいて、特有の再編集ジェスチャはテキスト出力領域内の以前に出力されたテキストオブジェクトの近くで起こる、スタイラスの「ダブルタップ」(連続した二回のタップ間の閾値最大時間間隔を超えない閾値の時間間隔内の二回のタップ)として定義できる。以前に出力されたテキストオブジェクトと関連付けられた領域内でユーザーが再編集ジェスチャを実行したことをシステムが検出すると、そのテキストオブジェクトは当初のテキストオブジェクト(デフォルト選択またはユーザーにより実行された選択のいずれか)を生成させた1つ以上の入力動作に関連した代替テキストオブジェクトの選択された1つによりそのテキスト出力領域において置換され、テキスト挿入位置は以前の位置(再編集ジェスチャの検出前)に自動的に復元される。   In yet another aspect, the system defines a user action (or “gesture”) that edits text that is different from that used to change the text insertion position to a new location in the text output area. This unique text editing user behavior is that the user wants to change a previously generated (but incorrectly recognized) text object to one of the alternative text objects associated with the actual text object generated for output. (Hereinafter referred to as a “reedit” gesture). For example, in a touch screen system using a stylus that changes the text insertion position to a new location in the text output area by tapping the stylus once, the unique re-edit gesture is the previously output text in the text output area. It can be defined as a stylus "double tap" (two taps within a threshold time interval that does not exceed the threshold maximum time interval between two consecutive taps) that occurs near the object. When the system detects that the user has performed a re-edit gesture within the area associated with a previously output text object, the text object is either the original text object (either the default selection or the selection performed by the user) ) Is replaced in the text output area by the selected one of the alternative text objects associated with the one or more input actions that generated the text, and the text insertion position is automatically set to the previous position (before re-editing gesture detection) To be restored.

元のテキストオブジェクトを置換する代替テキストオブジェクトがユーザーによって選択される場合、しばしば最も有効なユーザーインターフェースでは希望のテキストオブジェクトを選択するための代替テキストオブジェクトのメニューをユーザーに提示する。本発明ではさらに、希望のメニュー選択項目に関連した二次元メニュー領域内で始まるかまたは終了するように、画面接触動作を制御することなくユーザーが選択メニューから選択できるようにすることでスピードと容易性を高めた。代わりに、ユーザーの画面接触動作によって有効となるメニュー選択項目は、接触動作の経路が交差するメニューの最外部の境界セグメントによって決定される、ここでメニュー境界の各セグメントは、メニュー選択項目の1つに関連している。このアプローチでは、最初の接触は表示メニュー内のどこででも発生し得るものであり、および開始(あるいは終了)は特定の希望するテキストオブジェクトに関連した(あるいは関連していると思われる)領域内に制限されない。2つ以上の可能な選択肢の間で選択される必要がある場合はいつでも、本発明のメニュー選択システムを使用することでさらに効果的なものとなる。   When an alternative text object that replaces the original text object is selected by the user, the most effective user interface often presents the user with a menu of alternative text objects for selecting the desired text object. The present invention further provides speed and ease by allowing the user to select from the selection menu without controlling the screen touch action to begin or end within the two-dimensional menu area associated with the desired menu selection. Increased sex. Instead, the menu choices that are enabled by the user's screen touch action are determined by the outermost border segment of the menu that the touch action path intersects, where each segment of the menu border is one of the menu choices. Related to one. In this approach, the first touch can occur anywhere in the display menu, and the start (or end) is in an area associated with (or likely to be associated with) a particular desired text object. Not limited. Whenever it is necessary to choose between two or more possible choices, it will be more effective using the menu selection system of the present invention.

本発明の実施形態を次の図面を参照して以下に詳述する。
図1は、図2A、2B、並びに2Cおよび図3A、3B並びに3Cに示す本発明のテキスト編集およびメニュー選択システムの方法を具体化するシステムの典型的なハードウェア・コンポーネントを示すシステムブロック構成図である。 図2Aは、本発明の方法の一態様に従い再編集されたテキストオブジェクトの一例を示す図である。 図2Bは、本発明の方法の一態様に従い内1つが再編集された2つの連結テキストオブジェクトの一例を示す図である。 図2Cは、図2Bで示した2つの連結オブジェクトの内1つを本発明の方法の一態様に従い再編集した結果の一例を示す図である。 図3Aは、本発明の方法の利点を有する1つの方法で構成されたメニューの一例を示す図である。 図3Bは、本発明の方法の利点を有する1つの方法で構成されたメニューの一例を示す図であり、ここで提示された2つの選択は、ユーザーが意図した選択に対応する事前確率が低い。 図3Cは、本発明の方法の利点を有する1つの方法で構成されたメニューの一例を示す図であり、提示された選択のそれぞれに関連するメニューの境界セグメントは、提示された選択および関連した境界セグメントの背景の色、濃淡またはテクスチャの使用に対応して示される。 図4は、本発明の方法の利点を有する1つの方法で構成されたメニュー上の接触動作の一例を示す図である。 図5は、本発明の方法の利点を有する1つの方法で構成されたメニューの一例を示す図であり、提示される選択数の増加を可能にする。 図6は、図5に示された方法で構成されるメニューの一例を示し、ここでは類似の選択ジェスチャによって選択可能なメニュー選択項目のセットを示すために類似の背景色が使用される。
Embodiments of the present invention will be described in detail below with reference to the following drawings.
FIG. 1 is a system block diagram illustrating exemplary hardware components of a system embodying the method of text editing and menu selection system of the present invention shown in FIGS. 2A, 2B and 2C and FIGS. 3A, 3B and 3C. It is. FIG. 2A is a diagram illustrating an example of a text object that has been re-edited according to an aspect of the method of the present invention. FIG. 2B is a diagram illustrating an example of two linked text objects, one of which has been re-edited according to an aspect of the method of the present invention. FIG. 2C is a diagram showing an example of a result of re-editing one of the two linked objects shown in FIG. 2B according to an aspect of the method of the present invention. FIG. 3A is a diagram illustrating an example of a menu configured in one way that has the advantages of the method of the present invention. FIG. 3B shows an example of a menu organized in one way that has the advantages of the method of the present invention, and the two choices presented here have a low prior probability corresponding to the choice intended by the user . FIG. 3C is a diagram illustrating an example of a menu organized in one way that has the advantages of the method of the present invention, where the menu's border segment associated with each of the presented choices is related to the presented choice and associated Boundary segment background color, tint, or texture usage is shown. FIG. 4 is a diagram illustrating an example of a touch action on a menu configured in one way that has the advantages of the method of the present invention. FIG. 5 is a diagram illustrating an example of a menu configured in one way that has the advantages of the method of the present invention, allowing an increase in the number of selections presented. FIG. 6 shows an example of a menu constructed in the manner shown in FIG. 5, where a similar background color is used to indicate a set of menu choices that can be selected by a similar selection gesture.

本発明のシステムは、テキストの入力および編集のユーザープロセスを不必要に妨げずに、入力動作認識システムによって間違って認識されたテキストの訂正という目標をユーザーが実現することを可能にする。意図した単語または語句が間違って認識される場合(1つ以上の入力動作が、入力動作を行ったユーザーが意図したものではないテキストに「マッピングされた」場合)、ユーザーはシステムの誤認識を訂正しなければならないが、この訂正はユーザーの意図したテキストを変更または編集するというユーザーの意図を反映せず、どちらかというと、テキストオブジェクトが生成された際にユーザーが行った当初の入力動作(単数または複数)のシステム解釈の「再マップ」または「再編集」を行うためのものである。ユーザーがシステムによる1つ以上の以前の入力動作の誤認識に気いた場合、本発明のシステムはユーザーが誤認識されたテキストを訂正することを可能にし、その後テキスト挿入位置が元の位置に自動的に戻るため、最小の努力でテキスト挿入位置の元の位置でテキストを引き続き入力することを可能にする。   The system of the present invention allows the user to achieve the goal of correcting text that is misrecognized by the input motion recognition system without unnecessarily hindering the user process of text input and editing. If the intended word or phrase is misrecognized (one or more input actions are “mapped” to text that was not intended by the user who performed the input action), the user may misrecognize the system Although it must be corrected, this correction does not reflect the user's intention to change or edit the user's intended text, or rather the original input action performed by the user when the text object was created. This is for performing "remapping" or "reediting" of system interpretation (s). If the user is concerned about misrecognition of one or more previous input actions by the system, the system of the present invention allows the user to correct the misrecognized text and then automatically inserts the text into the original position. This allows the user to continue to enter text at the original text insertion position with minimal effort.

一態様では、ユーザーがテキスト出力領域中に挿入されるテキストを生成するに従って、適切な場合に、テキスト入力位置が自動的にこの位置に戻れるように、システムはテキスト出力領域内のテキスト入力位置を追跡および記録する。別の態様では、システムは、テキスト出力領域中の新しい場所へテキスト入力位置を変更するために使用される場合とは異なる、テキスト編集ユーザー動作(あるいは「ジェスチャ」)を定義し、およびここでこの独自のテキスト編集ユーザー動作は、ユーザーが以前に生成された(しかし間違って認識された)テキストオブジェクトを、出力用に実際に生成されたテキストオブジェクトに関連した代替テキストオブジェクトの1つに変更したいことを示すために実行される(以下「再編集」ジェスチャ)。例えば、テキスト出力領域内の新しい場所へテキスト入力位置を変更するためにスタイラスのシングルタップが実行されるスタイラスベースのタッチスクリーンでは、独特な再編集ジェスチャはテキスト出力領域中の以前の出力テキストオブジェクト近辺でのスタイラスのダブルタップとして定義できる。ユーザーが以前に出力したテキストオブジェクトに関連した領域で再編集ジェスチャを実行したことをシステムが検出すると、テキストオブジェクトは関連した代替テキストオブジェクトの1つにテキスト出力領域で置換される(下記のように)、そしてテキスト入力位置は以前の位置(再編集ジェスチャの検出前)に自動的に復元される。   In one aspect, as the user generates text to be inserted into the text output area, the system can change the text input position in the text output area so that the text input position can automatically return to this position, if appropriate. Track and record. In another aspect, the system defines a text editing user action (or “gesture”) that is different from that used to change the text input position to a new location in the text output area, and this The unique text editing user behavior is that the user wants to change a previously generated (but incorrectly recognized) text object to one of the alternative text objects associated with the text object actually generated for output (Hereinafter referred to as a “reedit” gesture). For example, on a stylus-based touchscreen where a stylus single tap is performed to change the text input position to a new location in the text output area, a unique re-edit gesture is near the previous output text object in the text output area. Can be defined as a double tap on the stylus. When the system detects that the user has performed a re-edit gesture on an area associated with a previously output text object, the text object is replaced in the text output area with one of the associated alternative text objects (as shown below) ), And the text input position is automatically restored to the previous position (before detection of the re-edit gesture).

本発明の以下のさまざまな観点の記述および実施形態では、特定の態様または実施形態がしばしば記述され、スタイラスベースのタッチスクリーンに実装されている文脈で例示される。しかしながら、これらのさまざまな態様および実施形態は、標準マウスおよびキーボードを使用して入力動作が実行されるシステム、スタイラスの使用を必要としないタッチスクリーンシステム、マウスの代替形式(例えば、ユーザーが注視しているスクリーン位置を決定するためにユーザーの目の動きを追跡し、システムマウスカーソルをその位置に自動的に位置させ、および瞬きの監視またはその他のメカニズムでユーザーにさまざまなマウスクリックを行うことを可能にする「視線」システム)、音声コマンドベースのシステム、または、ユーザーにテキストを生成するための入力動作の実行および/またはすでに入力されたテキストの編集動作の実行を可能にする他の手段を使用するシステムに同等に適用できることは当業者には明白であろう。   In the following description and embodiments of the various aspects of the invention, particular aspects or embodiments are often described and illustrated in the context of implementation in a stylus-based touch screen. However, these various aspects and embodiments may be used in systems where input operations are performed using a standard mouse and keyboard, touch screen systems that do not require the use of a stylus, alternative forms of mice (e.g., To track the user's eye movements to determine the screen position they are in, automatically position the system mouse cursor at that position, and perform various mouse clicks to the user with blink monitoring or other mechanisms A “line-of-sight” system), a voice command-based system, or other means that allow the user to perform input actions to generate text and / or perform edit actions on text that has already been entered It will be clear to those skilled in the art that the present invention is equally applicable to the system used Will.

別の態様では、システムはユーザーに編集される単語をハイライトすることで(あるいは単語の境界に隣接するまたはその中のテキスト挿入位置を示すことで)、再編集のために出力されたテキスト中の単語を選択することを可能にし、その後、指定された「再編集」編集ファンクションキーを有効にする(この場合、システムは、ファンクションを有効にするために実行されたテキスト挿入位置を再配置以前の位置に復元するために、テキスト挿入位置の以前の2つの配置を追跡しなければならない。別の態様では、できるだけ効率的にそのような認識エラーの訂正プロセスを行うために、システムは、いつ出力テキスト領域中で再編集ジェスチャが実行されるかを認識し、およびあらかじめ定められたスタイラス動作またはジェスチャが実行された場所に最も近い出力テキスト領域中の単語を再編集用の標的単語として特定する。一実施形態では、前の実施例で言及したように、あらかじめ定められた編集動作は、タッチスクリーン上に表示される単語上のスタイラスの「ダブルタップ」である。別の実施形態では(例えば、マウスなどのカーソル移動制御装置を使用してシステムが動作する場合)、あらかじめ定められた編集動作は(例えば)編集される単語上でマウスを一時的に静止させ、その後マウスを素早く前後に一度動かす(これは単に例示的なジェスチャであって、多くのこのようなジェスチャが定義され得る)。   In another aspect, the system highlights the word to be edited by the user (or indicates the text insertion position adjacent to or within the word boundary) in the text output for re-editing. Enables the selected word and then activates the specified "reedit" editing function key (in this case, the system previously repositioned the text insertion position performed to activate the function In order to restore such a recognition error correction process as efficiently as possible, the system must keep track of the previous two placements of the text insertion position. Recognizes whether a re-edit gesture is performed in the output text area and performs a predetermined stylus action or gesture The word in the output text region that is closest to where it was placed is identified as the target word for re-editing, In one embodiment, as noted in the previous example, the predetermined editing action is performed on the touch screen. A “double tap” of the stylus on the word displayed in 2. In another embodiment (eg, when the system operates using a cursor movement control device such as a mouse), the predetermined editing action is ( For example, temporarily pause the mouse over the word being edited and then quickly move the mouse back and forth once (this is just an example gesture and many such gestures can be defined).

また別の実施形態では、再編集ジェスチャにおいて、複数の単語を1つのジェスチャで選択できるように定義しているものがある。例えば、音声認識システムにおける認識エラーは通常、生成された出力における1つ以上の単語に影響する。例として、ユーザーが「音声を認識するのは難しい」と発声したのに対し、システムが生成した出力は、「混成を任じ指揮するのは難しい」となる場合などである。このようなシステムでは、再編集ジェスチャは、例えば、一連の単語に下線が引かれることで定義される。上の例では、「混成を任じ」という語句に下線が引かれる。その後システムは、「するのは難しい」に相当する発声部分の解釈は変更せずに、発声に関連付けられた1つ以上の代替解釈を生成するこの同じアプローチは、手書き文字認識システムへも適用される。同システムにおいても、ユーザーの手書き文字の区切りを間違え、1つの単語を2つ以上の単語に解釈したことなどにより多くの認識エラーが生じる。もちろん、再編集する一連の語句を円で囲むなど、他の再編集ジェスチャも定義可能であり、これらは本発明の範囲外とみなされるものではない。例えば、音声認識システムにおいて、コマンドの発声により再編集「ジェスチャ」を定義することもできる。上の例では、「再編集:混声を任じ指揮する」などと発音することである。   In another embodiment, a re-editing gesture may be defined so that a plurality of words can be selected with one gesture. For example, recognition errors in a speech recognition system typically affect one or more words in the generated output. For example, the user may say “It is difficult to recognize speech”, but the output generated by the system is “It is difficult to delegate and command”. In such a system, a re-edit gesture is defined, for example, by underlining a series of words. In the example above, the phrase “Mix hybrid” is underlined. This same approach, in which the system then generates one or more alternative interpretations associated with the utterance, without changing the interpretation of the utterance corresponding to “difficult to do” applies to handwritten character recognition systems. The Even in this system, many recognition errors occur due to mistakes in the handwriting of the user's handwriting and interpretation of one word into two or more words. Of course, other re-editing gestures can be defined, such as circles of a series of words to be re-edited, and these are not considered outside the scope of the present invention. For example, in a speech recognition system, a re-edit “gesture” can be defined by uttering a command. In the above example, it is pronounced as “re-editing: commanding mixed voice”.

一態様では、システムは、直近で出力したテキストオブジェクトの1つ以上の入力動作に最も一致すると判断された代替テキストオブジェクトのリストを保存する。再編集ジェスチャを検出すると、システムは代替テキストオブジェクトを含むテキストオブジェクト選択リストを表示する。この代替テキストオブジェクトは、再編集対象のテキストオブジェクトを出力する結果となった、ユーザーによる入力動作に最も一致すると判断されたテキストオブジェクトである。別の実施形態では、最初に出力されたテキストオブジェクトは、テキストオブジェクトの選択リストには表示されない。これは、再編集手順は(通常)、置き換えのためにのみ実行されるためである。別の態様では、再編集の対象となるテキストオブジェクトは、一致度が二番目に高い代替テキストオブジェクトによって自動的に置換される。これは、再編集対象のテキストオブジェクトを生成した入力動作に最も一致すると判断された代替テキストオブジェクトのリストから選択される(表示されたテキストオブジェクト選択リストからのテキストオブジェクトの選択をユーザーに要求しない)。このアプローチは、ユーザーが本来意図したテキストオブジェクトは、一致度が二番目に高い代替テキストオブジェクトであることがほとんどの場合であるシステムにおいて、有利である。別の態様では、既に再編集され、その際、一致度が二番目に高い次候補の代替テキストオブジェクトが最初の出力テキストオブジェクトを自動的に置き換えたテキストオブジェクトが再度、再編集される場合、システムはテキストオブジェクトの選択リストを表示し、ユーザーが代替テキストオブジェクトを選択できるようにする。   In one aspect, the system stores a list of alternative text objects determined to best match one or more input actions of the most recently output text object. Upon detecting a re-edit gesture, the system displays a text object selection list that includes alternative text objects. This alternative text object is a text object that has been determined to most closely match the input operation by the user, resulting in the output of the text object to be re-edited. In another embodiment, the first output text object is not displayed in the text object selection list. This is because the re-editing procedure (usually) is performed only for replacement. In another aspect, the text object to be re-edited is automatically replaced with an alternative text object having the second highest matching score. This is selected from the list of alternative text objects determined to best match the input action that generated the text object to be re-edited (does not require the user to select a text object from the displayed text object selection list) . This approach is advantageous in systems where the text object originally intended by the user is in most cases an alternative text object with the second highest match. In another aspect, if the text object that has already been re-edited and the next candidate alternative text object with the second highest match automatically replaced the first output text object is re-edited again, the system Displays a selection list of text objects and allows the user to select an alternative text object.

図1は、テキスト編集およびメニュー選択のためのユーザーインターフェースのシステムおよび方法を実装した典型的装置<100>のハードウェア・コンポーネントの単純化したブロック図を示したものである。装置<100>には、1つ以上の入力装置<120>が含まれ、ユーザーが実行した動作による入力信号をCPU(プロセッサ)<110>へ送る。通常、ハードウェアコントローラが調整に入り、入力装置から受け取った生の信号を解釈し、その情報を、利用可能なデータポート経由で既知の通信プロトコルを使って、CPU<110>へ送信する。入力装置<120>の例としてタッチスクリーンがある。これは、ユーザーがタッチスクリーンに触れたときの接触イベントをCPU<110>へ通知する入力機能を提供する。同様に、CPU<110>は、モニター<130>上に描画するようモニター<130>のハードウェアコントローラと通信する。モニター<130>の例として、グラフィックや文字の視覚フィードバックを提供するタッチスクリーンモニターがあげられる。オプションとして、CPUにスピーカー<140>を組み合わせ、適切な音声信号によりユーザーをガイドし(多くはエラー信号)、またマイク<141>をCPUに組み合わせて、ユーザーの声による入力(多くはユーザーによるテキスト入力方法として音声入力を実装した入力動作認識システム用)を受け取れるようにすることもできる。CPU<110>は、メモリ<150>へのアクセスを持つ。これには、一時記憶域および/または固定記憶域の組み合わせ、読取・書込可能なメモリ(ランダムアクセスメモリまたはRAM)、読取専用メモリ(ROM)、フラッシュメモリ、ハードドライブ、フレキシブルディスクなどの書込可能不揮発性メモリが含まれる。メモリ<150>には、オペレーティングシステム<161>、入力動作認識システムソフトウェア<162>、その他のアプリケーションプログラム<163>などすべてのプログラムとソフトウェアを含むプログラムメモリ<160>が含まれる。またプログラムメモリ<160>には、本発明の方法に従ってテキスト挿入位置を記録、復元するためのテキスト編集システムソフトウェア<164>と、本発明の方法に従って複数の選択肢をグラフィカルに表示し、グラフィカルに表示された選択肢の1つを選択決定するためのメニュー選択システムソフトウェア<165>が最低1つ含まれる。メモリ<150>には、データメモリ<170>も含まれ、この中には入力動作認識システムソフトウェア<162>が必要とするテキストオブジェクトデータベース<171>および、ユーザー設定とお気に入りの記録を維持するためのオプションの記憶域<172>、装置<100>のコンポーネントが必要とするその他データ<173>が含まれる。   FIG. 1 shows a simplified block diagram of hardware components of an exemplary device <100> that implements a user interface system and method for text editing and menu selection. The device <100> includes one or more input devices <120>, and sends an input signal based on an operation performed by the user to a CPU (processor) <110>. Typically, the hardware controller goes into coordination, interprets the raw signal received from the input device, and sends that information to the CPU <110> using a known communication protocol via an available data port. An example of the input device <120> is a touch screen. This provides an input function for notifying the CPU <110> of a touch event when the user touches the touch screen. Similarly, CPU <110> communicates with the hardware controller of monitor <130> to draw on monitor <130>. An example of a monitor <130> is a touch screen monitor that provides visual feedback of graphics and characters. As an option, a CPU <140> is combined with the CPU to guide the user with an appropriate audio signal (mostly an error signal), and a microphone <141> is combined with the CPU to input with the voice of the user (mostly user text It is also possible to receive an input motion recognition system that implements voice input as an input method. CPU <110> has access to memory <150>. This includes a combination of temporary and / or fixed storage, readable / writable memory (random access memory or RAM), read only memory (ROM), flash memory, hard drive, flexible disk, etc. Possible non-volatile memory is included. The memory <150> includes a program memory <160> including all programs and software such as an operating system <161>, input operation recognition system software <162>, and other application programs <163>. In the program memory <160>, text editing system software <164> for recording and restoring the text insertion position according to the method of the present invention, and a plurality of options are graphically displayed according to the method of the present invention, and displayed graphically. At least one menu selection system software <165> for selecting one of the selected options is included. The memory <150> also includes a data memory <170>, which contains a text object database <171> required by the input motion recognition system software <162>, as well as a record of user settings and favorites. Optional storage <172> and other data <173> required by the component <100>.

図2Aは、システム<100>のモニター<130>上に表示された再編集ファンクションキー<208>により、または、あらかじめ定められた再編集ジェスチャを以前に出力されたがユーザーの意図したテキストオブジェクトではなかったテキストオブジェクト(図2Aでは「great」200)上で実行することにより、再編集手順を有効化する様子を示している。別の実施形態では、再編集ファンクションキー<208>が有効化され、ハイライトされているテキストオブジェクトが存在しない場合、システムは現在のテキスト挿入位置を含む、または隣接するテキストオブジェクトを特定し、自動的に再編集手順のターゲットとして選択する。   FIG. 2A shows the re-edit function key <208> displayed on the monitor <130> of the system <100>, or the text object intended by the user that has previously been output with a predetermined re-edit gesture. It shows how the re-editing procedure is enabled by running on the missing text object ("great" 200 in Figure 2A). In another embodiment, if the re-edit function key <208> is enabled and there is no highlighted text object, the system identifies the text object that contains or is adjacent to the current text insertion position and automatically As the target of the re-editing procedure.

図2Aは結果として表示されるテキストオブジェクト選択リスト<202>を示している。この例では、ユーザーが本来意図したテキストオブジェクトである「heat」が、テキストオブジェクト選択リスト<202>で1つ目のテキストオブジェクト候補<204>として表示されている。これは、このテキストオブジェクトが、当初行った入力動作に対し二番目に一致するテキストオブジェクトと判断されたためである(当初の入力動作に一致するテキストオブジェクトとして最初に出力した単語「great」の次に一致)。入力装置<120>を使ってテキストオブジェクト選択リスト<202>のテキストオブジェクト<204>を選択すると、CPU<110>は、モニターのテキスト出力領域<206>で、ハイライトされているテキストオブジェクト「great」<200>を、ユーザーが本来意図したテキストオブジェクト「heat」に自動的に置き換える。   FIG. 2A shows the text object selection list <202> displayed as a result. In this example, “heat”, which is the text object originally intended by the user, is displayed as the first text object candidate <204> in the text object selection list <202>. This is because this text object is determined to be the second text object that matches the input action that was originally performed (after the word “great” that was first output as a text object that matches the original input action). Match). When the text object <204> in the text object selection list <202> is selected using the input device <120>, the CPU <110> displays the highlighted text object “great” in the text output area <206> of the monitor. "<200> is automatically replaced with the text object" heat "that the user originally intended.

別の態様では、再編集プロセスは、入力動作認識システムソフトウェア<162>がスペースを自動生成する場合と同じように、スペースを挿入または削除する。入力動作認識システムがテキストオブジェクト間に自動的にスペースを生成する場合に、隣接するすべてのテキストオブジェクト間にスペースを自動生成する設定では、ユーザーは不必要な自動生成スペースの削除作業に追われることになる。例えば、英語では、名詞を所有格にする際に、テキストオブジェクトの最後に“'s”(アポストロフ-s)を付ける。フランス語では、母音で始まる語句の前に、冠詞「le」や「la」を付ける場合、「l’」(l-アポストロフ)と表記し、続く語句の最初の文字とアポストロフの間にスペースは挿入しない。ドイツ語などの言語では2つ以上の語句を連結させ長い「複合」語を作ることが一般に行われている。この問題を解決するには他のアプローチもあり、それを本発明の範囲外とするものではないが、入力動作認識システムにおけるこの問題を解決する簡単なアプローチとして、一定のテキストオブジェクトにフラグを付け、隣接するテキストオブジェクト間にスペースを自動挿入するという通常のルールへの例外を規定する方法がある。例えば、英語では、システムのテキストオブジェクトのデータベースにあるテキストオブジェクト「's」(アポストロフ- s)にフラグを付け、この単語と次の単語の間にはスペースを入れるが、この単語と前の単語の間にはスペースを入れないよう指定する。反対にフランス語では、システムのテキストオブジェクトのデータベースにあるテキストオブジェクト「l'」(l-アポストロフ)にフラグを付け、この単語と前の単語の間にはスペースを入れるが、この単語と次の単語の間にはスペースを入れないよう指定する。別の態様では、通常はテキストオブジェクトをスペースで区切るが、また一般に別々のテキストオブジェクトを合体させて長い「複合」テキストオブジェクトを生成するドイツ語などの言語に対応するため、通常挿入する単語間へのスペースの自動生成を次回はオフにする機能を入力動作認識システムに搭載する(これにより、間にスペースを生成せずに2つのテキストオブジェクトを続けて生成できる)。あるいは、スペースの自動生成機能を再度有効化するまでの間、通常ならば生成されるスペースの自動生成機能をオフにする機能を搭載してもよい。あるいは、入力動作認識システムに、直近で自動生成したスペースを削除する機能を付け加えることもできる。以下に説明するように、本発明の再編集プロセスは、スペースの自動生成におけるこれらさまざまな例外に対応するため、再編集プロセスによって、テキストオブジェクトを異なる自動スペース設定規則が適用されるテキストオブジェクトによって置き換えた場合も、テキストは正しいスペース設定で生成される。   In another aspect, the re-editing process inserts or deletes spaces in the same way that the input motion recognition system software <162> automatically generates spaces. When the input motion recognition system automatically generates a space between text objects, the setting that automatically generates a space between all adjacent text objects will cause the user to be forced to delete unnecessary auto-generated spaces. become. For example, in English, when making a noun possessive, “'s” (Apostrophe-s) is added to the end of the text object. In French, if an article “le” or “la” is preceded by a phrase that begins with a vowel, it is written “l '” (l-Apostrophe), and a space is inserted between the first letter of the following phrase and the apostrophe. do not do. In languages such as German, it is common to create a long “compound” word by concatenating two or more words. There are other approaches to solving this problem, which are not outside the scope of the present invention, but flagging certain text objects as a simple approach to solving this problem in input motion recognition systems. There is a way to specify an exception to the normal rule of automatically inserting a space between adjacent text objects. For example, in English, the text object '' s' (Apostrophe-s) in the system's text object database is flagged and there is a space between this word and the next word, but this word and the previous word Specifies that there should be no spaces between. Conversely, in French, the text object "l '" (l-Apostrophe) in the system text object database is flagged and there is a space between this word and the previous word, but this word and the next word Specifies that there should be no spaces between. In another aspect, text objects are usually separated by a space, but also to languages such as German that typically combine separate text objects to produce long "composite" text objects, so usually between the words you insert The function to turn off automatic generation of the next time is installed in the input motion recognition system (this allows two text objects to be generated in succession without generating a space in between). Alternatively, a function of turning off the automatic generation function of a normally generated space may be installed until the automatic generation function of the space is re-enabled. Alternatively, a function for deleting the most recently automatically generated space can be added to the input motion recognition system. As explained below, the re-editing process of the present invention accommodates these various exceptions in automatic space generation, so the re-editing process replaces text objects with text objects to which different auto-spacing rules apply. The text is generated with the correct space settings.

また別の態様では、再編集ジェスチャにおいて、テキストオブジェクト文字の連続した文字列を構成する一部の文字列を1つのジェスチャで選択できるように定義する。図2Bの例に示すように、単語「of’s」<210>は、「of」<212>と「’s」<214>から成り立っている。この例では2つのテキストオブジェクトは、連続して実行された2つの別々の入力動作に対応して作成された点に注意されたい。もう1点注意したいのは、このテキストは、デフォルトでは連続して生成するテキストオブジェクト間にスペースを自動出力する入力動作認識システムで生成されているが、テキストオブジェクト「’s」<214>はシステムのテキストオブジェクトデータベースで、このデフォルト動作の例外としてフラグが付いているため、「’s」<214>の出力前にスペースは生成されておらず、そのため、直前のテキストオブジェクトに合体し、正しい所有格が作られている点である。ただし、図2Bに示した例では、テキストオブジェクト「’s」<214>は対応する入力動作を実行したときにユーザーが本来意図したテキストオブジェクトではなかった。   In another aspect, the re-editing gesture is defined so that a part of a character string constituting a continuous character string of text object characters can be selected with one gesture. As shown in the example of FIG. 2B, the word “of ’s” <210> is made up of “of” <212> and “’ s ”<214>. Note that in this example, the two text objects were created corresponding to two separate input actions that were executed in succession. Another point to note is that this text is generated by the input motion recognition system that automatically outputs a space between text objects that are generated continuously by default, but the text object “'s” <214> is a system Is flagged as an exception to this default behavior, so no space was generated before the output of '' s' <214>, so it merges into the previous text object and is correctly owned The case is made. However, in the example shown in FIG. 2B, the text object “′ s” <214> is not the text object originally intended by the user when the corresponding input operation is executed.

また別の態様では、複数のテキストオブジェクト文字から構成され、前後に1つ以上のデリミタ文字が付いているテキスト文字列(図2Bの例では、「of’s」<210>の文字列)に関連付けられた領域で、再編集ジェスチャが検出されると、システムはまず、テキスト文字列全体(図2Bの例では、「of’s」<210>)が、1つのユーザー入力動作に対応して生成されたかどうかを確認し、そうであることが確認された場合は、システムは入力動作で特定された代替テキストオブジェクトに基づき、上述の方法で対応する。また別の態様では、特定されたテキスト文字列(この例では「of’s」<210>)が、それぞれテキストオブジェクトの部分文字列を生成する2つ以上の別々のユーザー入力動作によって生成された場合には、システムは実行された再編集ジェスチャに最も近いテキストオブジェクトの部分文字列を特定し、例えば、特定された部分文字列をハイライトし、部分文字列を生成したユーザー入力動作に一致する代替テキストオブジェクトのリストを表示し、ユーザーが選択できるようにする。図2Bでは、検出された再編集ジェスチャに関連付けられた位置<216>(例えば位置<216>でのダブルタップ)は、部分文字列「’s」<214>に最も近いため、この部分文字列が再編集の「ターゲット」として特定され、テキスト出力領域<206>でハイライトされている。図2Bの例では、ユーザーは文章全体の入力をちょうど終えたところで、位置<216>での再編集ジェスチャの検出前のため、テキスト挿入位置は入力を終えた文末である位置<218>にあり、ユーザーは次の文章を入力する準備ができている。   In another aspect, it is associated with a text string (in the example of Figure 2B, "of's" <210>) that consists of multiple text object characters and one or more delimiters. When a re-editing gesture is detected in the region, the system first determines whether the entire text string ("of's" <210> in the example in Figure 2B) was generated for one user input action. And if so, the system responds in the manner described above based on the alternative text object identified in the input action. In another aspect, the identified text string (in this example, “of's” <210>) is generated by two or more separate user input actions that each generate a substring of the text object. The system identifies the substring of the text object that is closest to the re-edit gesture that was performed, for example, highlights the identified substring and substitute text that matches the user input action that generated the substring Displays a list of objects so that the user can select them. In FIG. 2B, the position <216> associated with the detected re-edit gesture (eg, a double tap at position <216>) is closest to the substring “'s” <214>, so this substring Is identified as the “target” for re-editing and is highlighted in the text output area <206>. In the example of FIG. 2B, the user has just finished entering the entire sentence, and before the re-editing gesture is detected at position <216>, the text insertion position is at position <218>, which is the end of the sentence where input has been completed. The user is ready to enter the next sentence.

この例では、ユーザーが本来意図したテキストオブジェクトである「Oz」が、テキストオブジェクト選択リスト<202>に第一候補のテキストオブジェクト<220>として表示されている。これはこの単語が、当初の入力動作に対し二番目に一致するテキストオブジェクトとして判断されたためである(当初の入力動作に最も一致するテキストオブジェクトとして最初に出力されたテキストオブジェクト「’s」<214>の次に一致)。図2Cは、テキストオブジェクト選択リスト<202>で、テキストオブジェクト「Oz」<220>を選択し、出力テキスト領域<206>において、テキスト編集システムソフトウェア<164>が自動的にハイライトしたテキストオブジェクト「’s」<214>を、ユーザーが本来意図したテキストオブジェクト「Oz」<220>に置き換えた様子を示している。テキスト編集システムソフトウェア<164>が、直前のテキストオブジェクト「of」<212>と「Oz」<220>の間にスペース<222>を挿入した点にも注意されたい。前述の通り、テキストオブジェクト「's」<214>は、システムのテキストオブジェクトデータベース<171>内で、正常に生成したテキストオブジェクト間にスペースを自動生成するというデフォルト動作に対する例外フラグが付けられているため、元来、図2Bの「's」<214>を出力する前にスペースは生成されていない。選択した置換テキストオブジェクト「Oz」<220>には、システムのテキストオブジェクトデータベース<171>内でそのようなフラグが付いていないため、システムがテキストオブジェクト「's」<214>をテキストオブジェクト「Oz」<220>で置き換えると、置換テキストを挿入する前にスペースが生成され、スペース<222>が、語句「of」<212>と「Oz」<220>の間に挿入される。逆の場合も同じように処理される。つまり、テキストオブジェクト「Oz」<220>が最初に生成され、その後再編集手順によって、テキストオブジェクト「's」<214>で置き換えられる場合、最初はスペース<222>が生成されテキストオブジェクト「Oz」<220>の前に置かれているが、「Oz」<220>を「's」<214>で置き換える際に、先行するスペースは削除され、「's」<214>が直前のテキストオブジェクトと直接結合する。このように別の態様において、再編集プロセスの結果、1つのテキストオブジェクトが別のオブジェクトで置き換えられ、かつ、2つのテキストオブジェクトに異なるスペース自動挿入動作が関連付けられている場合、置換テキストオブジェクトの前後のスペースは、2つのテキストオブジェクトのスペース設定動作の違いを反映して調整される。   In this example, “Oz”, which is the text object originally intended by the user, is displayed as the first candidate text object <220> in the text object selection list <202>. This is because this word is determined as a text object that is the second closest to the original input action (the text object “'s” <214 that is output first as the text object that most closely matches the original input action). Followed by>). FIG. 2C shows that the text object “Oz” <220> is selected in the text object selection list <202>, and the text object “Oz” <220> is automatically highlighted by the text editing system software <164> in the output text area <206>. It shows a state where “s” <214> is replaced with a text object “Oz” <220> originally intended by the user. Note also that the text editing system software <164> has inserted a space <222> between the immediately preceding text objects “of” <212> and “Oz” <220>. As described above, the text object “'s” <214> is flagged with an exception flag for the default behavior of automatically creating a space between successfully generated text objects in the system text object database <171>. Therefore, originally, no space is generated before outputting “'s” <214> in FIG. 2B. Since the selected replacement text object “Oz” <220> is not flagged as such in the system text object database <171>, the system replaces the text object “'s” <214> with the text object “Oz”. "<220> replaces the space before inserting the replacement text, and the space <222> is inserted between the words" of "<212> and" Oz "<220>. The reverse case is processed in the same way. That is, when the text object “Oz” <220> is generated first and then replaced by the text object “'s” <214> by the re-editing procedure, the space <222> is generated first and the text object “Oz” is generated. Although placed before <220>, when replacing "Oz" <220> with "'s" <214>, the preceding space is deleted and "' s" <214> is the previous text object. Combine directly with. Thus, in another aspect, if one text object is replaced with another object as a result of the re-editing process, and two text objects have different space insertion behavior associated with them, before and after the replacement text object The space is adjusted to reflect the difference in the space setting behavior of the two text objects.

別の実施形態では、テキスト編集システムソフトウェア<164>がテキスト出力領域<206>におけるテキスト挿入位置を記録するため、再編集テキストオブジェクトを代替テキストオブジェクトで置換した直後に、テキスト挿入位置は自動的に復元され、再編集手順実行前の出力テキストの位置に戻る。図2Cの例では、テキストオブジェクト「’s」<214>のテキストオブジェクト「Oz」<220>による置き換えの後、テキスト挿入位置は自動的に元の位置<218>、つまり文の終了位置に戻る(位置<216>における再編集ジェスチャ検出前の場所)。このため、ユーザーは手動でテキスト挿入位置へカーソルを移す必要なく、テキストの挿入を続行できる。また別の態様において、生成されたテキストオブジェクト選択リストが、置換テキストオブジェクトを選択せずにキャンセルされた場合、特定されたテキストオブジェクトはハイライトされた(選択された)状態のままとなり、テキスト挿入位置は出力テキストの元の位置に戻らないため、ハイライトされたままの特定されたテキストオブジェクトに対し別の動作を行うことができる。また別の態様において、生成されたテキストオブジェクト選択リストから代替テキストオブジェクトを選択する前に、1つ以上の追加の入力動作を行うと、テキストオブジェクト選択リストは自動的にキャンセルされ、テキスト挿入位置は、出力テキスト内の元の位置に戻らない。そして、1つ以上の追加の入力動作により生成されたテキストは、テキスト出力領域に送られ、ワード処理プログラムの標準動作に従い、結果として、以前に出力されたテキストオブジェクトを置き換える。これは、以前に出力されたテキストオブジェクトが現在、テキスト領域でハイライトされている(選択されている)ためである。また別の態様では、制御文字の生成に対応する入力動作を行うと、制御文字をターゲットのテキストアプリケーションへ送る結果になる。例えば、Ctrl-Bの生成に対応する入力動作を実行すると、ターゲットアプリケーションはCtrl-Bを受け取り、ハイライトされている以前に出力したテキストオブジェクトを太字でフォーマットする。また別の態様において、ユーザーが表示テキスト領域をスクロールし、テキスト挿入位置がモニター画面上に表示されなくなったことをシステムが検出した状態で再編集ジェスチャを実行すると、自動生成されたテキストオブジェクト選択リストから代替テキストオブジェクトを選択しても、テキスト挿入位置は、出力テキストの元の場所(すでに表示されていない)には戻らない。また別の態様では、システム設定から選択することにより、システムであらかじめ定められた再編集ジェスチャおよびその後の動作(例えば出力テキストの元の位置にテキスト挿入位置を戻すことなど)を設定できる。   In another embodiment, the text editing system software <164> records the text insertion position in the text output area <206>, so that the text insertion position is automatically set immediately after replacing the reedited text object with the alternative text object. Restored and returns to the position of the output text before executing the re-editing procedure. In the example of FIG. 2C, after the text object “'s” <214> is replaced with the text object “Oz” <220>, the text insertion position automatically returns to the original position <218>, that is, the sentence end position. (Place before re-editing gesture detection at position <216>). Therefore, the user can continue to insert text without manually moving the cursor to the text insertion position. In another aspect, if the generated text object selection list is canceled without selecting a replacement text object, the identified text object remains highlighted (selected) and the text is inserted. Since the position does not return to the original position in the output text, another action can be performed on the identified text object that remains highlighted. In another aspect, if one or more additional input actions are performed before selecting an alternative text object from the generated text object selection list, the text object selection list is automatically canceled and the text insertion position is , Do not return to the original position in the output text. The text generated by the one or more additional input operations is then sent to the text output area and, as a result, replaces the previously output text object according to the standard operation of the word processing program. This is because the previously output text object is currently highlighted (selected) in the text area. In another aspect, performing an input operation corresponding to the generation of the control character results in sending the control character to the target text application. For example, when executing an input operation corresponding to the generation of Ctrl-B, the target application receives Ctrl-B and formats the previously output text object that is highlighted in bold. In another aspect, when the user scrolls the displayed text area and executes the re-editing gesture with the system detecting that the text insertion position is no longer displayed on the monitor screen, the automatically generated text object selection list The text insertion position does not return to the original location of the output text (which is not already displayed). In another aspect, by selecting from the system settings, a re-edit gesture predetermined by the system and the subsequent operation (for example, returning the text insertion position to the original position of the output text) can be set.

システムのこれらの機能は、テキスト入力効率を大幅に向上させる。入力動作認識システムは、本質的に、多くの不正確に生成されたテキストオブジェクトを伴い、これらは通常以前生成したテキスト全体にランダムに散らばる。多くの場合、ユーザーは単に不正確に生成されたテキストオブジェクトを修正する必要があるだけで、修正後、それまでテキストを出力していた場所への入力を続行する。テキスト挿入位置を記録し自動で戻る機能は、テキスト挿入位置を元の位置へ戻す面倒な移動作業をなくすため、ユーザーへの大きなメリットとなる。エラー修復手順の効率を大幅に改善することにより、システムの全体効率は2つの面で大幅に向上する。まず、偶発的なエラーの修正が容易となり、時間が削減されるため、全体的な実効入力速度が向上する。次に、エラー修復プロセスがとても単純で容易なため、多くのユーザーの認識エラーの可能性に対する懸念が減少し、結果として入力動作がより迅速になり、正確性への懸念が減る。多くの入力動作認識システムにおいて、これは、入力速度の向上に全体として効果がある。   These features of the system greatly improve text input efficiency. Input motion recognition systems inherently involve many incorrectly generated text objects, which are usually randomly distributed throughout the previously generated text. In many cases, the user simply needs to modify the incorrectly generated text object, and after modification, continues to input where the text was previously output. The function of recording and automatically returning the text insertion position is a great merit for the user because it eliminates the troublesome work of moving the text insertion position back to the original position. By significantly improving the efficiency of the error repair procedure, the overall efficiency of the system is greatly improved in two ways. First, accidental error correction is facilitated and time is reduced, improving overall effective input speed. Secondly, the error repair process is so simple and easy that many users are less concerned about the possibility of recognition errors, resulting in faster input actions and less concern about accuracy. In many input motion recognition systems, this has an overall effect on improving input speed.

また別の態様において、ユーザーがテキスト出力領域内でカーソルを移動させると、テキスト編集システムソフトウェア<164>はそれを検出し、カーソルが置かれた新しいテキスト挿入位置の状況に合わせて自動でシステム動作を変更する。一態様では、生成する単語間にスペースを自動出力する場合に、テキスト挿入位置が新しい文脈へ移動したことを検出すると、システムは、新しい文脈で1つ目の単語を出力するまでスペースの自動出力をオフにする。また別の態様では、テキスト挿入位置が新しい文脈へ移動したことをシステムが検出し、かかる自動スペース設定がオンになっていた場合、システムは、新しいテキスト挿入位置の左側にある文字を調べ、テキスト挿入位置の左にある文字が「空白」文字の場合、および/またはテキスト挿入位置がテキストフィールドの先頭にある場合、および/またはテキストフィールドがパスワード入力フィールドの場合、システムは新しい文脈で1つ目の単語を出力するまでスペースの自動出力をオフにする。   In another aspect, when the user moves the cursor in the text output area, the text editing system software <164> detects it and automatically operates the system according to the situation of the new text insertion position where the cursor is placed. To change. In one aspect, when automatically outputting a space between generated words, if the system detects that the text insertion position has moved to a new context, the system automatically outputs a space until it outputs the first word in the new context. Turn off. In another aspect, if the system detects that the text insertion position has moved to a new context and such automatic space setting is turned on, the system examines the character to the left of the new text insertion position and If the character to the left of the insertion position is a “blank” character, and / or if the text insertion position is at the beginning of the text field, and / or if the text field is a password input field, the system will first enter the new context. Turn off automatic space output until the word is output.

別の態様では、ユーザーがテキストオブジェクトを再編集する際、1つ以上の代替テキストオブジェクトのリストがユーザーに提示されるため、ユーザーが本来意図するテキストオブジェクトを選択することができる。これらの代替テキストオブジェクトは、再編集されるテキストオブジェクトに対して、システムにより最初にマップされた1つ以上の入力動作の入力動作認識システムによる代替「マッピング」に対応する。別の態様では、ユーザーが選択できる代替テキストオブジェクトのリストが特別なグラフィカル表示によって提示されるので、ユーザーは単純かつ直感的なジェスチャによって希望の選択肢を指定できる。通常、このジェスチャには従来の技術で使用されるメニュー選択方法に必要な精度は要求されず、意図されたオブジェクトの選択処理にかかる時間を短縮することで、再編集手順を迅速にする。別の態様では、これと同じ特別なグラフィカルメニュー表示がユーザーインターフェースの他の箇所でも利用されるため、システム内の他の箇所における2つ以上の代替選択肢からの選択に要する時間も同様に短縮される。本発明のグラフィカル表示およびジェスチャ表示による選択方法は、提示された1つ以上の代替選択肢が、ユーザーが意図する選択肢となる事前確率の平均よりも高い場合、特に有効である。これは、ユーザーに選択肢が提供される多くの場合に当てはまる。   In another aspect, when the user re-edits the text object, a list of one or more alternative text objects is presented to the user so that the user can select the originally intended text object. These alternative text objects correspond to alternative “mappings” by the input action recognition system of one or more input actions initially mapped by the system for the text object to be re-edited. In another aspect, the list of alternative text objects that the user can select is presented by a special graphical display so that the user can specify the desired choice with a simple and intuitive gesture. Normally, this gesture does not require the accuracy required for the menu selection methods used in the prior art, and speeds up the re-editing procedure by reducing the time required for the intended object selection process. In another aspect, this same special graphical menu display is also used elsewhere in the user interface, reducing the time required to select from two or more alternative options elsewhere in the system as well. The The selection method by the graphical display and the gesture display of the present invention is particularly effective when the presented one or more alternative choices are higher than the average of the prior probabilities that the user intends the choices. This is true in many cases where the user is provided with choices.

図3Aは、本発明の方法の利点を有する一つの方法で構成されたメニュー300の一例を示したものである。図3Aに示される例は、次の6つの選択サブ領域を含む。これらは、選択肢1から選択肢5に対する5つの選択サブ領域301〜305、そしてこの選択がメニュー300をキャンセルする動作であることを明示するアイコンが付いた6番目のサブ領域306である。6つの各選択サブ領域301〜306は、メニュー300の周辺境界線に対応するセグメント311〜316に関連している。本発明において、メニュー選択を行うには、まず画面上で、メニューの最も外側の周辺境界線で囲まれる領域内の任意の場所に接触する。画面との接触を保ちながら、希望の選択肢と関連したメニュー境界線セグメントを通り抜けて、メニュー領域から退出する経路をたどる。次に、メニュー300周辺境界線の外部の場所で、画面との接触を解除することによって(例:スタイラスを離す)接触動作を終了する。または、接触動作がメニュー領域から退出すると、直ちにメニュー選択が効果的に行わる。この場合、接触動作を終了する必要はない。メニュー選択を効果的に行うため、接触動作の終了が要求されるので、ユーザーは接触を解除せずにメニュー領域に再び入り込み、保留中の選択を修正することができ、メニュー境界線の別のセグメントを通り抜けてから接触動作を終了することができる。ここで説明されている例には、タッチスクリーンの使用が含まれており、画面との接触および接触解除の動作により、スタイラス(または指、その他の接触手段)の位置によって決定される制御ポイントが効果的に「有効」または「無効」になるが、その他のアプローチは本発明の範囲外とみなされるものではない。例えば、制御ポイントは、マウスの移動によって制御されるカーソルになり得る。この場合、マウスボタンをクリックするまたは放すことによって、制御ポイントが「有効」または「無効」になる。   FIG. 3A shows an example of a menu 300 configured in one way that has the advantages of the method of the present invention. The example shown in FIG. 3A includes the following six selected sub-regions. These are five selection sub-regions 301 to 305 for option 1 to option 5 and a sixth sub-region 306 with an icon indicating that this selection is an operation for canceling the menu 300. Each of the six selection sub-regions 301-306 is associated with a segment 311-316 corresponding to the peripheral border of menu 300. In the present invention, menu selection is performed by first touching an arbitrary place in the area surrounded by the outermost peripheral border of the menu on the screen. Follow the path exiting the menu area through the menu boundary segment associated with the desired option while maintaining contact with the screen. Next, the contact operation is terminated by releasing the contact with the screen (eg, releasing the stylus) at a location outside the boundary line around the menu 300. Alternatively, menu selection is effectively performed as soon as the contact operation leaves the menu area. In this case, it is not necessary to end the contact operation. The end of the touch action is required to make the menu selection effective, so the user can re-enter the menu area without releasing the touch, modify the pending selection, and change the menu border The contact operation can be terminated after passing through the segment. The example described here includes the use of a touch screen, where the control point determined by the position of the stylus (or finger or other contact means) by the action of touching and releasing the screen. Although effectively “valid” or “invalid”, other approaches are not considered outside the scope of the present invention. For example, the control point can be a cursor controlled by mouse movement. In this case, the control point becomes “valid” or “invalid” by clicking or releasing the mouse button.

図3Aにおいて、メニュー選択サブ領域に関連のあるメニュー300の周辺境界線セグメントは、メニュー選択サブ領域自体の周辺境界線の一部でもあるメニューの周辺境界線セグメントである。図3Aに示されるメニューの例において、選択サブ領域301内にある選択肢1は、メニュー300の上部境界線全体を構成する、メニュー周辺境界線セグメント311に関連がある。選択肢1を選択するには、メニュー300内の任意の場所で画面に接触し、上方向に移動して、上部のメニュー領域から退出し、画面との接触を解除する。図4は、起点となる接触位置401から開始し、周辺境界線セグメント311上にある退出位置402からメニューを退出し、最終接触位置403で終了する接触動作400の例を示したものである。接触動作400の結果として、最初の接触位置が「選択肢3」に関連のあるメニュー選択サブ領域303内にあるにもかかわらず、メニュー選択肢301(「選択肢1」)が選択される。   In FIG. 3A, the peripheral border segment of the menu 300 associated with the menu selection sub-region is the peripheral border segment of the menu that is also part of the peripheral border of the menu selection sub-region itself. In the menu example shown in FIG. 3A, option 1 in the selection sub-region 301 is associated with the menu peripheral boundary segment 311 that constitutes the entire upper boundary of the menu 300. To select option 1, touch the screen at any location in menu 300, move upward, exit the menu area at the top, and release the contact with the screen. FIG. 4 shows an example of the contact operation 400 that starts from the contact position 401 as the starting point, exits the menu from the exit position 402 on the peripheral boundary line segment 311, and ends at the final contact position 403. As a result of the contact action 400, the menu option 301 (“option 1”) is selected even though the initial touch position is in the menu selection sub-region 303 associated with “option 3”.

本発明の利点の1つは、接触動作が正確性をさほど必要としないため、非常に迅速に実行され、全般的にユーザーによるメニュー選択が迅速化されることにある。特定のメニュー選択肢が選択される事前見込みが高い場合、利点はさらに大きくなる。例えば、図3Aに示されるメニューにおいて、メニュー選択肢301(「選択肢1」)および305(「選択肢5」)の一方が選択される確率は、選択肢302、303、または304のいずれかが選択される確率の2倍以上であることが事前に判明していると仮定する。図3Aに示されるメニューの例は、メニュー周辺境界線の上部境界線セグメント311全体が「選択肢1」の選択サブ領域301に関連付けられ、メニュー周辺境界線の下部境界線セグメント315が「選択肢5」の選択サブ領域305に関連付けられるように設計されている。このメニュー例では、セグメント311と315の両方の長さは、セグメント312、313、および314(それぞれ選択サブ領域302、303、および304に関連する)の長さの約3倍となる。つまり、対応するセグメントを通過してメニューを退出する経路を素早くたどる際の誤差の許容範囲が大きいため、「選択肢1」と「選択肢5」を選択するのが非常に容易になる。さまざまなメニュー選択サブ領域を簡単に設計できるため、関連のある周辺境界線セグメントの相対的な長さは、妥当な許容範囲において、さまざまなメニュー選択の相対的な期待確率に近似する。   One advantage of the present invention is that the contact action does not require much accuracy, so it is performed very quickly and generally speeds up menu selection by the user. The benefits are even greater if the prior likelihood that a particular menu option will be selected is high. For example, in the menu shown in FIG. 3A, the probability that one of the menu options 301 (“option 1”) and 305 (“option 5”) will be selected is one of the options 302, 303, or 304. Assume that it is known in advance that it is more than twice the probability. In the example of the menu shown in FIG. 3A, the entire upper boundary segment 311 of the menu peripheral boundary is associated with the selection sub-region 301 of “Option 1”, and the lower boundary segment 315 of the menu peripheral boundary is “Option 5”. It is designed to be associated with the selected subregion 305. In this example menu, the length of both segments 311 and 315 is approximately three times the length of segments 312, 313, and 314 (respectively associated with selection subregions 302, 303, and 304). In other words, it is very easy to select “Option 1” and “Option 5” because there is a large tolerance for error when quickly following the path of exiting the menu through the corresponding segment. Because the various menu selection sub-regions can be easily designed, the relative lengths of the relevant peripheral border segments approximate the relative expected probabilities of the various menu selections within reasonable tolerances.

本発明の別の重要な利点は、最も外側にあるメニュー周辺境界線に囲まれた領域内で開始され、一度も周辺境界線を通過してメニューを退出することのない接触動作は、従来のメニュー選択とみなされることにある。つまり、メニュー選択サブ領域の「タップ」による選択とみなされる。これにより、この新しいメニュー選択アプローチに関する説明または情報がユーザーに提供されていないシステムに、本発明によって改善されたメニュー選択アプローチを導入することができる。新しい選択アプローチをまったく知らないユーザーは、新しいメニュー選択方法が発見されるか、紹介されるまで、従来のメニュー選択である「タッピング」を引き続き使用できる。これにより、事前確率が非常に低いメニュー選択項目は、メニュー選択肢の周辺境界線にメニューの外部境界線セグメントが一切含まれない「境界線のない」メニュー選択肢として表示できるため、メニュー設計に関する柔軟性も向上する。この結果、使用可能なメニュー周辺境界線の長さが増加し、確率の高い他のメニュー選択肢に割り当てることが可能となる。例えば、図3Bには、図3Aに示されているのと同じ選択肢のセットを使用したメニュー配置の例が示されている。ただし、図3Bに示されるメニュー選択肢セットのメニュー配置では、「選択肢2」(322)が選択される事前確率が図3Aにおける確率よりもはるかに高いことを示している。図3Bの例では、メニューの右側にある332全体が「選択肢2」に関連があり、「選択肢3」と「選択肢4」の両方は、関連のあるメニュー選択サブ領域323と324内で、画面に直に接触することで選択する必要があり、希望のメニュー選択サブ領域から退出せずに接触を解除する(例:従来のメニュー選択である「タッピング」を使用)選択する必要がある。   Another important advantage of the present invention is that the touching action that starts within the area surrounded by the outermost menu perimeter border and never exits the menu past the perimeter border is To be regarded as a menu selection. That is, it is regarded as a selection by “tap” in the menu selection sub-region. This allows the improved menu selection approach to be introduced by the present invention in systems where no explanation or information regarding this new menu selection approach is provided to the user. Users who are completely unaware of the new selection approach can continue to use the traditional menu selection “tapping” until a new menu selection method is discovered or introduced. This allows flexibility in menu design because menu choices with very low prior probabilities can be displayed as “no border” menu choices that do not include any menu outer border segments in the menu choice's perimeter border. Will also improve. As a result, the length of the usable menu peripheral boundary line increases, and it becomes possible to assign to other menu options with high probability. For example, FIG. 3B shows an example of a menu arrangement using the same set of options as shown in FIG. 3A. However, the menu arrangement of the menu option set shown in FIG. 3B indicates that the prior probability that “option 2” (322) is selected is much higher than the probability in FIG. 3A. In the example of FIG. 3B, the entire 332 on the right side of the menu is related to “Option 2”, and both “Option 3” and “Option 4” are screened within the relevant menu selection sub-regions 323 and 324. It is necessary to make a selection by directly touching and to cancel the contact without leaving the desired menu selection sub-region (eg, using the conventional menu selection “tapping”).

同様の設計原理は、2つのサブメニューを組み合わせることによって、より多くの選択肢を持つメニューに効果的に使用できる。図5は8つの選択サブ領域501〜508を持つメニュー500を示す。選択サブ領域501〜504は共に最初のサブメニュー領域521を構成し、サブ領域505〜508は共に第2のサブメニュー領域522を構成する。選択サブ領域501〜504はサブメニュー521周辺境界セグメント511〜514と関連し、選択サブ領域505〜508はサブメニュー522周辺境界セグメント515〜518と関連している。サブメニュー521周辺境界セグメント514およびサブメニュー522周辺境界セグメント515は、メニュー500の外周境界に沿ってあるのではなく、それ自体がメニュー500の内部にある同じラインセグメント(514/515)であることに注意すべきである。これは問題ではないが、メニュー選択504と505の選択動作は、ラインセグメント(514/515)が交差する方向および最初の接触がなされるサブメニュー領域が異なる。サブメニュー521の領域にある最初の接触場所を持ち、ラインセグメント(514/515)を下向きに交差する接触動作は、メニュー選択504の一義的な選択である一方、サブメニュー522の領域にある最初の接触場所を持ち、ラインセグメント(514/515)を上向きに交差する接触行為は、メニュー選択505の一義的選択である。他の実施形態では、サブメニューの領域内の最初の接触の検出時に最初の接触場所を含むサブメニューが視覚的にハイライトされ、サブメニューの外周を交差することによりサブメニューに存在するパスをトレースして選択することのできる(サブメニュー内に含まれる)メニュー選択肢のセットを表示する。   Similar design principles can be effectively used for menus with more options by combining two submenus. FIG. 5 shows a menu 500 having eight selection subregions 501-508. The selected sub-areas 501 to 504 together constitute a first sub-menu area 521, and the sub-areas 505 to 508 together constitute a second sub-menu area 522. Selected subregions 501-504 are associated with submenu 521 peripheral boundary segments 511-514, and selected subregions 505-508 are associated with submenu 522 peripheral boundary segments 515-518. Submenu 521 perimeter border segment 514 and submenu 522 perimeter border segment 515 are not along the outer perimeter border of menu 500, but are themselves the same line segment (514/515) inside menu 500 Should be noted. Although this is not a problem, the selection actions of menu selections 504 and 505 differ in the direction in which the line segments (514/515) intersect and the submenu area where the first contact is made. A touch action that has an initial touch location in the area of submenu 521 and crosses line segment (514/515) downward is a unique choice of menu selection 504, while the first action in the area of submenu 522 The contact action having the contact location and crossing the line segment (514/515) upward is a unique selection of the menu selection 505. In other embodiments, the submenu containing the first touch location is visually highlighted upon detection of the first touch in the submenu area, and the path present in the submenu is crossed by crossing the perimeter of the submenu. Displays a set of menu choices (contained within submenus) that can be traced and selected.

メニューの周辺境界のセグメントとメニュー選択肢を関連付ける最も直接的な方法は、それ自体がメニュー選択肢の周辺境界の一部でもあるメニューの周辺境界のセグメントを関連付けることである(上記に説明の通り)。他の方法も可能であり、本発明の範囲外とはみなされるべきではない。例えば、各メニュー選択と関連する領域は異なる特徴的な背景(またはフォント)色で表示され、関連するメニューの周辺境界セグメントは対応する関連(または同一の)色で表示される。例えば図3Cでは、6つのメニュー選択肢341〜346はそれぞれ、オレンジ(341)、黄(342)、緑(343)、青(344)、紫(345)、赤(346)の背景色で表示され、対応するメニュー周辺境界セグメントはそれぞれ、オレンジ(351)、黄(352)、緑(353)、青(354)、紫(355)、赤(356)のセグメントとして表示される。あるいは、6つのメニュー選択肢341〜346はそれぞれ、明るいオレンジ、淡黄色、薄緑、薄青色、薄紫、明るい赤の背景色で表示することができ(明るい背景色によって各メニュー項目を読みやすくするため)、対応するメニュー周辺境界セグメントはそれぞれ、鮮明なオレンジ(351)、黄(352)、緑(353)、青(354)、紫(355)、赤(356)のセグメントとして表示されうる。2つのアプローチの組み合わせにより、色と周辺境界セグメントの近傍によりどのメニュー選択サブ領域が関連しているかを明らかにする場所において、使用する色を少なくすることができる。このように、メニューは図3Cに示す例のように表示することができ、各メニュー選択サブ領域は図3Aに示されるようなより複雑な多角形ではなく、従来型の長方形として表される。別の態様では、色の代わりにパターンまたは濃淡を使って、さまざまなメニューサブ領域を区別し、サブ領域と対応するメニュー周辺境界セグメントを関連付けることが可能である。   The most direct way of associating a menu perimeter segment with a menu option is to associate a menu perimeter segment that itself is also part of the menu option perimeter (as described above). Other methods are possible and should not be considered outside the scope of the present invention. For example, the area associated with each menu selection is displayed with a different characteristic background (or font) color, and the peripheral border segment of the associated menu is displayed with a corresponding associated (or identical) color. For example, in Figure 3C, the six menu choices 341-346 are displayed with a background color of orange (341), yellow (342), green (343), blue (344), purple (345), and red (346), respectively. The corresponding menu peripheral boundary segments are displayed as orange (351), yellow (352), green (353), blue (354), purple (355), and red (356) segments, respectively. Alternatively, each of the six menu choices 341-346 can be displayed with a light orange, light yellow, light green, light blue, light purple, light red background color (to make each menu item easier to read due to the light background color) ), The corresponding menu peripheral boundary segments can be displayed as clear orange (351), yellow (352), green (353), blue (354), purple (355), and red (356) segments, respectively. The combination of the two approaches can use fewer colors in places where it is clear which menu selection sub-regions are related by the neighborhood of the color and the peripheral border segment. In this way, the menu can be displayed as in the example shown in FIG. 3C, and each menu selection sub-region is represented as a conventional rectangle, rather than the more complex polygon shown in FIG. 3A. In another aspect, patterns or shades may be used instead of colors to distinguish the various menu sub-regions and associate the sub-regions with corresponding menu peripheral boundary segments.

さらに図6に示されるように、メニュー構造500は、各ケースで必要なメニュー選択動作を簡単かつ直感的にするために、一貫した4色のカラースキームを使用することができる。例えば、メニュー選択サブ領域501と505は青の背景、サブ領域502と506は赤の背景、サブ領域503と507は黄色の背景、サブ領域504と508は緑の背景で表示できる。するとユーザーは次の事のみを覚えておけばよい。青の背景−下をタップして上向きになでる。赤の背景−近くをタップして右向きになでる。黄色の背景−近くをタップして左向きになでる。緑の背景−上をタップして下向きになでる。この特定のスキームは簡略記憶記号のようなものでもある。青−「空に向かって」、緑−「地球に向かって」、「赤は右へ」、そして「黄色は左へ」など。このモジュラーアプローチでは、任意の数の選択肢を持つメニューを、本発明の原理を使用して構築することができる。   As further shown in FIG. 6, the menu structure 500 can use a consistent four-color scheme to make the menu selection operations required in each case simple and intuitive. For example, menu selection sub-regions 501 and 505 can be displayed with a blue background, sub-regions 502 and 506 with a red background, sub-regions 503 and 507 with a yellow background, and sub-regions 504 and 508 with a green background. Then the user only has to remember the following: Blue background-tap down and stroke upwards. Red background-tap near and stroke right. Yellow background-tap near and stroke left. Green background-tap up and stroke downwards. This particular scheme is also like a simple memory symbol. Blue-"towards the sky", green-"towards the earth", "red to the right", and "yellow to the left". In this modular approach, menus with any number of choices can be constructed using the principles of the present invention.

上記のように、本発明の実施形態を図解、説明してきたが、本発明の精神と範囲から逸脱することなく、多くの変更をすることが可能である。従って、方法の範囲は、上記に説明された特定の態様によってではなく、添付の請求項およびその法的同等物により決定されるべきである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
ユーザーの入力動作を検出してテキストを生成および編集する少なくとも1つの入力システム、および当該テキストを当該ユーザーに表示する少なくとも1つのテキスト表示システムから成るユーザーインターフェースを持つ電子機器上の入力および編集方法であって、
次に生成されるテキストオブジェクトが出力される当該テキスト表示システム内でのテキスト挿入位置の記録、
当該テキスト表示システムへの1つまたは複数の当該テキストオブジェクト出力を識別するための特徴的入力動作の検出、
検出された特徴的入力動作に基づく1つまたは複数の当該テキストオブジェクトの以前の出力の特定、
1つまたは複数の当該特定テキストオブジェクトが前に判定された、1つまたは複数の入力動作に対応する1つまたは複数の代替テキストオブジェクトの判定、
1つまたは複数の当該判定代替テキストオブジェクトと、1つまたは複数の以前に出力された当該特定テキストオブジェクトとの置換、
当該テキスト挿入位置の、当該入力動作の検出以前の記録場所への復元、を具備する方法。
[2]
[1]の方法において、さらに、テキスト表示システム上の1つまたは複数の当該判定代替テキストオブジェクトを、ユーザーに表示し、当該特定の以前に出力された1つまたは複数のテキストオブジェクト置換のため、表示されたテキストオブジェクトの1つを選択することを具備する方法。
[3]
[1]の方法において、さらに、当該の特徴的入力動作と関連する当該テキスト表示システム内の場所を判定し、当該判定場所に最も近いテキスト表示システムに対する以前に出力されたテキストオブジェクトを特定することを具備する方法。
[4]
[1]の方法において、さらに、1つまたは複数の出力テキストオブジェクト間に1つまたは複数のスペースを自動的に生成することを具備する方法。
[5]
[4]の方法において、さらに、2つ以上のクラスのテキストオブジェクトクラスに属する2つ以上のテキストオブジェクトを特定することを具備し、2つ以上の当該各テキストオブジェクトクラスは、当該クラスに属するテキストオブジェクトの出力の前または後の少なくとも1つで、1つまたは複数のスペースを自動的に生成する方法において他のクラスと異なる、方法。
[6]
[5]の方法において、さらに、当該テキストオブジェクトクラスの異なるクラスに属するテキストオブジェクトと差し替えられるテキストオブジェクトの前か後の少なくとも1つに位置するスペースを自動的に挿入または削除することの少なくとも1つを具備する方法。
[7]
[5]の方法において、さらに、当該テキスト挿入位置の変更を検出すること、また変更されたテキスト挿入場所における、次のテキストオブジェクト出力の前または後の少なくとも1つで、当該テキスト挿入場所に直接隣接するテキストオブジェクトに関連する当該テキストオブジェクトクラスに関して、また当該変更テキスト挿入場所に直接隣接するすべてのスペースに関して、1つまたは複数のスペースが自動的に生成される方法を変えること、を具備する方法。
[8]
[4]の方法において、さらに、特徴的なユーザー入力動作を検出して次に生成されたテキストオブジェクトの出力に関連した当該スペースの自動的な生成を不可能にし、かつ、次に生成された当該テキストオブジェクトの出力に続き、当該する自動的なスペース生成を自動的に再び可能にすること、を具備する方法。
[9]
[4]の方法において、さらに、特徴的なユーザー入力動作を検出して、当該する自動的に生成されたスペースの内、最も直近に発生成されたものを削除することを具備する方法。
[10]
[1]の方法において、さらに、テキスト表示システムに2つ以上の決定された代替テキストオブジェクトを表示し、意図されたテキストオブジェクトを置き換える代替テキストオブジェクトを特定するためにユーザーの選択を検出することを具備する方法。
[11]
[10]の方法において、さらに、指示されたテキストオブジェクトの代替として表示された代替テキストオブジェクトを選択する前に、当該ユーザーが1つ以上の別の入力動作を行い、テキスト挿入位置の復元が行われず、特定されたテキストオブジェクトがテキスト挿入位置として選択されていることで、1つ以上の別の入力動作の結果が意図されたテキストオブジェクトを修正または置換することを具備する方法。
[12]
[1]の方法において、さらに、特定されたテキストオブジェクトを置き換えるための決定された代替テキストオブジェクトの内、検出された入力動作に対して次に最も一致するテキストオブジェクトとして決定された1つ以上の代替テキストオブジェクトを自動的に特定することを具備する方法。
[13]
[1]の方法において、さらに、テキスト挿入位置が当該テキスト表示システムで可視である位置にはない場合、特徴的な入力動作が検出される以前に記録された位置にテキスト表示システム中のテキスト挿入位置を復元しないことを具備する方法。
[14]
テキストを入力および編集する装置であって、
テキストを生成および編集する1つ以上のユーザーの入力動作を検出する1つ以上の入力装置、
ユーザーに生成されたテキストを表示する出力装置、
入力装置および出力装置に接続されているプロセッサーを具備し、そのプロセッサーは、
次に生成されるテキストオブジェクトが出力されるテキスト挿入位置を記録する第1部分、
以前に当該出力装置に出力された1つ以上の当該テキストオブジェクトを特定する特徴的な入力動作を検出する第2部分、
検出された特徴的な入力動作に基づき1つ以上の以前に出力された当該テキストオブジェクトを特定する第3部分、
1つ以上の意図されたテキストオブジェクトを以前に決定した1つ以上の検出された入力動作に対応する1つ以上の代替テキストオブジェクトを決定する第4部分、
1つ以上の決定された当該代替テキストオブジェクトで以前に出力された1つ以上の当該テキストオブジェクトを置き換える第5部分、
特徴的な入力動作が検出される前に記録された場所にテキスト挿入位置を復元する第6部分を具備する、装置。
[15]
[14]の装置において、さらに、当該プロセッサーは、以前に出力されて特定された1つ以上のテキストオブジェクトを置き換えるために表示されたテキストオブジェクト1つをユーザーが選択するために、当該出力装置に1つ以上の決定された当該代替テキストオブジェクトを表示する第7部分を具備する、装置。
[16]
[14]の装置において、さらに、当該プロセッサーは、特徴的な当該入力動作に関連した当該出力装置内の場所を決定する第7部分、
および以前に当該出力装置に出力されたテキストオブジェクトの内、決定された場所に最も近いものを特定する第8部分を具備する、装置。
[17]
[14]の装置において、さらに、当該プロセッサーは、1つ以上の出力されたテキストオブジェクトの間に1つ以上のスペースを自動的に生成する第7部分を具備する、装置。
[18]
[17]の装置において、さらに、当該プロセッサーは、2つ以上のクラスのテキストオブジェクトに属する2つ以上のテキストオブジェクトを特定する第8部分を具備し、前記2つ以上のテキストオブジェクトのそれぞれは、当該クラスに属するテキストオブジェクトが出力される場合に、1つ以上のスペースが自動的に生成され、少なくとも1つは出力の前または後に生成されるという点において他のクラスと異なる、装置。
[19]
[18]の装置において、さらに、当該プロセッサーは、
当該テキストオブジェクトクラス内の別のクラスに属するテキストオブジェクトを置き換えるテキストオブジェクトの前か後の少なくとも1つに位置するスペースの自動的な挿入またはスペースの自動的な削除のための第8部分を具備する、装置。
[20]
[18]の装置において、さらに、当該プロセッサーは、
テキスト挿入位置の変更を検出でき、そして、変更されたテキスト挿入位置に近接であるテキストオブジェクトに関連したテキストオブジェクトのクラスに対して、または変更されたテキスト挿入位置に近接であるスペースに対して、少なくとも1つ以上のスペースが自動的に生成される方法、すなわち、少なくとも変更された当該テキスト挿入位置にある次のテキストオブジェクトが出力される前または後少なくとも1つで自動的に生成されたスペースを修正する第9部分を具備する、装置。
[21]
[17]の装置において、さらに、当該プロセッサーは、
特徴的なユーザー入力動作を検出して次に生成されたテキストオブジェクトに関連した自動的なスペースを生成することを不可能にし、かつ、次に生成されたテキストオブジェクトが出力された次第に、自動的にスペースを生成することを自動的に再び可能にする第8部分を具備する、装置。
[22]
[17]の装置において、さらに、当該プロセッサーは、
特徴的なユーザー入力動作を検出して、自動的に生成されたスペースの内、直近に生成されたものを削除する第8部分を具備する、装置。
[23]
[14]の装置において、さらに、当該プロセッサーは、
当該出力装置の中の2つ以上の決定された代替テキストオブジェクトを表示する第7部分、および
意図されたテキストオブジェクトを置き換える代替テキストオブジェクトを特定するためにユーザーにより行われる選択を検出する第8部分を具備する、装置。
[24]
[23]の装置において、さらに、当該プロセッサーは、
指示されたテキストオブジェクトの代替として表示された代替テキストオブジェクトを選択する前に、ユーザーの1つ以上の別の入力動作を検出する第9部分、および
以前の個所にテキスト挿入位置が復元されず、1つ以上の別な入力動作の結果としてテキストオブジェクトを修正または置換するように特定されたテキストオブジェクトを当該テキスト挿入位置として選択する第10部分を具備する、装置。
[25]
[14]の装置において、さらに、当該プロセッサーは、
指摘されたテキストオブジェクトを置き換えるために、決定された代替テキストオブジェクトの内、指摘されたテキストオブジェクトを生成した検出された当該入力動作に対して次に最も一致するテキストオブジェクトとして決定されている代替テキストオブジェクトを自動的に特定する第7部分を具備する、装置。
[26]
[14]の装置において、さらに、当該プロセッサーは、
特徴的な入力動作が記録された以前のテキスト挿入位置の場所が当事に出力装置の可視であるテキストにはないということを決定する第7部分、および
第7部分が記録された場所は当事に出力装置の可視であるテキストにはないということを決定する場合、第6部分が特徴的な入力動作が検出された以前に記録された個所にテキスト挿入位置を復元することを防ぐ第8部分を具備する、装置。
[27]
電子ディスプレーの上に指摘された限られた領域の中に、ユーザーが制御ポイントを位置決め、移動、有効、無効にできるディスプレーにおいて、2つ以上の映像的な選択肢を表示する方法において、
限られた領域の中に2つ以上の映像的な選択肢を提示すること、
限られた領域の境界に対して1つ以上のセグメントを定義すること、
映像的な選択肢の内、特定の1つには1つ以上の指定されたセグメント間を独立的に関連付けること、
限られた領域内の制御ポイントの有効化を検出すること、
有効化された制御ポイントが限られた領域内から出るなど有効化された制御ポイントの動作を検知すること、
有効化された制御ポイントが限られた領域内から出る際に通った独自の境界セグメントの1つを特定すること、
特定された境界セグメントの元に、映像的に表示された選択肢を決定することを具備する方法。
[28]
[27]の方法において、さらに、それぞれの当該選択肢が限られた領域内にある独自に定義されたサブ領域内に表示され、指定された特定の該境のセグメントが1つのサブ領域の境界セグメント間を兼ねる境界セグメントで定義され、さらにサブ領域内に表示された選択肢がその兼ねられた境界の領域に特定に関連する、方法。
[29]
[27]の方法において、1つ以上の色、映像的なパターン、または濃淡を使い1つ以上の選択肢が映像的に表示され、さらに、その独自関連付けられ定義された境界セグメントが同等またはそれ以上の色、映像的なパターン、または濃淡を使って表示される、方法。
[30]
[27]の方法において、さらに、限られた領域内で制御ポイントが有効化された場合、定義され限られた領域の映像的な表示を修正することを具備する方法。
[31]
[27]の方法において、2つ以上の限られた当該領域の長さに対して、関係はユーザーがその2つ以上の定義された境界セグメントには独自に関連されて映像的に表示される選択肢をそれぞれ選択することの決定された確率の関係に関連する、方法。
[32]
装置であって、
選択されるための2つ以上の選択肢を映像的に発表する出力装置、
当該ディスプレーの上に、ユーザーが制御ポイントを位置決め、移動、有効、無効に指定するための2つ以上の入力動作を検出する入力装置、
入力装置および出力装置にも接続されているプロセッサーを具備し、そのプロセッサーは、
ディスプレーの上に、定義されて限定された領域の中に2つ以上の選択肢を映像的に表示する第1部分、
該限定された領域の境界の2つ以上の特定のセグメントを指定する第2部分、
1つ以上の定義されたセグメントをそれぞれ映像的に表示された選択肢の内特定の1つに独立的に関連させる第3部分、
限定された領域内で制御ポイントが有効化された状態を検出する第4部分、
有効化された制御ポイントが限定された領域内から出るような次第の動作を検出する第5部分、
有効化された制御ポイントが限定された領域内から出る時に通った定義された境界セグメントを特定する第6部分、
特定された境界セグメントの元に、映像的に表示されている選択肢を決定する第6部分を具備する、装置。
[33]
[32]の装置において、当該プロセッサーは、さらに、
当該選択肢をそれぞれ独自に限定されたサブ領域内に表示する第7部分、
指定された特定の境界セグメントが1つのサブ領域の境界セグメントを兼ねる境界セグメントとして定義する第8部分、
サブ領域の中に表示された選択肢をその兼ねられた境界セグメントの領域と関連付ける第9部分を具備する、装置。
[34]
[32]の装置において、さらに、当該プロセッサーは、
1つ以上の色、映像的なパターン、または濃淡で1つ以上の選択肢を映像的に表示し、さらに、その独自に関連付けられ定義された境界セグメントを同等またはそれ以上の色、映像的なパターン、それに濃淡で表示する第7部分を具備する、装置。
[35]
[32]の装置において、さらに、当該プロセッサーは、
限定された領域内で制御ポイントが有効化された状態を検出した場合、定義され限定された領域の映像的な表示を修正する第7部分を具備する、装置。
[36]
[32]の装置において、さらに、2つ以上の限定された領域の長さに対して、関係はユーザーがその2つ以上の定義された境界セグメントと独自に関連付けられ映像的に表示された選択肢のそれぞれを選択することの決定された確率の関係に関連する、装置。
While embodiments of the invention have been illustrated and described, as noted above, many changes can be made without departing from the spirit and scope of the invention. Accordingly, the scope of the method should be determined not by the specific embodiments described above, but by the appended claims and their legal equivalents.
Hereinafter, the invention described in the scope of claims of the present application will be appended.
[1]
An input and editing method on an electronic device having a user interface comprising at least one input system that detects a user input action to generate and edit text, and at least one text display system that displays the text to the user There,
A record of the text insertion position in the text display system where the next generated text object is output,
Detection of characteristic input actions to identify one or more of the text object outputs to the text display system;
Identification of previous output of one or more of the text objects based on the detected characteristic input behavior;
Determining one or more alternative text objects corresponding to one or more input actions, wherein one or more such specific text objects have been previously determined;
Replacing one or more of the determined alternative text objects with one or more of the particular text objects previously output;
A method comprising: restoring the text insertion position to a recording location before detecting the input operation.
[2]
In the method of [1], the one or more determination alternative text objects on the text display system are further displayed to the user for the replacement of the one or more previously output text objects. A method comprising selecting one of the displayed text objects.
[3]
In the method of [1], a location in the text display system related to the characteristic input operation is further determined, and a text object output previously for the text display system closest to the determined location is specified. A method comprising:
[4]
The method of [1], further comprising automatically generating one or more spaces between the one or more output text objects.
[5]
The method of [4], further comprising specifying two or more text objects belonging to two or more classes of text object classes, wherein each of the two or more text object classes is a text belonging to the class. A method that differs from other classes in a way to automatically generate one or more spaces before or after the output of an object.
[6]
In the method of [5], at least one of automatically inserting or deleting a space positioned at least before or after a text object to be replaced with a text object belonging to a different class of the text object class. A method comprising:
[7]
In the method of [5], the change of the text insertion position is further detected, and the text insertion position is directly input to the changed text insertion position before or after the next text object output. Changing the manner in which one or more spaces are automatically generated for the text object class associated with adjacent text objects and for all spaces immediately adjacent to the modified text insertion location. .
[8]
In the method of [4], furthermore, a characteristic user input action is detected, and automatic generation of the space related to the output of the next generated text object is disabled, and the generated next A method comprising automatically re-enabling such automatic space generation following the output of the text object.
[9]
[4] The method according to [4], further comprising detecting a characteristic user input action and deleting the most recently generated and generated space among the automatically generated spaces.
[10]
The method of [1] further includes displaying two or more determined alternative text objects on the text display system and detecting a user selection to identify an alternative text object that replaces the intended text object. The method to comprise.
[11]
In the method of [10], before the alternative text object displayed as an alternative to the designated text object is selected, the user performs one or more other input operations to restore the text insertion position. Otherwise, the identified text object has been selected as the text insertion location, and the result of one or more other input actions includes modifying or replacing the intended text object.
[12]
In the method of [1], one or more of the determined alternative text objects for replacing the specified text object are determined as the next best text object for the detected input action. A method comprising automatically identifying an alternative text object.
[13]
In the method of [1], when the text insertion position is not in a position that is visible in the text display system, the text insertion in the text display system is performed at the position recorded before the characteristic input operation is detected. A method comprising not restoring a position.
[14]
A device for entering and editing text,
One or more input devices that detect the input action of one or more users generating and editing text;
An output device that displays the generated text to the user,
A processor connected to the input device and the output device, the processor comprising:
A first part for recording a text insertion position from which a generated text object is output;
A second portion for detecting a characteristic input action that identifies one or more of the text objects previously output to the output device;
A third part identifying one or more previously output text objects based on the detected characteristic input action;
A fourth part for determining one or more alternative text objects corresponding to one or more detected input actions that previously determined one or more intended text objects;
A fifth part for replacing one or more of the previously output text objects with one or more determined alternative text objects;
An apparatus comprising a sixth part for restoring a text insertion position to a location recorded before a characteristic input motion is detected.
[15]
[14] In the apparatus of [14], the processor further includes a processor for selecting one of the displayed text objects to replace one or more previously identified text objects. An apparatus comprising a seventh portion for displaying one or more determined alternative text objects.
[16]
[14] In the device of [14], the processor further includes a seventh part for determining a place in the output device related to the characteristic input operation,
And an eighth portion that identifies the text object previously output to the output device that is closest to the determined location.
[17]
[14] The apparatus according to [14], further comprising a seventh portion for automatically generating one or more spaces between the one or more output text objects.
[18]
[17] In the apparatus of [17], the processor further includes an eighth portion that specifies two or more text objects belonging to two or more classes of text objects, and each of the two or more text objects includes: A device that differs from other classes in that when a text object belonging to the class is output, one or more spaces are automatically generated and at least one is generated before or after output.
[19]
[18] In the apparatus of [18], the processor further includes:
An eighth part for automatically inserting or deleting a space located in at least one of the text objects replacing a text object belonging to another class within the text object class; ,apparatus.
[20]
[18] In the apparatus of [18], the processor further includes:
Changes to the text insertion position can be detected and for a class of text objects associated with a text object that is close to the changed text insertion position, or for a space that is close to the changed text insertion position A method in which at least one or more spaces are automatically generated, i.e., at least one automatically generated space before or after the next text object at the changed text insertion position is output. An apparatus comprising a ninth part to be modified.
[21]
In the apparatus of [17], the processor further includes:
It is impossible to detect characteristic user input actions and generate automatic space associated with the next generated text object, and automatically as soon as the next generated text object is output A device comprising an eighth part which automatically enables again to create a space.
[22]
In the apparatus of [17], the processor further includes:
An apparatus comprising: an eighth portion that detects characteristic user input actions and deletes the most recently generated automatically generated space.
[23]
In the apparatus of [14], the processor further includes:
A seventh portion displaying two or more determined alternative text objects in the output device; and
An apparatus comprising an eighth portion for detecting a selection made by a user to identify an alternative text object that replaces the intended text object.
[24]
In the apparatus of [23], the processor further includes:
A ninth part for detecting one or more other input actions of the user before selecting an alternative text object displayed as an alternative to the indicated text object; and
A tenth portion for selecting a text object identified as a text insertion position to be modified or replaced as a result of one or more other input operations without restoring the text insertion position to a previous location; Do the equipment.
[25]
In the apparatus of [14], the processor further includes:
Alternative text determined as the next best matching text object for the detected input action that generated the specified text object among the determined alternative text objects to replace the specified text object An apparatus comprising a seventh portion for automatically identifying an object.
[26]
In the apparatus of [14], the processor further includes:
A seventh part that determines that the location of the previous text insertion position where the characteristic input action was recorded is not in the text that is currently visible to the output device; and
If it is determined that the place where the seventh part was recorded is not actually in the text that is visible to the output device, the sixth part is the text where it was recorded before the characteristic input action was detected. An apparatus comprising an eighth portion that prevents restoring the insertion position.
[27]
In a method for displaying two or more video options in a display where a user can position, move, enable, and disable control points within a limited area pointed out on an electronic display.
Presenting two or more video options in a limited area,
Defining one or more segments for a limited area boundary;
One or more designated segments independently associated with a particular one of the video options;
Detecting the activation of control points within a limited area;
Detecting the action of an activated control point, such as an activated control point coming out of a limited area,
Identifying one of the unique boundary segments through which the activated control point went out of the limited area,
Determining a video-displayed option based on the identified boundary segment.
[28]
[27] In the method of [27], each of the options is further displayed in a uniquely defined sub-region in a limited region, and the specified segment in the boundary is a boundary segment in one sub-region. A method defined in a boundary segment that also serves as a gap, and the options displayed in a sub-region are specifically related to the region of that border.
[29]
[27] In the method of [27], one or more options are displayed graphically using one or more colors, video patterns, or shades, and the uniquely associated boundary segment is equal or higher A method that is displayed using different colors, visual patterns, or shades.
[30]
[27] The method according to [27], further comprising correcting the visual display of the defined limited area when the control point is activated in the limited area.
[31]
[27] In the method of [27], for two or more limited lengths of the region, the relationship is visually displayed so that the user is uniquely associated with the two or more defined boundary segments. A method associated with the determined probability relationship of selecting each option.
[32]
A device,
An output device that visually presents two or more options to be selected,
An input device for detecting two or more input operations for positioning, moving, valid and invalid control points on the display;
A processor connected to the input device and the output device;
A first portion that visually displays two or more options in a defined and defined area on the display;
A second portion designating two or more specific segments of the limited region boundary;
A third part that independently associates one or more defined segments with a particular one of each of the visually displayed options;
A fourth part for detecting a state in which the control point is activated in a limited area;
A fifth part for detecting a gradual movement such that an activated control point exits within a limited area;
A sixth part that identifies a defined boundary segment that has passed when the activated control point exits within a limited area;
An apparatus comprising: a sixth portion for determining a video-displayed option under a specified boundary segment.
[33]
In the apparatus of [32], the processor further includes:
A seventh part displaying the options in their own limited sub-areas,
An eighth part defining a specified boundary segment as a boundary segment that also serves as a boundary segment of one sub-region;
An apparatus comprising: a ninth portion associating an option displayed in a sub-region with a region of its bounded boundary segment.
[34]
In the apparatus of [32], the processor further includes:
Display one or more choices in one or more colors, video patterns, or shades, and also display their uniquely associated boundary segments in equivalent or higher color or video patterns , An apparatus comprising a seventh portion for displaying it in shading.
[35]
In the apparatus of [32], the processor further includes:
An apparatus comprising: a seventh portion for correcting a visual display of a defined limited area when detecting a state in which the control point is activated in the limited area.
[36]
[32] In the apparatus of [32], further, for two or more limited area lengths, the relationship is a choice that is visually displayed by the user uniquely associated with the two or more defined boundary segments A device related to the determined probability relationship of selecting each of the.

Claims (6)

ユーザがテキストの入力および編集を行う最低1つの入力システムと、前記ユーザに前記テキストを表示する最低1つのテキスト表示システムから構成されるユーザインターフェースを備えた電子デバイスにおいてテキストを入力および編集する方法であって
前記電子デバイスの第1のコンポーネントによって、ユーザによってわれた1つまたは複数の入力行為を検出し、
前記電子デバイスの第2のコンポーネントによって、前記ユーザによって行われた1つまたは複数の入力行為に対応する1つまたは複数のテキストオブジェクトを判断するために前記ユーザによって行われた1つまたは複数の入力行為を処理し、
前記電子デバイスの第3のコンポーネントによって、前記判断したテキストオブジェクトのうちの1つを識別し、
前記電子デバイスの第4のコンポーネントによって、前記識別したテキストオブジェクトを前記テキスト表示システム内の決まったテキスト挿入位置に出力し、
前記電子デバイスの第5のコンポーネントによって、次に識別されるテキストオブジェクトが出力される前記テキスト表示システム内の前記テキスト挿入位置の場所を記録し、
前記電子デバイスの第6のコンポーネントによって、ユーザによって行われた特定の入力行為を検出し、前記テキスト表示システムに先に出力された1つまたは複数の前記テキストオブジェクトを指し示し
前記電子デバイスの第7のコンポーネントによって、ユーザがさらなる入力行為を行うこと無しに、1つまたは複数の代替のテキストオブジェクトを識別し、ここで、前記1つまたは複数の代替のテキストオブジェクトは、前記検出された1つまたは複数の入力行為に対応すると判断されるものでもあり、1つまたは複数の前記指し示されたテキストオブジェクトは、前記検出された1つまたは複数の入力行為のうちから判断されたものである、
前記電子デバイスの第8のコンポーネントによって、1つまたは複数の前記指し示されたテキストオブジェクトを置き換えるために、代替のテキストオブジェクトの選択用として1つまたは複数の前記識別した代替のテキストオブジェクトを前記ユーザに表示し、
前記指し示されたテキストオブジェクトを置き換えるために前記表示された代替のテキストオブジェクトのいずれかを選択する前に、前記ユーザが1つまたは複数の他の入力行為を行う場合に、
前記電子デバイスの第9のコンポーネントによって、前記1つまたは複数の他の入力行為によって前記指し示されたテキストオブジェクトが変更または置き換えられるように、前記指し示されたテキストオブジェクトを前記テキスト挿入位置として選択し、
さもなければ、
前記電子デバイスの第10のコンポーネントによって、前記テキスト表示システム内の1つまたは複数の前記指し示されたテキストオブジェクトを1つまたは複数の前記識別した代替のテキストオブジェクトに置き換えて、
前記電子デバイスの第11のコンポーネントによって、前記テキスト表示システム内の前記テキスト挿入位置を前記特定の入力行為が検出される前に記録された場所に復元する、
ことを具備し、
前記ユーザによって行われた特定の入力行為は前記テキスト挿入位置の前記場所を変更するために使用される行為ではない、方法。
And at least one input system for a user to input and edit text, enter and edit Oite text to an electronic device with a user interface comprised of a minimum of one text display system for displaying the text to the user A way to
The first component of the electronic device, to detect one or more input actions that we row by the user,
The second component of the electronic device, to determine one or more text objects corresponding to one or more input actions taken by the user, one made by the user or more Process input actions,
Identifying one of the determined text objects by a third component of the electronic device;
By the fourth component of the electronic device outputs a text object that the identified fixed text insertion point within the text display system,
Records the location of the text insertion position in the text display system where the next identified text object is output by the fifth component of the electronic device;
By the sixth component of the electronic device detects the specific input action made by the user, shown refers to one or more of the text object previously outputted to the text display system,
The seventh component of the electronic device, without the user to perform further input action, one or more alternate text objects to identify, wherein said one or text object of a plurality of alternative, It is also determined to correspond to the detected one or more input actions, and the one or more indicated text objects are determined from the detected one or more input actions. Is
In order to replace one or more of the pointed text objects by the eighth component of the electronic device, the user identifies one or more of the identified alternative text objects for selection of an alternative text object. Displayed on the
If the user performs one or more other input actions before selecting any of the displayed alternative text objects to replace the pointed text object,
Selecting the pointed text object as the text insertion position such that the ninth component of the electronic device changes or replaces the pointed text object by the one or more other input actions And
Otherwise,
Wherein the tenth component of the electronic device, by replacing one or more of the one pointed to text objects or more of said identified alternate text objects within the text display system,
By the 11 components of the electronic device, the text insertion point in the text display system, to restore the location where the particular input action is recorded before it is detected,
Comprising
The method wherein the particular input action performed by the user is not an action used to change the location of the text insertion location.
前記電子デバイスによって、前記ユーザによって行われた特定の入力為に関連する前記テキスト表示システム内の場所を判断し、前記判断された場所に最も近い前記テキスト表示システムに先に出力されたテキストオブジェクトを1つまたは複数の前記指し示されたテキストオブジェクトとして識別することをさらに具備する請求項1記載の方法。 By said electronic device, wherein the determining the location of the text display system, the text object previously outputted to the nearest the text display system in the determined location related to a specific input line made by the user the method of claim 1, further comprising identifying a as one or more of the pointed to text objects. 前記電子デバイスによって、1つまたは複数の出力されたテキストオブジェクトの間に1つまたは複数のスペースを自動的に生成することをさらに具備する請求項1記載の方法。 Wherein the electronic device, one or more of the output methods of claim 1, further comprising automatically generating the one or more spaces between the text object. 前記電子デバイスによって、テキストオブジェクトから成る2つかそれ以上のグループに属する2つかそれ以上のテキストオブジェクトを識別することと、ここで、前グループのうちの1つかそれ以上のグループに属するテキストオブジェクトの出力の直前および/または直後に1つかそれ以上のスペースが自動的に生成されることで、前記テキストオブジェクトから成る2つかそれ以上のグループのうちの各グループは、前記グループのうちの他のグループ、スペースの設定が異なる
記テキストオブジェクトから成るグループのうち異なるグループに属するテキストオブジェクトを置き換えるテキストオブジェクトの直前および/または直後にスペースを自動的に挿入または削除すること
をさらに具備する請求項記載の方法。
By said electronic device, and identifying the two or more text objects belonging to two or more groups consisting of text objects, where the text objects belonging to one or more groups of pre-Symbol Group One or more spaces are automatically generated immediately before and / or immediately after the output of each of the groups so that each of the two or more groups of text objects The group and space settings are different .
And be automatically inserted or deleted immediately before and / or the space immediately after the text object to replace the text objects that belong to different groups of out of the group consisting of before Symbol text object,
4. The method of claim 3 , further comprising:
前記電子デバイスによって、前記指し示されたテキストオブジェクトを置き換える代替のテキストオブジェクトを自動的に識別することをさらに具備する請求項1記載の方法。 The method of claim 1, further comprising automatically identifying an alternative text object that replaces the indicated text object by the electronic device. テキスト入力装置であって
ユーザによって行われた1つまたは複数の入力行為を検出する1つまたは複数の入力デバイスと、
生成したテキストをユーザに表示する出力デバイスと、
前記入力デバイスおよび前記出力デバイスに結合されたプロセッサであって、
ユーザによってわれた1つまたは複数の入力行為を検出するための第1のコンポーネントと、
前記ユーザによって行われた1つまたは複数の入力行為に対応する1つまたは複数のテキストオブジェクトを判断するために前記ユーザによって行われた1つまたは複数の入力行為を処理するための第2のコンポーネントと、
前記判断したテキストオブジェクトのうちの1つを識別するための第3のコンポーネントと、
前記識別したテキストオブジェクトを前記出力デバイスの決まったテキスト挿入位置に出力するための第4のコンポーネントと、
次に識別されるテキストオブジェクトが出力される前記テキスト挿入位置の場所を記録するための第5のコンポーネントと、
ユーザによって行われた特定の入力行為を検出し、前記出力デバイスに先に出力された1つまたは複数の前記テキストオブジェクトを指し示すための第6のコンポーネントとここで、前記ユーザによって行われた特定の入力行為は前記テキスト挿入位置の前記場所を変更するために使用される行為ではない
ユーザがさらなる入力行為を行うこと無しに、1つまたは複数の代替のテキストオブジェクトを識別するための第7の構成要素と、ここで、前記1つまたは複数の代替のテキストオブジェクトは、前記検出された1つまたは複数の入力行為に対応すると判断されるものでもあり、1つまたは複数の前記指し示されたテキストオブジェクトは、前記検出された1つまたは複数の入力行為のうちから判断されたものである、
1つまたは複数の前記指し示されたテキストオブジェクトを置き換えるために、代替のテキストオブジェクトの選択用として1つまたは複数の前記識別した代替のテキストオブジェクトを前記ユーザに表示するための第8のコンポーネントと、
前記指し示されたテキストオブジェクトを置き換えるために前記表示された代替のテキストオブジェクトのいずれかを選択する前に、前記ユーザが1つまたは複数の他の入力行為を行う場合に、
前記1つまたは複数の他の入力行為によって前記指し示されたテキストオブジェクトが変更または置き換えられるように、前記指し示されたテキストオブジェクトを前記テキスト挿入位置として選択するための第9のコンポーネントと、
さもなければ、
前記出力デバイスの1つまたは複数の前記指し示されたテキストオブジェクトを1つまたは複数の前記識別した代替のテキストオブジェクトに置き換えるための第10のコンポーネントと、
前記出力デバイスの前記テキスト挿入位置を前記特定の入力行為検出される前に記録された場所に復元するための第11コンポーネントと
を具備する、プロセッサ
を具備するテキスト入力装置。
A text input device,
One or a plurality of input devices that detect one or more input actions taken me by the user,
An output device that displays the generated text to the user;
A processor coupled to the input device and the output device, the processor comprising:
A first component for detecting one or more input actions that we row by the user,
To determine one or more text objects corresponding to one or more input actions taken by the user, one made by the user or more input action a second for processing Components ,
A third component for identifying one of the determined text objects;
A fourth component for outputting the identified text object to a predetermined text insertion position of the output device;
A fifth component for recording the location of the text insertion position where a text object to be identified next is output;
Detecting a specific input action made by the user, and the sixth component of Me indicates static refers to one or more of the text object previously outputted to the output device, wherein the line by the user The specific input action is not an action used to change the location of the text insertion position ,
Without the user to perform further input actions, and one or more alternate seventh component of for a text object that identifies the, wherein said one or text object of a plurality of alternative, the detection One or more input actions that are determined, and the one or more indicated text objects are determined from among the detected one or more input actions. Is,
To replace can one or place the plurality of said pointed to text objects, the one or text object of a plurality of the identified alternative for the selection of alternate text objects for display to the user 8 And the components of
If the user performs one or more other input actions before selecting any of the displayed alternative text objects to replace the pointed text object,
A ninth component for selecting the pointed text object as the text insertion position so that the pointed text object is changed or replaced by the one or more other input actions;
Otherwise,
A tenth component for replacing one or more of the pointed text objects of the output device with one or more of the identified alternative text objects;
The text insertion position of the output device, and a second 11 components to restore the place where the specific input action is recorded before it is detected,
Comprises a, and a processor,
A text input device comprising:
JP2009518347A 2006-07-03 2007-07-03 User interface system and method for text editing and menu selection Expired - Fee Related JP5661279B2 (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US80652206P 2006-07-03 2006-07-03
US60/806,522 2006-07-03
US11/533,714 US7382358B2 (en) 2003-01-16 2006-09-20 System and method for continuous stroke word-based text input
US11/533,714 2006-09-20
US91784907P 2007-05-14 2007-05-14
US60/917,849 2007-05-14
PCT/US2007/015403 WO2008013658A2 (en) 2006-07-03 2007-07-03 System and method for a user interface for text editing and menu selection

Publications (2)

Publication Number Publication Date
JP2009543209A JP2009543209A (en) 2009-12-03
JP5661279B2 true JP5661279B2 (en) 2015-01-28

Family

ID=38981954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009518347A Expired - Fee Related JP5661279B2 (en) 2006-07-03 2007-07-03 User interface system and method for text editing and menu selection

Country Status (5)

Country Link
EP (1) EP2044587A4 (en)
JP (1) JP5661279B2 (en)
KR (1) KR101488537B1 (en)
CN (1) CN101529494B (en)
WO (1) WO2008013658A2 (en)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5438909B2 (en) * 2008-03-14 2014-03-12 ソニーモバイルコミュニケーションズ株式会社 Character input device, character input support method, and character input support program
KR101412586B1 (en) * 2008-07-01 2014-07-02 엘지전자 주식회사 Method for input of mobile terminal
US8661362B2 (en) * 2009-03-16 2014-02-25 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
KR101633332B1 (en) 2009-09-30 2016-06-24 엘지전자 주식회사 Mobile terminal and Method of controlling the same
JP5486977B2 (en) * 2010-03-24 2014-05-07 株式会社日立ソリューションズ Coordinate input device and program
CN101957724A (en) * 2010-10-05 2011-01-26 孙强国 Method for improving associated Pinyin character input
TWI490705B (en) * 2010-10-07 2015-07-01 英業達股份有限公司 Editing system for text and method thereof
JP5609718B2 (en) * 2011-03-10 2014-10-22 富士通株式会社 Input support program, input support device, and input support method
WO2012139266A1 (en) 2011-04-09 2012-10-18 上海汉翔信息技术有限公司 System and method for implementing sliding input of text based upon on-screen soft keyboard on electronic equipment
KR20130034747A (en) * 2011-09-29 2013-04-08 삼성전자주식회사 Method and apparatus for providing user interface in portable device
US8667414B2 (en) 2012-03-23 2014-03-04 Google Inc. Gestural input at a virtual keyboard
US9021380B2 (en) 2012-10-05 2015-04-28 Google Inc. Incremental multi-touch gesture recognition
US8782549B2 (en) 2012-10-05 2014-07-15 Google Inc. Incremental feature-based gesture-keyboard decoding
US8850350B2 (en) 2012-10-16 2014-09-30 Google Inc. Partial gesture text entry
US8843845B2 (en) 2012-10-16 2014-09-23 Google Inc. Multi-gesture text input prediction
US8701032B1 (en) 2012-10-16 2014-04-15 Google Inc. Incremental multi-word recognition
US8819574B2 (en) 2012-10-22 2014-08-26 Google Inc. Space prediction for text input
US8806384B2 (en) * 2012-11-02 2014-08-12 Google Inc. Keyboard gestures for character string replacement
CN103838458B (en) * 2012-11-26 2017-05-10 北京三星通信技术研究有限公司 Mobile terminal and control method of input method of mobile terminal
US8832589B2 (en) 2013-01-15 2014-09-09 Google Inc. Touch keyboard using language and spatial models
US8887103B1 (en) 2013-04-22 2014-11-11 Google Inc. Dynamically-positioned character string suggestions for gesture typing
US9081500B2 (en) 2013-05-03 2015-07-14 Google Inc. Alternative hypothesis error correction for gesture typing
CN103399793B (en) * 2013-07-30 2017-08-08 珠海金山办公软件有限公司 A kind of method and system of automatic switchover similar content
CN103533448B (en) * 2013-10-31 2017-12-08 乐视致新电子科技(天津)有限公司 The cursor control method and cursor control device of intelligent television
US10254959B2 (en) 2014-01-24 2019-04-09 Huawei Device (Dongguan) Co., Ltd. Method of inputting a character into a text string using a sliding touch gesture, and electronic device therefor
CN107506115A (en) * 2016-06-14 2017-12-22 阿里巴巴集团控股有限公司 A kind of display processing method of menu, apparatus and system
CN108664201B (en) * 2017-03-29 2021-12-28 北京搜狗科技发展有限公司 Text editing method and device and electronic equipment
CN107203505A (en) * 2017-05-26 2017-09-26 北京小米移动软件有限公司 Text message edit methods and device
CN108984239B (en) * 2018-05-29 2021-07-20 北京五八信息技术有限公司 Processing method, device and equipment for selecting control and storage medium
CN110197136B (en) * 2019-05-13 2021-01-12 华中科技大学 A method and system for cascading action candidate frame generation based on action boundary probability
US11379113B2 (en) 2019-06-01 2022-07-05 Apple Inc. Techniques for selecting text

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5378736A (en) 1976-12-23 1978-07-12 Toshiba Corp Return mechanism to final input position
JPS5840584A (en) 1981-09-02 1983-03-09 株式会社東芝 Character display
JPH0754512B2 (en) 1986-12-10 1995-06-07 キヤノン株式会社 Document processor
US5574482A (en) * 1994-05-17 1996-11-12 Niemeier; Charles J. Method for data input on a touch-sensitive screen
JPH09293328A (en) 1996-04-25 1997-11-11 Olympus Optical Co Ltd Voice reproducer
US5953541A (en) * 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
JPH1115914A (en) * 1997-06-09 1999-01-22 Internatl Business Mach Corp <Ibm> Character data input device and its method
JPH11102361A (en) * 1997-09-29 1999-04-13 Nec Ic Microcomput Syst Ltd Character input correcting method and recording medium where procedure thereof is recorded
JP3082746B2 (en) * 1998-05-11 2000-08-28 日本電気株式会社 Speech recognition system
US7030863B2 (en) * 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
JP2001060192A (en) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> Character data correction device and storage medium
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
JP4260777B2 (en) * 2004-07-22 2009-04-30 パナソニック株式会社 Semiconductor device and manufacturing method thereof
US20060071915A1 (en) * 2004-10-05 2006-04-06 Rehm Peter H Portable computer and method for taking notes with sketches and typed text
JP2006031725A (en) 2005-08-10 2006-02-02 Microsoft Corp Character processor

Also Published As

Publication number Publication date
EP2044587A2 (en) 2009-04-08
KR101488537B1 (en) 2015-02-02
KR20090035570A (en) 2009-04-09
WO2008013658A2 (en) 2008-01-31
JP2009543209A (en) 2009-12-03
CN101529494B (en) 2012-01-04
CN101529494A (en) 2009-09-09
WO2008013658A3 (en) 2008-11-27
EP2044587A4 (en) 2012-09-26

Similar Documents

Publication Publication Date Title
JP5661279B2 (en) User interface system and method for text editing and menu selection
US7542029B2 (en) System and method for a user interface for text editing and menu selection
US6928619B2 (en) Method and apparatus for managing input focus and z-order
CA2501118C (en) Method of combining data entry of handwritten symbols with displayed character data
US6094197A (en) Graphical keyboard
US6903730B2 (en) In-air gestures for electromagnetic coordinate digitizers
JP5468665B2 (en) Input method for a device having a multilingual environment
KR102241618B1 (en) A Device for operating according to pressure state of touch input and method thereof
US7098896B2 (en) System and method for continuous stroke word-based text input
US9881224B2 (en) User interface for overlapping handwritten text input
US8643605B2 (en) Gesture based document editor
RU2366006C2 (en) Dynamic feedback for gestures
US6160555A (en) Method for providing a cue in a computer system
US7319454B2 (en) Two-button mouse input using a stylus
US20160124926A1 (en) Advanced methods and systems for text input error correction
US20130162577A1 (en) Text Entry For Electronic Devices
JP2013515295A (en) Data input system and method
JP2019514097A (en) Method for inserting characters in a string and corresponding digital device
JP2019514096A (en) Method and system for inserting characters in a string
WO2017186350A1 (en) System and method for editing input management
JP3075882B2 (en) Document creation and editing device
JP5977764B2 (en) Information input system and information input method using extended key
KR100379917B1 (en) Mobile Terminal Equipped with Hot Key Input

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130722

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140108

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140210

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141203

R150 Certificate of patent or registration of utility model

Ref document number: 5661279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees