JPS63229518A - Screen management method - Google Patents
Screen management methodInfo
- Publication number
- JPS63229518A JPS63229518A JP62065048A JP6504887A JPS63229518A JP S63229518 A JPS63229518 A JP S63229518A JP 62065048 A JP62065048 A JP 62065048A JP 6504887 A JP6504887 A JP 6504887A JP S63229518 A JPS63229518 A JP S63229518A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- drawer
- objects
- display
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Digital Computer Display Output (AREA)
Abstract
Description
【発明の詳細な説明】
〔概 要〕
直接操作型のマンマシンインターフェースを有する端末
の画面管理方式に係り、画面の状態を分散して管理する
ことによりアプリケーションの追加、変更を容易に可能
にする。[Detailed Description of the Invention] [Summary] This invention relates to a screen management method for a terminal having a direct operation type man-machine interface, and enables easy addition and modification of applications by managing the screen state in a distributed manner. .
本発明は、マン・マシン・インターフェース(MMI)
を有する端末装置の画面管理方式に関する。The present invention utilizes a man-machine interface (MMI)
The present invention relates to a screen management method for a terminal device having the following.
近年、情報処理装置の高度化に伴ない、情報処理装置の
使い易さの研究が重要となっている。しかし、今のとこ
ろ“使い易さ”に対しての確固たる基礎的な理論がある
わけではなく、試行錯誤的なアプローチによっている。In recent years, as information processing devices have become more sophisticated, research into the ease of use of information processing devices has become important. However, there is currently no solid basic theory regarding "ease of use," and a trial-and-error approach is being used.
中でも最も有望なアプローチの1つとして直接操作型(
direct mani−pulation)のマンマ
シンインターフェースが挙げられる。このような環境で
はユーザーはビットマツプディスプレイ上に表現された
図形をポインティングデバイス(電子ペン、マウスなど
)によって指示すると同時に迅速なフィードバックを受
け、画面の変化から何が起ったかをただちに判断するこ
とができる。またディスプレイ上の図形は現実の世界を
沈吟したものであり、現実のものと同じように操作でき
るので、ユーザーは容易に操作法を修得することができ
る。One of the most promising approaches is direct manipulation (
direct mani-pulsion) man-machine interface. In such an environment, a user can direct a figure represented on a bitmap display using a pointing device (electronic pen, mouse, etc.) and receive rapid feedback at the same time, and can immediately determine what has happened based on changes in the screen. Can be done. In addition, the figures on the display are miniature versions of the real world and can be operated in the same way as real objects, so users can easily learn how to operate them.
第2図にディスプレイの一例を示す。第2図全体が端末
装置のCRTディスプレイに表示され、右端はアイコン
(IC0N ;類似的記号、絵のコマンド)ボックスと
呼ばれ、残りがウィンドウと呼ばれる。アイコンボック
スには本例では上から順にツールボックスTB、ペイン
トドロアPD、 ドラフトドロアDD、エディツトド
ロアED、)ラッシュTR,およびデスクDS各図形が
ある。ウィンドウには本例では図表CH,部分円(グラ
フ)PCなどがある。このディスプレイのIC0N B
OXのある図形をペンタフチすると、そのタッチ点の座
標が解析され、当該アプリケーションプログラムが走行
し、ドロア(引出し)を開くなど所定の処理が行なわれ
る。FIG. 2 shows an example of the display. The whole of FIG. 2 is displayed on the CRT display of the terminal device, the right end is called an icon (ICON; similar symbol, picture command) box, and the rest are called windows. In this example, from the top, the icon box includes the following shapes: tool box TB, paint drawer PD, draft drawer DD, edit drawer ED, rush TR, and desk DS. In this example, the windows include a chart CH, a partial circle (graph) PC, and the like. IC0N B of this display
When a certain figure is touched with the pen, the coordinates of the touch point are analyzed, the application program runs, and predetermined processing such as opening a drawer is performed.
このような操作法を構成するソフトウェアで問題となる
のは、複雑に変化する画面構成に従い座標分析もそれに
伴って複雑に変化しなければならないということである
。特に、図形が複雑に重なり合っている時は座標分析が
非常に複雑なものとなっていく。更に、プログラムが複
雑化すると画面構成やアプリケーションの追加、変更が
容易ならざりしものとなる。このため、画面構成やアプ
リケーションの追加、変更が容易に行なえるような画面
管理方式が望まれる。A problem with the software that constitutes such an operating method is that the coordinate analysis must also change in a complicated manner as the screen configuration changes in a complicated manner. In particular, when figures overlap in a complex manner, coordinate analysis becomes extremely complex. Furthermore, as programs become more complex, it becomes difficult to easily add and change screen configurations and applications. For this reason, a screen management system is desired that allows the screen configuration and additions and changes of applications to be easily made.
第8図は、従来の集中的に画面を管理する方式を説明す
る図である。中)に示すようにこれは画面管理部とアプ
リケーション実行部に分かれ、(a)に示すように画面
管理部は画面管理テーブル、座標分析部、および画面変
更処理部からなる。画面管理テーブルはディスプレイ上
の各画面(前記のツールボックスなど)を、その始端X
、 Y座標、”横幅、縦幅、重なり、および当該画面に
対するアプリケーションプログラム(単にアプリケーシ
ョンともいう)の番号で管理する。FIG. 8 is a diagram illustrating a conventional method of centrally managing screens. As shown in (middle), this is divided into a screen management section and an application execution section, and as shown in (a), the screen management section consists of a screen management table, a coordinate analysis section, and a screen change processing section. The screen management table allows each screen on the display (such as the toolbox mentioned above) to be
, Y coordinate, width, height, overlap, and the number of the application program (also simply referred to as application) for the screen.
ポインティングデバイスから座標が入力されると画面管
理部において座標分析され、その座標に対応したアプリ
ケーションが起動される。そのアプリケーションによっ
て画面構成が変化した時には画面管理部の画面変更処理
部を起動して、画面管理テーブルを変更する。例えば第
2図のようにペイントドロアPDに電子ペンを当てると
該ペンは出力を生じ、この出力からペンが当接された点
のX、Y座標が求められ、このX、Y座標よりペイント
ドロアが指示されたことが分り、アプリケーションが走
ってドロアが開かれ、第3図のように3本の筆等が現わ
れる(画面構成が変化する)。When coordinates are input from a pointing device, the screen management section analyzes the coordinates and launches an application corresponding to the coordinates. When the screen configuration changes due to the application, the screen change processing section of the screen management section is activated to change the screen management table. For example, as shown in Figure 2, when an electronic pen is applied to the paint drawer PD, the pen produces an output, and from this output the X and Y coordinates of the point where the pen was in contact are determined, and from these X and Y coordinates, the paint drawer The application runs, the drawer opens, and three brushes appear as shown in Figure 3 (the screen configuration changes).
この3本の筆の1つに電子ペンを当てると、今度2
はペイントドロアではなく筆が指示されたことになるが
、このようにすべく画面管理テーブルの変更を行ない、
ペンタッチ点の座標と図形およびそのアプリケーション
の対応関係を変更する。When you touch one of these three brushes with the electronic pen, the second
This means that the brush is specified instead of the paint drawer, but in order to do this, we changed the screen management table,
Change the correspondence between the coordinates of the pen touch point, the shape, and its application.
この従来の集中的に画面を管理する方式では、新たにア
プリケーションを追加しようとすると、アプリケーショ
ン部と画面管理部の2個所を変更する必要がある。また
、画面構成や画面の流れを変更しようとすると画面管理
部とアプリケーション部を並行して変更せねばならず、
特に大規模な変更をする時には、あちこちに変更個所が
波及してしまう。また、変更、追加の際には画面管理部
やアプリケーション部のプログラム全体を理解していな
いと変更することができないという問題がある。In this conventional method of centrally managing screens, when adding a new application, it is necessary to change two parts: the application section and the screen management section. Also, if you try to change the screen configuration or screen flow, you will have to change the screen management section and the application section at the same time.
Particularly when making large-scale changes, the changes will spread all over the place. Another problem is that changes or additions cannot be made without understanding the entire program of the screen management section and application section.
本発明はか−る点を改善し、アプリケーションの追加、
図面構成の変更が局部的な処理で簡単に、プログラム全
体を知らな(ても容易に行なえるようにしようとするも
のである。The present invention improves these points, adds applications,
The purpose is to make it possible to easily change the drawing configuration by local processing, even without knowing the entire program.
〔問題点を解決するための手段〕 第1図に本発明によるソフトウェア構造を示す。[Means for solving problems] FIG. 1 shows the software structure according to the present invention.
本発明では画面全体を管理するモジュールはなく、ディ
スプレイ上の各図形(オブジェクトと呼ぶ。In the present invention, there is no module that manages the entire screen, but each figure (called an object) on the display.
この1つ1つがモジュールになる)が協調動作すること
によって座標分析される。各オブジェクトは自分の状態
と自分の手続きを持っており、オブジェクト間のメツセ
ージ通信によって手続き(アプリケーション)を起動す
る(オブジェクト指向プログラミングの考え方と同じ)
。ここで自分の状態には自分自身の座標位置と自分に関
係するオブジェクトへのポインクーが含まれている。The coordinates are analyzed by cooperating with each other (each of which is a module). Each object has its own state and its own procedure, and procedures (applications) are started by communicating messages between objects (same as the idea of object-oriented programming).
. Here, your state includes your own coordinate position and pointers to objects related to you.
例えば前記のディスプレイは1つのオブジェクトであり
、これはウィンドウとアイコンボックスを含むことを知
っているだけである。ウィンドウとアイコンボックスも
それぞれ1つのオブジェクトである。今ペイントドロア
にペンを当てるとその当接点の座標がディスプレイに与
えられ、ディスプレイはこのメツセージをウィンドウと
アイコンボックスに与える。ウィンドウはその座標を分
析して自分には無関係であることを知ると何もしない。For example, we only know that the display above is an object, which includes a window and an icon box. A window and an icon box are also each an object. Now, when you touch the paint drawer with a pen, the coordinates of the point of contact are given to the display, and the display gives this message to the window and icon box. The window analyzes the coordinates, finds out that they are irrelevant, and does nothing.
アイコンボックスは該座標を分析して自分である事を知
り、そしてツールボックス、ペイントドロア、・・・・
・・を含むことを知っているのでこれらのオブジェクト
にメツセージを送る。ツールボックス、ペイントドロア
、・・・・・・(これらもオブジェクト)は該座標を分
析して自分であるか否か判1折し、ツールボックスなど
は自分でないと判断して何もしないが、ペイントドロア
は自分であることを知り、ドロアを開(処理をする。ド
ロアを開くとペイントドロアは自分の内部状態を、ドロ
アが開かれているという状態に変え、アイコンボックス
に自分自身が上に重なり表示していることを通知する。The icon box analyzes the coordinates and knows its identity, and then opens the toolbox, paint drawer, etc.
It knows that it contains ..., so it sends a message to these objects. The toolbox, paint drawer, etc. (these are also objects) will analyze the coordinates and determine whether it is you or not, and the toolbox will determine that it is not you and will do nothing, but The paint drawer recognizes itself and opens the drawer (processes it. When the drawer is opened, the paint drawer changes its internal state to the state that the drawer is open, and displays itself in the icon box above. Notify that the display is overlapping.
この状態で該筆の1つ例えば右端の太い筆にペンタフチ
すると、ディスプレイにそれが知らされ、ディスプレイ
からアイコンボックスにそれが知らされ、アイコンボッ
クスでは開いているドロアに対し上に重なっているとい
う関係をもっており、このように重なっているものでは
上のものへ通知することになっているので開いているド
ロア(これもオブジェクト)に該メツセージが通知され
、開いているドロアでは各軍(これもオブジェクト)が
座標分析して、本例では右端の筆自身がペンタッチされ
たことを知る。In this state, if you touch one of the brushes, for example, the thick brush on the right end, it will be notified on the display, and from the display it will be notified on the icon box, and in the icon box, it will be on top of the open drawer. If the objects overlap like this, the message will be notified to the one above it, so the message will be notified to the open drawer (also an object), and each army (also an object) will be notified of the message in the open drawer (this is also an object). ) analyzes the coordinates and learns that the rightmost brush itself was touched by the pen in this example.
このように本発明では、各オブジェクトごとに自分自身
の画面での状態を管理しているので、プログラム全体を
理解しなくても、局部的に理解するだけで画面構成を容
易に変更することができる。In this way, in the present invention, each object manages its own screen state, so you can easily change the screen configuration by understanding a local area without understanding the entire program. can.
第2図の例を元に、制御の流れを次に示すが、その前に
アイコンボックスの図形の意味を上から順に説明すると
、−掻上のundoは取消しであって、これにベンタッ
チすると今行なった操作の取消しが行なわれる。次の2
つは大、小の消しゴムであって、この1つにベンタッチ
しくベンタッチするとそれが光り、他は光らなくなる)
、次いで該ペンでウィンドウ上の図形をなでるとそのな
でた部分が消去される。消去線の幅は消しゴムの幅に等
しい。次の4つは鉛工であるが、その1つにベンタッチ
し、次いでペンでウィンドウ上を移動すると、その跡に
図示の細い実線、点線、や−太い実線、および太い実線
が現われる。The flow of control is shown below based on the example in Figure 2.Before that, we will explain the meanings of the shapes in the icon box from top to bottom. The performed operation will be undone. Next 2
The two are large and small erasers, and if you touch one of them, it will glow, and the others will not glow.)
Then, when you stroke a figure on the window with the pen, the stroked part is erased. The width of the erase line is equal to the width of the eraser. The next four are lead workers, and when you touch one of them and then move the pen across the window, the thin solid line, dotted line, semi-thick solid line, and thick solid line shown in the figure appear in its wake.
次のP^INTはペイントドロアで、これにベンタッチ
するとドロアが開き、第3図に示すように3本の筆、1
個のローラ(ベインタΣ、及びパレットが現われる。こ
れらを表示するには第2図のrPAINT J領域では
足りないのでrDRAFTJ等の領域まではみ出し、r
DRAFT J等の文字及び図形は消える。rDRAF
T Jをベンタッチすると図示しないが、コンパス、定
規などが現われる。The next P^INT is a paint drawer, and when you touch it, the drawer opens, and as shown in Figure 3, 3 brushes, 1
Rollers (bainer Σ, and palettes) appear.The rPAINTJ area in Figure 2 is not enough to display these, so they extend beyond rDRAFTJ, etc., and r
The letters and figures such as DRAFT J disappear. rDRAF
When you touch TJ, a compass, ruler, etc. (not shown) will appear.
次のr EDITJはエディターで、ウィンドウ上の図
形を別の位置に移動させる、フォーマット(か−る項目
がエディツトドロアが開(と出て(る)をベンタッチす
ると、ウィンドウに乱雑に書かれた英文が整頓される、
等の機能がある。次はゴミ箱で、これにベンタッチする
とウィンドウ上の図形が全て消える。最後はデスクで、
机に紙が載っている状態を示しており、この状態でベン
タッチすると紙が机にしまわれ(ウィンドウの図形がメ
モリに格納され)、机にしまわれた状態でベンタッチす
ると再び紙が机に拡げられる(ウインドウに図形が表示
される)。The following r EDITJ is an editor that moves the figure on the window to another position, and formats it. English sentences are organized,
There are other functions. Next is the trash can, and if you touch it, all the shapes on the window will disappear. Finally at the desk,
It shows a state where there is paper on the desk, and if you touch the paper in this state, the paper will be stored on the desk (the window shape will be stored in memory), and if you touch the paper while it is on the desk, the paper will spread out on the desk again. (the shape is displayed in the window).
今、第2図に示すように■電子ペンをペイントドロアP
Dにタッチしたとすると、そのTOUCHメツセージが
オブジェクトDISPLAYに伝わる。TOUCHメソ
セージには、パラメータとしてX、Y座標が付随してい
る。Now, as shown in Figure 2, ■Place the electronic pen in the paint drawer
If D is touched, the TOUCH message is transmitted to the object DISPLAY. The TOUCH message is accompanied by X and Y coordinates as parameters.
■オブジェクトDISPLAYは、画面左のオブジェク
トWINDO−と画面衣のオブジェクトIC0NBOX
へのポインタを持っており、各々に■と同様のTOUC
Hメソセージを送信する。■The object DISPLAY is the object WINDO- on the left side of the screen and the object IC0NBOX on the screen.
It has a pointer to each TOUC similar to ■.
Send H message.
■WINDOW4よTOUCHメツセージを受けて自分
の座標エリアか否か判断する。自分の座標エリア内では
ないので、何もしないで終る。■WINDOW4, receive the TOUCH message and judge whether it is in your own coordinate area or not. Since it's not within my coordinate area, I end up doing nothing.
■IC0NBOXはTOUCHメツセージを受けて自分
の座標エリア内か否か判断する。自分の座標エリア内な
ので、IC0NBOXを構成しているTOOLBOX
、 PAINTDRAWER,DRAFT DRA畦R
,EDIT DRAWER,TRASH,及びDESK
に対しTO[lCHメツセージを送る。■IC0NBOX receives the TOUCH message and determines whether it is within its own coordinate area. Since it is within your own coordinate area, the TOOLBOX that makes up IC0NBOX
, PAINT DRAWER, DRAFT DRA ridge R
, EDIT DRAWER, TRASH, and DESK
Sends a TO[lCH message to.
■TOOLBOX −DESKは受けたTOUCHメツ
セージのパラメータによって自分の座標エリア内か否か
判定する。自分のエリア内でないので何もしない。(2) TOOLBOX-DESK determines whether it is within its own coordinate area based on the parameters of the received TOUCH message. I can't do anything because it's not in my area.
■PAINT DRAWERはTOUCII ) 7
セー’; L’:、、よッテ自分の座標エリア内か否か
判定し、自分の座標エリア内なので、自分自身に0PE
Nのメソセージを送る。■PAINT DRAWER is TOUCII) 7
S';L': ,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,determine whether or not it is within the,coordinate area, and, since it is within the own coordinate area, give 0PE to,itself,
Send N's message.
■PAINT DRAWERは0PENメツセージを受
けて引出しくドロア)の絵を開(処理を行なう。第3図
はこの引出しを開いた状態を示す。開いた引出しはIC
0NBOX上に重なり表示されるので、IC0NBOX
にPUTONのメツセージを送る。パラメータは自分自
身へのポインタである。引出しを開いたら、自分の座標
エリアを開いた状態の時の値に変更し、中に入っている
オブジェクト(3つのBRUS)l、 PAINTER
。■PAINT DRAWER receives the 0PEN message and opens (processes) the picture in the drawer. Figure 3 shows this drawer in an open state.
Since it is displayed overlapping on 0NBOX, IC0NBOX
Send a PUTON message to. The parameter is a pointer to itself. After opening the drawer, change your coordinate area to the value when it was opened, and change the contents (3 BRUS) l, PAINTER
.
PALLET)に対し、APPEARのメツセージを送
る。PALLET), send the message APPEAR.
■IC0NBOXはPUTONメツセージを受けてその
パラメータを保持し、上にのっているもの(重なり表示
されている)としての関係を持つ。■IC0NBOX receives the PUTON message, holds its parameters, and has the relationship of being on top (displayed overlappingly).
■BRUSH,PAINTER,PALLETは^PP
EARメツセージを受けて、画面に自分自身を表示させ
る。■BRUSH, PAINTER, PALLET are ^PP
Receive the EAR message and display yourself on the screen.
この状態で第3図に示すようにペインクにベンタッチす
ると、
0該ベンタツチによってDISPLAYにTOυCOメ
ツセージが伝わる。In this state, as shown in FIG. 3, when you bend touch the paint, the TOυCO message is transmitted to DISPLAY by the bend touch.
■■と同様
@■と同様
@ IC0NBOXはTOUCHメ7(F−ジを受けて
、自分の座標エリア内か否か判定する。自分のエリア内
であると判定するが、上にのっているものがあるので(
■)、それに対して返答要撃のTOUCI(メツセージ
を送り、返答を待つ。Same as ■■ @ Same as ■ @ IC0NBOX receives TOUCH menu 7 (F-ji) and determines whether it is within its own coordinate area.It determines that it is within its own area, but it is above Because there is something (
■), in response to which TOUCI (sends a message and waits for a reply).
[相]PAINT DRAWERは返答要撃のTOUC
Hメツセージを受けてそれが自分の座標エリア内か否か
を判定する。自分のエリア内なのでACK (肯定)の
応答を返し、PAINT DRAWERの中に入ってい
るものに対しTOUCHメツセージを送る。[Phase] PAINT DRAWER is TOUC of reply interception
Upon receiving an H message, it is determined whether it is within its own coordinate area. Since it is within its own area, it returns an ACK (affirmative) response and sends a TOUCH message to what is inside the PAINT DRAWER.
@ IC0NBOXにはACKの返答が戻る(もしNA
CKが返ってきたのならばTOOLBOX、 DRAF
T DR7V[!R・・・・・・にTOUCHメツセー
ジを送る)。@ IC0NBOX returns an ACK response (if NA
If the CK is returned, TOOLBOX, DRAF
TDR7V[! Send TOUCH message to R...).
[相]3つのBRUSH,PALLETにはTOUCH
メツセージがくるが、自分のエリア内ではないので何も
しない。[Phase] TOUCH for 3 BRUSH and PALLET
A message comes, but since it's not in my area, I don't do anything.
■ペインタにはTOUCHメツセージが到着し、自分の
エリア内なのでベインタはタッチされたと解釈し、自分
自身を光らす。■The TOUCH message arrives at Painter, and since it is within his area, Painter interprets it as being touched and lights up himself.
第4図は、か\る状態でペンを表CHのB欄にタッチし
た状態を示す。これにより上記と同様の処理が行なわれ
、ウィンドウは第5図に示す如くなる。即ちB欄が縦線
でハツチされる。なお上記では省略したが、ペインタを
タッチして光らせたら、次にパレットの所望のもの(本
例では一番上の縦線模様)をベンタッチし、然る後、B
欄をベンタッチする。ハツチの種類は図示のように、斜
線、横線、網線、点々など多数あり、これらをベンタッ
チで選ぶことができる。FIG. 4 shows a state in which the pen touches column B of the table CH while the pen is leaning. As a result, the same processing as above is performed, and the window becomes as shown in FIG. That is, column B is hatched with a vertical line. Although omitted above, once you touch the painter and make it shine, next touch the desired one on the palette (in this example, the vertical line pattern at the top), and then press B.
Bentouch the column. As shown in the figure, there are many types of hatches, such as diagonal lines, horizontal lines, mesh lines, and dots, and you can select any of these with a touch.
次に第5図に示すようにPAINTにベンタッチすると
第6図に示すようにペイントドロアは閉じ、IC0NB
OXは最初の状態に戻る。Next, as shown in Figure 5, touch the PAINT, the paint drawer will close as shown in Figure 6, and the IC0NB
OX returns to its initial state.
第7図に本発明のソフトウェア構造の実施例を示す。こ
の図では下位のオブジェクトのうちペイントドロアにつ
いてしか詳細を示していないが、池のオブジェクトも同
様である。本発明はオプジエクトの階層化に特徴があり
、図はこのイメージを示したものである。FIG. 7 shows an embodiment of the software structure of the present invention. Although this figure only shows the details of the paint drawer among the lower-level objects, the same applies to the pond object. The present invention is characterized by the layering of objects, and the figure shows an image of this.
以上説明したように本発明では、画面が分散して管理さ
れているため、プログラムの変更や追加が局部的なもの
となり、プログラム全体を理解しなくても容易に行なう
ことができる。As explained above, in the present invention, since the screens are managed in a distributed manner, changes and additions to the program can be made locally and can be easily made without understanding the entire program.
第1図は本発明のソフトウェア構造を示す説明図、
第2図〜第6図は本発明での制御の流れを示す説明図、
第7図は本発明のソフトウェア構造の実施例を示すブロ
ック図、
第8図は従来の集中管理型の画面管理方式の説明図であ
る。FIG. 1 is an explanatory diagram showing the software structure of the present invention. FIGS. 2 to 6 are explanatory diagrams showing the flow of control in the present invention. FIG. 7 is a block diagram showing an embodiment of the software structure of the present invention. , FIG. 8 is an explanatory diagram of a conventional centralized management type screen management system.
Claims (1)
、ポインティングデバイス(PEN)により該図形の1
つを指示することにより、その図形に対応したアプリケ
ーションプログラムが起動されて当該処理が行なわれる
端末装置の画面管理方式において、 該ディスプレイ上に現われる各種図形をオブジェクトと
して各オブジェクトに、自分の座標位置と他のオプジェ
クトへのポインタを含む内部状態と、自分の手続きとを
持たせ、 該ポインタを利用してのオブジェクト間のメッセージ通
信によって一連の処理を行なわせることを特徴とする画
面管理方式。[Claims] Various figures are displayed on a display (DISPLAY), and one of the figures is displayed using a pointing device (PEN).
In the screen management system of a terminal device, in which the application program corresponding to the figure is started and the corresponding processing is performed by instructing one of the figures, the various figures that appear on the display are treated as objects, and each object is assigned its own coordinate position. A screen management method characterized in that an object has an internal state including a pointer to another object and its own procedure, and a series of processing is performed by message communication between objects using the pointer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62065048A JPS63229518A (en) | 1987-03-19 | 1987-03-19 | Screen management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62065048A JPS63229518A (en) | 1987-03-19 | 1987-03-19 | Screen management method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63229518A true JPS63229518A (en) | 1988-09-26 |
Family
ID=13275684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62065048A Pending JPS63229518A (en) | 1987-03-19 | 1987-03-19 | Screen management method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS63229518A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS643730A (en) * | 1987-03-25 | 1989-01-09 | Xerox Corp | User's interface by a plurality of working areas having display system object in common |
JPH02133819A (en) * | 1988-11-15 | 1990-05-23 | Hitachi Ltd | Menu presentation method and data processing device |
JPH02201522A (en) * | 1989-01-30 | 1990-08-09 | Fuji Xerox Co Ltd | Information processor |
JPH036651A (en) * | 1989-05-15 | 1991-01-14 | Internatl Business Mach Corp <Ibm> | Interface device and method |
-
1987
- 1987-03-19 JP JP62065048A patent/JPS63229518A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS643730A (en) * | 1987-03-25 | 1989-01-09 | Xerox Corp | User's interface by a plurality of working areas having display system object in common |
JPH02133819A (en) * | 1988-11-15 | 1990-05-23 | Hitachi Ltd | Menu presentation method and data processing device |
JPH02201522A (en) * | 1989-01-30 | 1990-08-09 | Fuji Xerox Co Ltd | Information processor |
JPH036651A (en) * | 1989-05-15 | 1991-01-14 | Internatl Business Mach Corp <Ibm> | Interface device and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ju | The design of implicit interactions | |
US20040060037A1 (en) | Method for gesture based modeling | |
Oulasvirta | User interface design with combinatorial optimization | |
Davis et al. | SketchWizard: Wizard of Oz prototyping of pen-based user interfaces | |
CN108369484A (en) | The system and method for guiding hand-written figure input | |
Kim et al. | EventHurdle: supporting designers' exploratory interaction prototyping with gesture-based sensors | |
KR20040086544A (en) | Dynamic feedback for gestures | |
US20040083247A1 (en) | Graph paper mode for a computer device | |
CN104395843B (en) | Automatic operation system and operation automation method | |
CN111580903B (en) | Real-time voting method, device, terminal equipment and storage medium | |
Chen et al. | SUMLOW: early design‐stage sketching of UML diagrams on an E‐whiteboard | |
Campos et al. | Canonsketch: A user-centered tool for canonical abstract prototyping | |
JPH06251089A (en) | Design / manufacturing device by computer | |
US20050052433A1 (en) | Ink collection and rendering | |
Savidis et al. | The HOMER UIMS for dual user interface development: Fusing visual and non-visual interactions | |
JPS63229518A (en) | Screen management method | |
Klemmer et al. | Toolkit support for integrating physical and digital interactions | |
Hesenius et al. | Sketching gesture-based applications in a collaborative working environment with wall-sized displays | |
Kis et al. | Lightweight low-level query-centric user interface modeling | |
Sharples | Human-computer interaction | |
Healey et al. | A tool for performing and analysing experiments on graphical communication | |
Plimmer et al. | Sketchnode: Intelligent sketching support and formal diagramming | |
Ernst et al. | Creating virtual worlds with a graspable user interface | |
Ballagas | Bringing Iterative Design To Ubiquitous Computing: Interaction Techniques, Toolkits, and Evaluation Methods | |
CN118605767B (en) | A viewing method, system and computer program product |