JPH0468392A - Image display device - Google Patents
Image display deviceInfo
- Publication number
- JPH0468392A JPH0468392A JP2181897A JP18189790A JPH0468392A JP H0468392 A JPH0468392 A JP H0468392A JP 2181897 A JP2181897 A JP 2181897A JP 18189790 A JP18189790 A JP 18189790A JP H0468392 A JPH0468392 A JP H0468392A
- Authority
- JP
- Japan
- Prior art keywords
- input
- touch
- finger
- overlay
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【発明の詳細な説明】
[発明の目的コ
(産業上の利用分野)
本発明は、表示画像に対してオーバレイ表示及びコマン
ド表示が可能に構成された画像表示装置に関する。DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention (Industrial Application Field) The present invention relates to an image display device configured to be capable of displaying an overlay and displaying commands on a displayed image.
(従来の技術)
X線CT装置、超音波診断装置、MRr装置等の各種医
療機器で撮影された医用画像(単に画像と称する)をデ
ィスプレイに表示し、この表示画像を観察して診断に供
するようにした画像表示装置が知られている。このよう
な画像表示装置を利用して診断を行う場合、ディスプレ
イの表示画像に対して書き込み(オーバレイ)又は処理
要求(コマンド)表示を行って必要な信号処理を行う場
合がある。(Prior art) Medical images (simply referred to as images) taken by various medical devices such as an X-ray CT device, an ultrasonic diagnostic device, and an MRr device are displayed on a display, and the displayed images are observed and used for diagnosis. An image display device is known. When performing diagnosis using such an image display device, necessary signal processing may be performed by writing (overlaying) or displaying a processing request (command) on the displayed image on the display.
第5図は表示画像に対してオーバレイ入力を行う場合を
示すもので、タッチパネル1に対してオペレータがタッ
チペン7を用いて直接入力することが行われる。また第
6図は表示画像に対してコマンド入力を行う場合を示す
もので、タッチパネル1に対しオペレータが指8をタッ
チすることにより人力することが行われる。あるいは第
7図に示すようにタッチパネル1に対してキーボード9
又はマウス10を用いてコマンド入力することが行われ
る。FIG. 5 shows a case in which overlay input is performed on a displayed image, in which an operator directly inputs input to the touch panel 1 using the touch pen 7. Further, FIG. 6 shows a case where a command is inputted to a displayed image, and the input is performed manually by an operator touching the touch panel 1 with a finger 8. Alternatively, as shown in FIG. 7, the keyboard 9 is connected to the touch panel 1.
Alternatively, commands may be input using the mouse 10.
(発明が解決しようとする課題)
ところで従来の画像表示装置では、タッチペンを用いて
オーバレイ入力を行う場合とオペレータの指によってコ
マンド入力を行う場合とで区別かつかないという問題が
ある。またキーボード又はマウスを用いてコマンド入力
を行う場合は、複数のポインティングデバイスを用いて
入力を行うことになるので入力操作が複雑となる。(Problems to be Solved by the Invention) Conventional image display devices have a problem in that they cannot distinguish between overlay input using a touch pen and command input using an operator's finger. Furthermore, when inputting commands using a keyboard or mouse, input operations are complicated because multiple pointing devices are used to input commands.
本発明は以上のような問題に対処してなされたもので、
タッチペンを用いてオーバレイ入力を行う場合とオペレ
ータの指によってコマンド入力を行う場合とを容易に区
別することかできる画像表示装置を提供することを目的
とするものである。The present invention has been made in response to the above-mentioned problems.
It is an object of the present invention to provide an image display device that can easily distinguish between overlay input using a touch pen and command input using an operator's finger.
「発明の構成コ
(課題を解決するための手段)
上記目的を達成するために本発明は、ディスプレイの表
示画像に対してオーバレイ表示及びコマンド表示が可能
に構成された画像表示装置において、共通のタッチパネ
ルに対してオーバレイ入力及びコマンド入力を各々第1
の入力手段及び第2の入力手段によって行う人力手段と
、タッチパネルに対するタッチ面積の犬、小を検出して
第1の入力手段と第2の入力手段とを区別する入力区別
手段とを備えたことを特徴とするものである。``Structure of the Invention (Means for Solving the Problems)'' In order to achieve the above object, the present invention provides an image display device that is configured to be able to display overlays and display commands on images displayed on a display. For the touch panel, overlay input and command input are each performed first.
The input means includes a human input means using the input means and the second input means, and an input discrimination means that detects whether the touch area of the touch panel is large or small and distinguishes between the first input means and the second input means. It is characterized by:
(作 用)
共通のタッチパネルに対して例えばタッチペンを用いて
オーバレイ入力を行う場合と、例えばオペレータの指に
よってコマンド入力を行う場合とで、各入力時のタッチ
面積の犬、小を検出してタッチペンによる入力かオペレ
ータの指による入力かの区別を行う。一般にタッチペン
によるタッチ面積は、指によるタッチ面積よりも小さい
ので、これによって容易に両者の区別をつけることがで
きる。(Function) When performing overlay input using, for example, a touch pen on a common touch panel, and when inputting commands using, for example, an operator's finger, the touch screen detects the touch area at each input and uses the touch pen. It is possible to distinguish whether the input is by the operator's finger or the input by the operator's finger. Generally, the area touched by a touch pen is smaller than the area touched by a finger, so it is easy to distinguish between the two.
(実施例) 以下図面を参照して本発明の詳細な説明する。(Example) The present invention will be described in detail below with reference to the drawings.
第1図は本発明の画像表示装置の実施例を示すブロック
図で、1はタッチパネルで第2図に示すように例えば感
圧素子から成る画素(ピクセル)X、、X2.x3.・
・・及びYl、Y2 、Y3 、・・・が複数個X、
Y方向の二次元方向に平面的に配列されており、タッチ
ペン7又は指8がその任意位置にタッチしたときこの夕
・スチ面積に相当した複数のピクセル分の信号が検出さ
れて、この位置のX、 Y座標データが出力されるよう
になっている。FIG. 1 is a block diagram showing an embodiment of the image display device of the present invention, in which reference numeral 1 denotes a touch panel, and as shown in FIG. 2, pixels X, , X2, . x3.・
...and Yl, Y2, Y3, ... are multiple X,
They are arranged in a two-dimensional direction in the Y direction, and when the touch pen 7 or finger 8 touches any position, signals for a plurality of pixels corresponding to the area of this position are detected, and the signal of this position is detected. X and Y coordinate data are output.
2はコントローラで前記のようにタッチペン7又は指8
がタッチパネル1にタッチしたとき、複数のピクセル分
の信号に基いてこの位置のX、Y座標データを検出して
CPU (中央演算処理装置)へ出力するためのもので
ある。2 is a controller with a touch pen 7 or a finger 8 as described above.
When a person touches the touch panel 1, the X and Y coordinate data of this position is detected based on signals for a plurality of pixels and is output to a CPU (Central Processing Unit).
3はCPUで全体の制御動作を司っており、特に本実施
例の場合コントローラ2からタッチパネル1のタッチ面
のX、 Y座標データが入力されたとき必要な制御動作
を伴う。CPU3はタッチパネル1に対してタッチが開
始されたとき、一定時間tの間X、 Y座標データを入
力し、ピクセル数をカウントすることによりタッチペン
7によるオーバレイ入力から、指8によるコマンド入力
かを区別する。一定時間tのピクセル数をカウントする
と、一般にタッチペン7によるタッチ面積は第3図(a
)に示すようにペン先のタッチ面積(斜線部)が反映さ
れた線状になるのに対して、指によるタッチ面(斜線部
)は第3図(b)のように四角形状になり、第3図(b
)のタッチ面積によるピクセル数に2の方が第3図(a
)のタッチ面積によるピクセル数に1よりも大きくなる
。またこのように両者間で明白な差が出にくい場合は、
明白な差が出るように一定時間tを決定することができ
る。一定時間tに対応して標準的なピクセル数Kを予め
決定し、タッチペン7によるオーバレイ入力又は指8に
よるコマンド入力が行われたとき、各々のタッチ面積に
相当したピクセル数を前記標準ピクセル数にと比較する
。そしてこの比較結果に応じて、タッチペン7によるオ
ーバレイ入力か、指8によるコマンド入力かを区別する
。Reference numeral 3 is a CPU that controls the entire control operation, and in particular, in this embodiment, when the X and Y coordinate data of the touch surface of the touch panel 1 is input from the controller 2, necessary control operations are carried out. When a touch on the touch panel 1 is started, the CPU 3 inputs X and Y coordinate data for a certain period of time t, and counts the number of pixels to distinguish whether it is an overlay input using the touch pen 7 or a command input using the finger 8. do. If you count the number of pixels for a certain period of time t, the area touched by the touch pen 7 will generally be as shown in Figure 3 (a
), the touch area of the pen tip (hatched area) is reflected in a linear shape, while the touch surface with a finger (hatched area) is square-shaped as shown in Figure 3(b). Figure 3 (b
) is 2 for the number of pixels depending on the touch area in Figure 3 (a
) is larger than 1 due to the number of pixels depending on the touch area. Also, if it is difficult to see a clear difference between the two,
A certain time t can be determined so that a clear difference is made. A standard number of pixels K is determined in advance corresponding to a certain time t, and when an overlay input with the touch pen 7 or a command input with the finger 8 is performed, the number of pixels corresponding to each touch area is set to the standard number of pixels. Compare with. Then, depending on the comparison result, it is determined whether the overlay input is performed using the touch pen 7 or the command input is performed using the finger 8.
4はディスプレイメモリでコントローラ2からCPU3
にX、Y座標データが入力されたとき、このX、Y座標
データを書き込むためのメモリである。5はディスプレ
イでCRT等から成り、CPU3の制御の基に診断すべ
き画像を表示し、タッチペン7によるオーバレイ入力又
は指8によるコマンド入力を行って必要なオーバレイ又
はコマンドを表示するためのものである。6はデータバ
スで各種信号のやりとりを行うためのラインである。4 is display memory from controller 2 to CPU 3
This is a memory for writing the X, Y coordinate data when the data is input to the memory. 5 is a display consisting of a CRT or the like, which displays images to be diagnosed under the control of the CPU 3, and displays necessary overlays or commands by inputting overlays with a touch pen 7 or inputting commands with a finger 8. . 6 is a line for exchanging various signals on a data bus.
次に第4図のフローチャートを参照して本実施例の作用
を説明する。Next, the operation of this embodiment will be explained with reference to the flowchart shown in FIG.
先ずステップAにおいて、タッチパネル1に対して入力
操作を行う。これは第1図のディスプレイ5に画像が表
示されている状態で、タッチパネル1にタッチペン7を
用いてタッチ又は指8をタッチすることによって行う。First, in step A, an input operation is performed on the touch panel 1. This is done by touching the touch panel 1 with the touch pen 7 or with the finger 8 while the image is being displayed on the display 5 in FIG.
例えば先ずタッチペン7を用いて入力操作を行ったとす
ると、このタッチ開始から一定時間tの間ステップBの
ように、タッチ面積に相当した第3図(a)のような複
数のピクセル分の信号をCPU3に出力する。For example, if an input operation is first performed using the touch pen 7, as in step B, for a certain period of time t from the start of the touch, signals for a plurality of pixels as shown in FIG. 3(a) corresponding to the touch area are transmitted. Output to CPU3.
次にステップCにおいてCPU3によって、前記タッチ
ペン7の入力に基くピクセル数に1と標準ピクセル数に
との比較が行われる。K、>Kの場合フローはステップ
Dに進み、K1くKの場合フローはステップEに進む。Next, in step C, the CPU 3 compares the number of pixels based on the input from the touch pen 7 with 1 and the standard number of pixels. If K,>K, the flow proceeds to step D; if K1>K, the flow proceeds to step E.
前記したようにタッチペン7の入力に基くピクセル数に
1は一般にKよりも少ないので、本例の場合フローはス
テップEに進む。よってこのステップEでオーバレイ入
力であると判断され、続いてステップGのように以後の
連続入力はオーバレイ入力であると解釈されて、これに
相当した必要な処理か行われる。As described above, since the number of pixels based on the input from the touch pen 7 is generally less than K, the flow proceeds to step E in this example. Therefore, in step E, it is determined that the input is an overlay input, and then, as in step G, subsequent consecutive inputs are interpreted as overlay inputs, and necessary processing corresponding to this input is performed.
次にタッチパネル1に対する入力操作が指8によって行
われたとすると、前記同様にこのタッチ開始から一定時
間tの間ステップBにおいて、タッチ面積に相当した第
3図(b)のような複数のピクセル分の信号がCPU3
に出力される。Next, if an input operation is performed on the touch panel 1 with the finger 8, in step B for a certain period of time t from the start of the touch, as in the above case, a plurality of pixels corresponding to the touch area as shown in FIG. The signal of CPU3
is output to.
ステップCにおいてCPU3によってその指入力に基く
ピクセル数に2と標準ピクセル数にとの比較が行われる
。前記したように指入力に基くピクセル数に2は一般に
Kよりも多いので、本例の場合フローはステップDに進
む。よってこのステップDでコマンド入力であると判断
され、続いてステップFのように以後の連続入力はコマ
ンド入力であると解釈されて、これに相当した必要な処
理が行われることになる。In step C, the CPU 3 compares the number of pixels based on the finger input with 2 and the standard number of pixels. As described above, the number of pixels based on finger input is generally greater than K, so in this example, the flow proceeds to step D. Therefore, in step D, it is determined that it is a command input, and then, as in step F, subsequent consecutive inputs are interpreted as command inputs, and necessary processing corresponding to this is performed.
このように本実施例によれば、タッチペンによるオーバ
レイ入力操作と指によるコマンド入力操作とでは、タッ
チパネルに対するタッチ面積が異なり各々のタッチ面積
に相当したピクセル数をカウントすることによって、両
人力を区別することができる。従ってオーバレイ入力と
コマンド入力とを容易に区別することができるようにな
り、以後の処理をスムーズに行うことができる。As described above, according to this embodiment, the touch area on the touch panel is different between an overlay input operation using a touch pen and a command input operation using a finger, and by counting the number of pixels corresponding to each touch area, it is possible to distinguish between the two manual input operations. be able to. Therefore, overlay input and command input can be easily distinguished, and subsequent processing can be performed smoothly.
[発明の効果コ
以上述べたように本発明によれば、タッチパネルに対す
るタッチ面積の大、小を区別してタッチペン入力及び指
入力による区別を行うようにしたので、オーバレイ入力
とコマンド入力とを容易に区別することができる。[Effects of the Invention] As described above, according to the present invention, since the touch pen input and finger input are distinguished by distinguishing between large and small touch areas on the touch panel, overlay input and command input can be easily performed. can be distinguished.
第1図は本発明の画像表示装置の実施例を示すブロック
図、第2図は本実施例装置に用いられるタッチパネルの
概略の説明図、第3図(a)。
(b)は本発明の詳細な説明図、第4図は本実施例の作
用を説明するフローチャート、第5図は従来におけるオ
ーバレイ入力操作の説明図、第6図及び第7図は従来に
おけるコマンド入力操作の説明図である。
1・・・タッチパネル、
3・・・CPU (中央演算処理装置)、5・・・ディ
スプレイ、7・・・タッチペン、8・・・指。
y
(b)FIG. 1 is a block diagram showing an embodiment of the image display device of the present invention, FIG. 2 is a schematic explanatory diagram of a touch panel used in the device of this embodiment, and FIG. 3(a). (b) is a detailed explanatory diagram of the present invention, FIG. 4 is a flowchart explaining the operation of this embodiment, FIG. 5 is an explanatory diagram of conventional overlay input operation, and FIGS. 6 and 7 are conventional commands. It is an explanatory diagram of input operation. DESCRIPTION OF SYMBOLS 1...Touch panel, 3...CPU (Central Processing Unit), 5...Display, 7...Touch pen, 8...Finger. y (b)
Claims (1)
マンド表示が可能に構成された画像表示装置において、
共通のタッチパネルに対してオーバレイ入力及びコマン
ド入力を各々第1の入力手段及び第2の入力手段によっ
て行う入力手段と、タッチパネルに対するタッチ面積の
大、小を検出して第1の入力手段と第2の入力手段とを
区別する入力区別手段とを備えたことを特徴とする画像
表示装置。In an image display device configured to be able to display an overlay display and a command display on a display image,
Input means for performing overlay input and command input on a common touch panel using a first input means and a second input means, respectively; An image display device comprising an input distinguishing means for distinguishing between the input means and the input means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2181897A JPH0468392A (en) | 1990-07-09 | 1990-07-09 | Image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2181897A JPH0468392A (en) | 1990-07-09 | 1990-07-09 | Image display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0468392A true JPH0468392A (en) | 1992-03-04 |
Family
ID=16108799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2181897A Pending JPH0468392A (en) | 1990-07-09 | 1990-07-09 | Image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0468392A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0631256A2 (en) * | 1993-06-21 | 1994-12-28 | NCR International, Inc. | Digitizer input device |
US5956020A (en) * | 1995-07-27 | 1999-09-21 | Microtouch Systems, Inc. | Touchscreen controller with pen and/or finger inputs |
US6611258B1 (en) * | 1996-01-11 | 2003-08-26 | Canon Kabushiki Kaisha | Information processing apparatus and its method |
WO2005103868A1 (en) * | 2004-04-23 | 2005-11-03 | Nokia Corporation | Touch screen adapting presented information in dependence of wether a touching tool or finger is used |
WO2007057736A1 (en) * | 2005-11-21 | 2007-05-24 | Nokia Corporation | Improved mobile device and method |
JP2008226048A (en) * | 2007-03-14 | 2008-09-25 | Aisin Aw Co Ltd | Input support device and input supporting method |
WO2010032702A1 (en) | 2008-09-17 | 2010-03-25 | 株式会社放電精密加工研究所 | Aqueous solution for blackening chemical conversion treatment of zinc or zinc alloy surface and method for forming blackened antirust coating film using the aqueous solution for the treatment |
WO2011048840A1 (en) * | 2009-10-19 | 2011-04-28 | シャープ株式会社 | Input motion analysis method and information processing device |
JP2011134111A (en) * | 2009-12-24 | 2011-07-07 | Sony Corp | Touch panel device, touch panel control method, program, and storage medium |
-
1990
- 1990-07-09 JP JP2181897A patent/JPH0468392A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0631256A2 (en) * | 1993-06-21 | 1994-12-28 | NCR International, Inc. | Digitizer input device |
EP0631256A3 (en) * | 1993-06-21 | 1998-12-16 | NCR International, Inc. | Digitizer input device |
US5956020A (en) * | 1995-07-27 | 1999-09-21 | Microtouch Systems, Inc. | Touchscreen controller with pen and/or finger inputs |
US6611258B1 (en) * | 1996-01-11 | 2003-08-26 | Canon Kabushiki Kaisha | Information processing apparatus and its method |
WO2005103868A1 (en) * | 2004-04-23 | 2005-11-03 | Nokia Corporation | Touch screen adapting presented information in dependence of wether a touching tool or finger is used |
WO2007057736A1 (en) * | 2005-11-21 | 2007-05-24 | Nokia Corporation | Improved mobile device and method |
JP2009516284A (en) * | 2005-11-21 | 2009-04-16 | ノキア コーポレイション | Improved mobile device and method |
JP2008226048A (en) * | 2007-03-14 | 2008-09-25 | Aisin Aw Co Ltd | Input support device and input supporting method |
WO2010032702A1 (en) | 2008-09-17 | 2010-03-25 | 株式会社放電精密加工研究所 | Aqueous solution for blackening chemical conversion treatment of zinc or zinc alloy surface and method for forming blackened antirust coating film using the aqueous solution for the treatment |
WO2011048840A1 (en) * | 2009-10-19 | 2011-04-28 | シャープ株式会社 | Input motion analysis method and information processing device |
JP2011134111A (en) * | 2009-12-24 | 2011-07-07 | Sony Corp | Touch panel device, touch panel control method, program, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2495644B1 (en) | Portable information terminal comprising two adjacent display screens | |
JP5580694B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
US6803905B1 (en) | Touch sensitive apparatus and method for improved visual feedback | |
WO2009110211A1 (en) | Ultrasonograph | |
JP2501293B2 (en) | Method and system for displaying pressure on input device | |
JPH1069346A (en) | Coordinate input device and its control method | |
JPH08212005A (en) | 3D position recognition touch panel device | |
CN104123031B (en) | Pattern interchange method and related multi-point touch device | |
JP2016173703A (en) | Method of supporting input operation using touch display unit | |
JP2007029341A (en) | Medical image display device | |
US20020067340A1 (en) | Method and apparatus for shorthand processing of medical images, wherein mouse positionings and/or actuations will immediately control image measuring functionalities, and a pertinent computer program | |
JPH0468392A (en) | Image display device | |
EP1157327A1 (en) | Display for a graphical user interface | |
US20150309601A1 (en) | Touch input system and input control method | |
JPH04105005A (en) | Image display device | |
JPH05127856A (en) | Multi-image display device | |
JPH11175212A (en) | Touch operation processing method for touch panel device | |
KR20100081383A (en) | Multi-touch screen system, touch screen apparatus and method for dividing touch screen | |
EP3321843A1 (en) | A centralized traffic control system, and a method in relation with the system | |
JP3892534B2 (en) | Display device | |
JPH10124251A (en) | Coordinate input information processor | |
JPS61109131A (en) | Display/tablet input method | |
KR102169236B1 (en) | Touchscreen device and method for controlling the same and display apparatus | |
KR102254091B1 (en) | Touchscreen device and method for controlling the same and display apparatus | |
WO2015167531A2 (en) | Cursor grip |