JPH0591997A - Image treating system - Google Patents
Image treating systemInfo
- Publication number
- JPH0591997A JPH0591997A JP3280607A JP28060791A JPH0591997A JP H0591997 A JPH0591997 A JP H0591997A JP 3280607 A JP3280607 A JP 3280607A JP 28060791 A JP28060791 A JP 28060791A JP H0591997 A JPH0591997 A JP H0591997A
- Authority
- JP
- Japan
- Prior art keywords
- window
- display
- cursor
- mouse
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 5
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、X線画像などの医用
画像あるいは他の一般の画像を扱う画像処理装置に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus which handles medical images such as X-ray images or other general images.
【0002】[0002]
【従来の技術】X線CT装置でCT撮影を行なう場合、
通常、そのCT撮影に先だって透視像(CR像)を撮影
しておいて、そのCR像上でCTスキャンすべき位置や
画像再構成中心あるいは画像再構成範囲等を計画するよ
うにしている。このような、スライス面、画像再構成中
心・範囲の位置入力は、マウスやトラックボールなどの
ポインティングデバイス(座標入力装置)を用いて行な
われる。すなわち、マウス等の操作に応じてカーソルを
表示ウインドウ上で移動させ、そこに表示されている画
像との対応関係を視覚的に確認できるようにして、マウ
ス等に設けられた押しボタンをクリックすることにより
表示された画像の上での位置の入力を行なう。この場
合、2方向のCR像を得て、表示装置の2つの表示ウイ
ンドウにそれぞれ表示しておけば、スライス面などを立
体的に捉えることができるというように、位置関係の把
握が容易になる。2. Description of the Related Art When performing CT imaging with an X-ray CT apparatus,
Usually, a fluoroscopic image (CR image) is photographed prior to the CT photographing, and a position to be CT-scanned, an image reconstruction center, an image reconstruction range, or the like is planned on the CR image. Such a position input of the slice plane and the image reconstruction center / range is performed using a pointing device (coordinate input device) such as a mouse or a trackball. That is, the cursor is moved on the display window according to the operation of the mouse or the like, the correspondence with the image displayed there can be visually confirmed, and the push button provided on the mouse or the like is clicked. Then, the position on the displayed image is input. In this case, if the CR images in the two directions are obtained and are respectively displayed in the two display windows of the display device, the slice plane and the like can be captured three-dimensionally, so that the positional relationship can be easily grasped. .
【0003】[0003]
【発明が解決しようとする課題】しかしながら、1つの
対象を2方向から見た画像を2つの表示ウインドウにそ
れぞれ表示する場合には、座標入力装置で入力した座標
を一方の表示ウインドウ上の座標に対応させれば、他方
の表示ウインドウ上では対応しないという問題がある。
すなわち、マウスやトラックボール等は水平面上の動き
を検出する形態の装置であり、その左右方向の動きが画
面上でカーソルの左右方向の動きになり、前後方向の動
きが画面上で上下方向の動きとなるというように対応さ
せられ、これにより操作者の感覚に合致した座標入力操
作を行なうことができるのであるが、一方の表示ウイン
ドウでこの対応関係がとられている場合には他方の表示
ウインドウではこのような対応関係が実現できないから
である。However, when displaying images of one object viewed from two directions in two display windows, the coordinates input by the coordinate input device are set to the coordinates in one display window. If they are made compatible, there is a problem that they are not made compatible on the other display window.
That is, a mouse, a trackball, or the like is a device that detects a movement on a horizontal plane, and the movement in the left / right direction is the movement in the left / right direction of the cursor on the screen, and the movement in the front / rear direction is the movement in the vertical direction on the screen. It is possible to perform a coordinate input operation that matches the operator's sense by making it correspond to the movement, but if this correspondence is established in one display window, the other display is displayed. This is because such correspondence cannot be realized in the window.
【0004】この発明は、上記に鑑み、1つの対象を2
方向から見た画像を2つの表示ウインドウにそれぞれ表
示して座標入力装置により座標を入力する場合に、その
座標入力装置の操作と2つのウインドウ内でのカーソル
の動きとを操作者の感覚に反しないようにして対応させ
て、容易に座標入力できるようにした、画像処理装置を
提供することを目的とする。In view of the above, the present invention has two objects for one object.
When the images viewed from the directions are displayed in the two display windows and the coordinates are input by the coordinate input device, the operation of the coordinate input device and the movement of the cursor in the two windows are opposed to the sense of the operator. It is an object of the present invention to provide an image processing apparatus which is capable of easily inputting coordinates by coping with each other.
【0005】[0005]
【課題を解決するための手段】上記の目的を達成するた
め、この発明による画像処理装置においては、2つの表
示ウインドウに、1つの対象について異なる方向から見
た画像をそれぞれ表示する際、一方の表示ウインドウ内
では、座標入力手段で入力された座標に対応した位置に
カーソルを表示するとともに、他方の表示ウインドウ内
では、これら表示ウインドウに表示されている画像間の
立体的な位置関係に応じて座標変換した位置にカーソル
を表示することが特徴となっており、一方の表示ウイン
ドウ内では座標入力手段の上下左右の操作に対応してカ
ーソルを動かし、他方の表示ウインドウ内でのカーソル
の動きを、2つの表示ウインドウに表示されている画像
の立体的位置関係に対応して変換した動きとなるように
することができるので、他方の表示ウインドウにおける
カーソルの動きが操作者にとって不自然なものでなくな
り、感覚的に分かりやすくなって、座標入力操作が容易
になる。In order to achieve the above object, in the image processing apparatus according to the present invention, when displaying images viewed from different directions for one target in two display windows, one of In the display window, a cursor is displayed at the position corresponding to the coordinates input by the coordinate input means, and in the other display window, the three-dimensional positional relationship between the images displayed in these display windows is displayed. The feature is that the cursor is displayed at the coordinate-converted position. In one display window, the cursor is moved according to the up / down / left / right operation of the coordinate input means, and the movement of the cursor in the other display window is changed. It is possible to make the motion converted corresponding to the three-dimensional positional relationship between the images displayed in the two display windows. In, the movement of the cursor is not unnatural for the operator in the other display window, making it easier to understand the sensory, the coordinate input operation is facilitated.
【0006】[0006]
【実施例】以下、この発明の一実施例について図面を参
照しながら詳細に説明する。図1において、画像メモリ
1にこの実施例では2方向からのCR像が格納されてお
り、これらがCPU4の制御のもとで読み出されて、表
示回路2を介してCRTなどの表示装置3に送られ、そ
の表示画面の2つの表示ウインドウ7、8においてそれ
ぞれ表示される。表示回路2は表示ウインドウ7、8の
管理等を行ない、2つのCR像を縮小したりしてその表
示ウインドウ7、8の大きさに合わせて表示信号として
表示装置3に送る。CPU4には制御回路5を介してマ
ウス6が接続されている。この制御回路5はマウス6の
動作を制御し、マウス6からの座標信号をCPU4に取
り込むためのものである。このマウス6の操作によって
座標信号が入力されると、表示装置3の画面上のカーソ
ルがその座標信号によって指示される位置に表れる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings. In FIG. 1, CR images from two directions are stored in the image memory 1 in this embodiment, and these are read out under the control of the CPU 4 and the display device 3 such as a CRT is read through the display circuit 2. And are displayed in the two display windows 7 and 8 of the display screen, respectively. The display circuit 2 manages the display windows 7 and 8 and reduces the two CR images, and sends them as display signals to the display device 3 in accordance with the sizes of the display windows 7 and 8. A mouse 6 is connected to the CPU 4 via a control circuit 5. The control circuit 5 controls the operation of the mouse 6 and fetches coordinate signals from the mouse 6 into the CPU 4. When the coordinate signal is input by operating the mouse 6, the cursor on the screen of the display device 3 appears at the position designated by the coordinate signal.
【0007】ここでは図2に示すように、一方のCR像
が人体を右側面の方向から見たものであり、表示ウイン
ドウ7に表示され、人体を正面方向から見た他方のCR
像が表示ウインドウ8で表示されるものとする。すなわ
ち、表示ウインドウ7の左右方向は人体の身長方向であ
り、ウインドウ7の上下方向は人体の前後方向となって
いる。表示ウインドウ8では左右方向が人体の身長方
向、上下方向が人体の左右方向となっている。この2つ
の表示ウインドウ7、8にそれぞれ十文字形状のカーソ
ルC1、C2が表れるが、その位置はマウス6の位置に
対応したものとなっている。Here, as shown in FIG. 2, one CR image is a human body viewed from the direction of the right side surface, and is displayed in the display window 7, and the other CR image is viewed from the front direction of the human body.
It is assumed that the image is displayed in the display window 8. That is, the horizontal direction of the display window 7 is the height direction of the human body, and the vertical direction of the window 7 is the front-back direction of the human body. In the display window 8, the horizontal direction is the height direction of the human body, and the vertical direction is the horizontal direction of the human body. Cross-shaped cursors C1 and C2 appear in the two display windows 7 and 8, respectively, and the positions thereof correspond to the position of the mouse 6.
【0008】マウス6のスイッチをクリックするなどし
て表示ウインドウ7、8のいずれか一方を、マウス6の
動きに関して主とし他方を従とする。主とされたウイン
ドウ内ではカーソル等の輝度が上げられたり線が太くさ
れたりしてはっきりとした表示がなされ、従とされたウ
インドウ内ではカーソル等の輝度が下げられたり線が細
くされたり線の種類が点線に変えられたりして、それら
の主従関係が分かるようにしておく。When one of the display windows 7 and 8 is clicked, for example, by clicking the switch of the mouse 6, the movement of the mouse 6 is the main and the other is the subordinate. In the main window, the brightness of the cursor etc. is increased or the line is thickened so that a clear display is made.In the main window, the brightness of the cursor etc. is reduced or the line is thinned or the line is thinned. The types of are changed to dotted lines so that you can understand their master-slave relationship.
【0009】まず、ウインドウ7が主とされたとする
と、このウインドウ7内のカーソルC1がマウス6の前
後左右の動きに合わせて上下左右に移動する。すなわ
ち、マウス6から入力された座標信号がそのまま表示装
置3のウインドウ7に送られて、その座標信号で表され
る位置にカーソルC1が表示される。そのため左右にマ
ウス6を動かせばウインドウ7の水平ラインL1上にカ
ーソルC1が動き、マウス6を前後方向に動かせば、カ
ーソルC1は垂直ラインL3上を動く。これに対して、
ウインドウ8ではマウス6の左右の動きに応じてカーソ
ルC2が水平ラインL2に沿って左右方向に動くが、マ
ウス6の前後方向の動きにはカーソルC2はなんら動く
ことがない。ウインドウ7が主として選択されたので、
マウス6の左右の動きはウインドウ7でのカーソルC1
の左右の動きに対応し、マウス6の前後の動きはウイン
ドウ7内で上下の動きとなる。そのため、マウス6を前
後させて人体の前後方向の位置を変化させたとき、その
動きはウインドウ8では画面に垂直な方向の動きになる
(ウインドウ7のラインL3はウインドウ8では画面に
垂直な方向のラインとなる)はずであるから、動かない
のである。First, assuming that the window 7 is mainly used, the cursor C1 in the window 7 moves up, down, left and right in accordance with the forward, backward, left and right movements of the mouse 6. That is, the coordinate signal input from the mouse 6 is directly sent to the window 7 of the display device 3, and the cursor C1 is displayed at the position represented by the coordinate signal. Therefore, when the mouse 6 is moved left and right, the cursor C1 moves on the horizontal line L1 of the window 7, and when the mouse 6 is moved forward and backward, the cursor C1 moves on the vertical line L3. On the contrary,
In the window 8, the cursor C2 moves left and right along the horizontal line L2 according to the left and right movements of the mouse 6, but the cursor C2 does not move at all when the mouse 6 moves forward and backward. Since window 7 was mainly selected,
The left and right movements of the mouse 6 are the cursor C1 in the window 7.
The front and rear movements of the mouse 6 correspond to the left and right movements of the mouse 6 in the window 7. Therefore, when the position of the human body in the front-back direction is changed by moving the mouse 6 back and forth, the movement becomes a movement in a direction perpendicular to the screen in the window 8 (the line L3 of the window 7 is a direction perpendicular to the screen in the window 8). It should be the line of), so it does not move.
【0010】他方、ウインドウ8を主とすると、マウス
6から入力された座標信号がそのまま表示装置3のウイ
ンドウ8に送られて、その座標信号で表される位置にカ
ーソルC2が表示されるので、マウス6はあたかも人体
の左右方向及び身長方向によって規定される平面上を動
くように考えられる。そのため、マウス6が左右に動か
されてウインドウ8内でカーソルC2が水平ラインL2
上に動くとき、ウインドウ7内のカーソルC1も水平ラ
インL1上に動くが、マウス6が前後方向に動かされて
ウインドウ8内のカーソルC2が垂直ラインL4上に動
くとき、ウインドウ7内ではカーソルC1は動かない。On the other hand, when the window 8 is mainly used, the coordinate signal input from the mouse 6 is sent to the window 8 of the display device 3 as it is, and the cursor C2 is displayed at the position represented by the coordinate signal. The mouse 6 is considered to move on a plane defined by the left-right direction and the height direction of the human body. Therefore, the mouse 6 is moved left and right, and the cursor C2 in the window 8 moves to the horizontal line L2.
When moving upward, the cursor C1 in the window 7 also moves on the horizontal line L1, but when the mouse 6 is moved in the front-back direction and the cursor C2 in the window 8 moves on the vertical line L4, the cursor C1 in the window 7 moves. Does not move.
【0011】従とされたウインドウでの座標信号は、マ
ウス6から入力された座標信号を、ウインドウ7、8に
表示されている画像の立体的な位置関係に基づいて変換
することによって求められる。CPU4が、画像メモリ
1から読み出した画像の間の立体的な位置関係を求め、
それに基づいて、この座標変換を行なう。主とされたウ
インドウにはマウス6からの座標信号をそのまま送り、
従とされたウインドウには座標変換された信号を送ると
いう切換は、ウインドウの主従の選択がなされたことに
応じてCPU4によって行なわれる。このような主従の
切換を行なっても、マウス6が動かされないならば、カ
ーソルC1、C2の位置は変化せず、単に主であるか従
であるかの表示のみが変る。The coordinate signal in the subordinate window is obtained by converting the coordinate signal input from the mouse 6 based on the three-dimensional positional relationship of the images displayed in the windows 7 and 8. The CPU 4 obtains a three-dimensional positional relationship between the images read from the image memory 1,
Based on this, this coordinate conversion is performed. The coordinate signal from the mouse 6 is sent to the main window as it is,
The switching of sending the coordinate-converted signal to the subordinate window is performed by the CPU 4 in response to the selection of the master / slave of the window. If the mouse 6 is not moved even if such a master / slave switching is performed, the positions of the cursors C1 and C2 do not change, and only the display of master / slave changes.
【0012】また、点線9で示すような、身長方向から
見た仮想画像を表すウインドウ9を表示装置3の画面上
に表すようにしてもよい。このウインドウ9には単にカ
ーソルC3のみを表し画像などは表示しなくてもよく、
これによりウインドウ7、8のカーソルC1、C2で示
される位置が人体の身長方向に直角な平面ではどこであ
るかが分かりやすく表示される。このウインドウ9内で
のカーソル3の位置を表す座標信号も、CPU4におけ
る座標変換によって求められる。このウインドウ9が主
たるものとして選択されたときはマウス6が動く平面は
人体を直角に横断する平面であると考えられるので、カ
ーソルC3が上下に動くときカーソルC1はラインL3
に沿って上下に動くがカーソルC2は動かず、カーソル
C3が左右に動くときカーソルC2はラインL4に沿っ
て上下に動くがカーソルC1は動かない。Further, a window 9 representing a virtual image viewed from the height direction as shown by a dotted line 9 may be displayed on the screen of the display device 3. In this window 9, only the cursor C3 is shown and an image etc. may not be displayed.
This makes it easy to see where the positions of the windows 7 and 8 indicated by the cursors C1 and C2 are on a plane perpendicular to the height direction of the human body. The coordinate signal representing the position of the cursor 3 in the window 9 is also obtained by the coordinate conversion in the CPU 4. When the window 9 is selected as the main one, the plane on which the mouse 6 moves is considered to be a plane that intersects the human body at a right angle, so when the cursor C3 moves up and down, the cursor C1 moves to the line L3.
The cursor C2 does not move, but the cursor C2 moves vertically along the line L4, but the cursor C1 does not move.
【0013】図3はスライス面及び画像再構成位置を設
定する場合、図4は矩形領域を設定する場合であり、位
置関係は図2と同様であるから、カーソルの相対的な動
きは図2の場合と同じになる。図3では、スライスライ
ンS1、S2がウインドウ7、8に表れる。ただし、ウ
インドウ7でスライスラインS1が傾斜している場合、
ウインドウ8上でのスライスラインS2の位置はウイン
ドウ7上でのライン(実際には面)L1上のものである
とする。このラインL1もウインドウ7内で表されてお
り、且つ別途変更可能となっている。さらに画像再構成
領域の両端位置を示すためのマーカーとしてS1上でa
1、a2が、S2上でa3、a4がそれぞれ表れる。FIG. 3 shows the case of setting the slice plane and the image reconstruction position, and FIG. 4 shows the case of setting the rectangular area. Since the positional relationship is the same as in FIG. 2, the relative movement of the cursor is shown in FIG. Will be the same as In FIG. 3, the slice lines S1 and S2 appear in the windows 7 and 8. However, when the slice line S1 is inclined in the window 7,
The position of the slice line S2 on the window 8 is assumed to be on the line (actually plane) L1 on the window 7. This line L1 is also shown in the window 7 and can be changed separately. Further, as a marker for indicating both end positions of the image reconstruction area, a
1 and a2 appear, and a3 and a4 appear on S2.
【0014】ここでウインドウ7が主として選択されて
いるとすると、マウス6が左右方向に動く場合、S1、
a1、a2、S2、a3、a4がすべて左右方向に平行
移動する。この際、これら相互の相対位置関係は不変で
ある。また、マウス6が前後に動くと、a1、a2がS
1上で上下に動き(このときa1、a2間の距離は不変
である)、S1、S2、a3、a4は動かない。Here, assuming that the window 7 is mainly selected, if the mouse 6 moves left and right, S1,
All of a1, a2, S2, a3, and a4 move in parallel in the left-right direction. At this time, the relative positional relationship between them does not change. When the mouse 6 moves back and forth, a1 and a2 are S
1 moves up and down (the distance between a1 and a2 is unchanged at this time), and S1, S2, a3 and a4 do not move.
【0015】ウインドウ8が主となっているときは、マ
ウス6が左右に動くと上記と同様にS1、a1、a2、
S2、a3、a4がすべて左右方向に平行移動し(これ
らの相対位置関係は不変)、マウス6が前後方向に動く
と、a3、a4がS2上で上下に動き(a3、a4間の
距離は不変)、S1、S2、a1、a2は動かない。S
1の傾斜角度は別途変化させるものとする。また、a
1、a2間の距離、a3、a4間の距離も別途変化させ
るか、あるいはあらかじめ定めるようにしてもよい。人
体の横断面を表すウインドウ9を設けてその横断面での
再構成領域a5を表示すれば、立体的な位置関係がより
分かりやすくなる。When the window 8 is mainly used and the mouse 6 moves left and right, S1, a1, a2,
S2, a3, and a4 all move in parallel in the left-right direction (the relative positional relationship between them does not change), and when the mouse 6 moves in the front-rear direction, a3 and a4 move up and down on S2 (the distance between a3 and a4 is Unchanged), S1, S2, a1 and a2 do not move. S
The tilt angle of 1 is to be changed separately. Also, a
The distance between 1 and a2 and the distance between a3 and a4 may be changed separately or may be predetermined. If the window 9 representing the cross section of the human body is provided and the reconstruction area a5 in that cross section is displayed, the three-dimensional positional relationship becomes easier to understand.
【0016】図4では矩形領域B1、B2、B3がウイ
ンドウ7、8、9のそれぞれに表示される。マウス6の
動きに伴うこれらの矩形領域の動きは上記と同様であ
る。各矩形領域の大きさは別の手段で変化させられる。In FIG. 4, rectangular areas B1, B2 and B3 are displayed in windows 7, 8 and 9, respectively. The movement of these rectangular areas associated with the movement of the mouse 6 is the same as above. The size of each rectangular area can be changed by another means.
【0017】上記の表示例では、人体の身長方向がウイ
ンドウ7、8でいずれも左右方向となり、平行になって
いたが、図5のように平行とならないこともある。この
場合も、ウインドウ7、8に表示された画像の立体的な
位置関係に基づいて座標変換することにより、主たるウ
インドウがウインドウ7であるとき、マウス6の左右方
向の動きでカーソルC1がウインドウ7内において水平
ラインL1上を左右に動き、カーソルC2がウインドウ
8内において垂直ラインL2上を上下に動くようにする
ことができる。In the above display example, the height direction of the human body is parallel to the left and right of the windows 7 and 8, but it may not be parallel as shown in FIG. Also in this case, by performing coordinate conversion based on the three-dimensional positional relationship between the images displayed in the windows 7 and 8, when the main window is the window 7, the cursor C1 is moved by the horizontal movement of the mouse 6 to move the cursor C1 to the window 7. It is possible to move the cursor C2 horizontally on the horizontal line L1 and to move the cursor C2 vertically on the vertical line L2 in the window 8.
【0018】なお、上記では座標入力装置としてマウス
6を用いたが、トラックボールなどの他の座標入力装置
を用いることもできる。また、表示画像もこれらの例に
限定されない。Although the mouse 6 is used as the coordinate input device in the above, another coordinate input device such as a trackball may be used. Also, the display image is not limited to these examples.
【0019】[0019]
【発明の効果】以上、実施例について説明したように、
この発明の画像処理装置によれば、異なる方向から見た
画像が2つ以上の表示ウインドウにそれぞれ表示され、
それらのウインドウに座標入力装置により入力された座
標に対応するカーソルがそれぞれ表示される場合に、い
ずれのウインドウでも、カーソルの動きが入力座標に対
応した自然な動きとなり、操作者の感覚に合致し、座標
入力操作が感覚的に分かりやすくなって操作効率を向上
させることができる。As described above with reference to the embodiments,
According to the image processing device of the present invention, images viewed from different directions are displayed in two or more display windows,
When the cursor corresponding to the coordinates input by the coordinate input device is displayed in each of those windows, the movement of the cursor becomes a natural movement corresponding to the input coordinates in any of the windows, and matches the operator's feeling. The coordinate input operation can be intuitively understood and the operation efficiency can be improved.
【図1】この発明の一実施例のブロック図。FIG. 1 is a block diagram of an embodiment of the present invention.
【図2】同実施例の各表示ウインドウでの表示例を示す
図。FIG. 2 is a diagram showing a display example in each display window of the embodiment.
【図3】同実施例の各表示ウインドウでの他の表示例を
示す図。FIG. 3 is a diagram showing another display example in each display window of the embodiment.
【図4】同実施例の各表示ウインドウでの別の表示例を
示す図。FIG. 4 is a diagram showing another display example in each display window of the embodiment.
【図5】同実施例の各表示ウインドウでのさらに別の表
示例を示す図。FIG. 5 is a diagram showing still another display example in each display window of the embodiment.
1 画像メモリ 2 表示回路 3 表示装置 4 CPU 5 制御回路 6 マウス 7、8、9 表示ウインドウ 1 image memory 2 display circuit 3 display device 4 CPU 5 control circuit 6 mouse 7, 8, 9 display window
Claims (1)
し、1つの対象について異なる方向から見た画像をそれ
らの表示ウインドウにそれぞれ表示する表示手段と、座
標を入力する座標入力手段と、一方の表示ウインドウ内
で入力座標に応じた位置にカーソルを表示するととも
に、他方の表示ウインドウ内では、これら表示ウインド
ウに表示されている画像間の立体的な位置関係に応じて
座標変換した位置にカーソルを表示する表示制御手段と
を備えることを特徴とする画像処理装置。1. A display unit having at least two display windows, each of which displays an image of one object viewed from different directions, a coordinate input unit for inputting coordinates, and one display window. The cursor is displayed at the position corresponding to the input coordinate within the display window, and the cursor is displayed in the other display window at the coordinate-converted position according to the three-dimensional positional relationship between the images displayed in these display windows. An image processing apparatus comprising: a display control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3280607A JPH0591997A (en) | 1991-09-30 | 1991-09-30 | Image treating system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3280607A JPH0591997A (en) | 1991-09-30 | 1991-09-30 | Image treating system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0591997A true JPH0591997A (en) | 1993-04-16 |
Family
ID=17627395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3280607A Pending JPH0591997A (en) | 1991-09-30 | 1991-09-30 | Image treating system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0591997A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6411292B1 (en) | 1999-03-31 | 2002-06-25 | International Business Machines Corporation | Display of pointing indicator within two-dimensional window display in three dimensions on a computer screen |
JP2003265475A (en) * | 2002-03-19 | 2003-09-24 | Toshiba Medical System Co Ltd | Ultrasonograph, image processor and image processing program |
JP2004534584A (en) * | 2001-07-06 | 2004-11-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image processing method for interacting with 3D surface displayed on 3D image |
US6822662B1 (en) | 1999-03-31 | 2004-11-23 | International Business Machines Corporation | User selected display of two-dimensional window in three dimensions on a computer screen |
US7234454B2 (en) | 2005-07-12 | 2007-06-26 | Denso Corporation | Ignition coil and method for manufacturing an ignition coil |
JP2007252564A (en) * | 2006-03-23 | 2007-10-04 | Hitachi Medical Corp | Ultrasonic diagnostic device |
WO2011096497A1 (en) | 2010-02-03 | 2011-08-11 | 矢崎総業株式会社 | Connector |
JP2013173033A (en) * | 2013-06-10 | 2013-09-05 | Toshiba Corp | X-ray computer tomography apparatus |
JP2015192924A (en) * | 2015-08-12 | 2015-11-05 | 株式会社東芝 | X-ray computer tomographic apparatus |
US9425597B2 (en) | 2014-04-02 | 2016-08-23 | Sumitomo Wiring Systems, Ltd. | Grommet |
-
1991
- 1991-09-30 JP JP3280607A patent/JPH0591997A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6411292B1 (en) | 1999-03-31 | 2002-06-25 | International Business Machines Corporation | Display of pointing indicator within two-dimensional window display in three dimensions on a computer screen |
US6822662B1 (en) | 1999-03-31 | 2004-11-23 | International Business Machines Corporation | User selected display of two-dimensional window in three dimensions on a computer screen |
JP2004534584A (en) * | 2001-07-06 | 2004-11-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image processing method for interacting with 3D surface displayed on 3D image |
JP2003265475A (en) * | 2002-03-19 | 2003-09-24 | Toshiba Medical System Co Ltd | Ultrasonograph, image processor and image processing program |
US7234454B2 (en) | 2005-07-12 | 2007-06-26 | Denso Corporation | Ignition coil and method for manufacturing an ignition coil |
JP2007252564A (en) * | 2006-03-23 | 2007-10-04 | Hitachi Medical Corp | Ultrasonic diagnostic device |
WO2011096497A1 (en) | 2010-02-03 | 2011-08-11 | 矢崎総業株式会社 | Connector |
JP2013173033A (en) * | 2013-06-10 | 2013-09-05 | Toshiba Corp | X-ray computer tomography apparatus |
US9425597B2 (en) | 2014-04-02 | 2016-08-23 | Sumitomo Wiring Systems, Ltd. | Grommet |
JP2015192924A (en) * | 2015-08-12 | 2015-11-05 | 株式会社東芝 | X-ray computer tomographic apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10674900B2 (en) | Display monitor control of a telesurgical tool | |
Rekimoto | Transvision: A hand-held augmented reality system for collaborative design | |
US5515078A (en) | Virtual-reality positional input and display system | |
US20110169832A1 (en) | 3D Motion Interface Systems and Methods | |
EP1292877B1 (en) | Apparatus and method for indicating a target by image processing without three-dimensional modeling | |
US7773074B2 (en) | Medical diagnostic imaging three dimensional navigation device and methods | |
TWI701941B (en) | Method, apparatus and electronic device for image processing and storage medium thereof | |
CN114601564B (en) | Surgical robot, graphical control device thereof and graphical display method thereof | |
US20200169673A1 (en) | Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery | |
EP3262505B1 (en) | Interactive system control apparatus and method | |
KR20150085797A (en) | Information processing apparatus and information processing method | |
JPH0591997A (en) | Image treating system | |
JP2009169622A (en) | Image processor, and image processing method | |
JP5784388B2 (en) | Medical manipulator system | |
WO2023237105A1 (en) | Method for displaying virtual surgical instrument on surgeon console, and surgeon console | |
CN111991084B (en) | Surgical robot, virtual imaging control method thereof and virtual imaging control device thereof | |
EP0756240B1 (en) | Input device and display system | |
KR20160023015A (en) | Method of providing medical image | |
JPH10255052A (en) | Gesture interface device | |
JPH09311952A (en) | Display method for three-dimensional image | |
KR101707113B1 (en) | Tool for selection of image of region of interest and its use of selection method | |
CN219629776U (en) | Surgical robot display system and surgical robot system | |
JP3533029B2 (en) | Virtual object display device | |
JP2002524803A (en) | Input device for control signal for controlling movement of object displayed on display device and graphic display system provided with the same | |
JP5520772B2 (en) | Stereoscopic image display system and display method |