JPH08287291A - Image display system - Google Patents
Image display systemInfo
- Publication number
- JPH08287291A JPH08287291A JP7087921A JP8792195A JPH08287291A JP H08287291 A JPH08287291 A JP H08287291A JP 7087921 A JP7087921 A JP 7087921A JP 8792195 A JP8792195 A JP 8792195A JP H08287291 A JPH08287291 A JP H08287291A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- display device
- display
- viewpoint position
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 239000011159 matrix material Substances 0.000 claims abstract description 23
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000013500 data storage Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40099—Graphical user interface for robotics, visual robot user interface
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Gyroscopes (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は3次元の画像データを表
示する画像表示方式に関し、特に視点の位置に応じた画
像データを表示する画像表示方式に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display system for displaying three-dimensional image data, and more particularly to an image display system for displaying image data according to the position of a viewpoint.
【0002】[0002]
【従来の技術】ロボットの教示操作盤やハンドヘルドコ
ンピュータ等では、制御対象のロボットの3次元画像デ
ータを画面上で表示できるようになっている。この画像
表示方式では、ジョグ操作等の場合に操作感を得るため
に、指定した視点位置から見た場合の画像データを表示
することができる。この視点位置の指定には、従来はマ
ウスやキーボード等を使用していた。2. Description of the Related Art In a teaching operation panel of a robot, a handheld computer, or the like, three-dimensional image data of a robot to be controlled can be displayed on a screen. In this image display method, image data when viewed from a specified viewpoint position can be displayed in order to obtain a feeling of operation when performing a jog operation or the like. Conventionally, a mouse, a keyboard, or the like has been used to specify the viewpoint position.
【0003】[0003]
【発明が解決しようとする課題】しかし、マウスやキー
ボードによる視点位置の指定では、直観的でないため、
操作性が悪いという問題があった。However, the designation of the viewpoint position by the mouse or keyboard is not intuitive, so
There was a problem of poor operability.
【0004】本発明はこのような点に鑑みてなされたも
のであり、所望する角度からの投影画像を簡単な操作性
で画面表示させることのできる画像表示方式を提供する
ことを目的とする。The present invention has been made in view of the above circumstances, and an object thereof is to provide an image display system capable of displaying a projected image from a desired angle on a screen with simple operability.
【0005】[0005]
【課題を解決するための手段】本発明では上記課題を解
決するために、視点の位置に応じた3次元の画像データ
を表示する画像表示方式において、少なくとも3次元方
向への回転移動が可能な表示装置と、前記表示装置に設
けられ、前記表示装置の3次元方向の回転角度を検出す
るジャイロセンサと、表示対象物の3次元の原画データ
を格納する原画データ格納手段と、前記ジャイロセンサ
の検出した3次元方向の回転角度に基づいて、各軸回り
の回転行列を演算する行列演算手段と、前記演算された
回転行列に基づいて移動後の視点位置を演算する視点位
置演算手段と、前記演算された移動後の視点位置と、前
記原画データ格納手段内の原画データとに基づいて、前
記移動後の視点位置から見た場合の画像データを生成す
る画像データ生成手段と、前記生成された画像データを
前記表示装置の画面上に表示する表示制御手段と、を有
することを特徴とする画像表示方式が提供される。In order to solve the above problems, the present invention is capable of rotating and moving in at least three-dimensional directions in an image display system for displaying three-dimensional image data according to the position of a viewpoint. A display device, a gyro sensor provided in the display device for detecting a rotation angle of the display device in a three-dimensional direction, an original image data storage unit for storing three-dimensional original image data of a display object, and the gyro sensor. Matrix calculation means for calculating a rotation matrix around each axis based on the detected rotation angle in the three-dimensional direction; viewpoint position calculation means for calculating a viewpoint position after movement based on the calculated rotation matrix; Image data generation for generating image data when viewed from the viewpoint position after the movement, based on the calculated viewpoint position after the movement and the original image data in the original image data storage means. And the step, the image display system is provided which is characterized by having a display control means for displaying the image data the generated on the screen of the display device.
【0006】[0006]
【作用】少なくとも3次元方向への回転移動が可能な表
示装置には、表示装置の3次元方向の回転角度を検出す
るジャイロセンサが設けられる。原画データ格納手段に
は、表示対象物の3次元の原画データが格納される。行
列演算手段は、ジャイロセンサの検出した3次元方向の
回転角度に基づいて、各軸回りの回転行列を演算し、視
点位置演算手段は、この演算された回転行列に基づいて
移動後の視点位置を演算する。The display device capable of rotating and moving in at least the three-dimensional direction is provided with a gyro sensor for detecting the rotation angle of the display device in the three-dimensional direction. The original image data storage means stores three-dimensional original image data of the display object. The matrix calculation means calculates a rotation matrix around each axis based on the rotation angle in the three-dimensional direction detected by the gyro sensor, and the viewpoint position calculation means calculates the viewpoint position after movement based on the calculated rotation matrix. Is calculated.
【0007】画像データ生成手段は、演算された移動後
の視点位置と、原画データ格納手段内の原画データとに
基づいて、移動後の視点位置から見た場合の画像データ
を生成する。そして、表示制御手段が、生成された画像
データを表示装置の画面上に表示する。The image data generating means generates image data when viewed from the moved viewpoint position based on the calculated moved viewpoint position and the original image data in the original image data storage means. Then, the display control means displays the generated image data on the screen of the display device.
【0008】[0008]
【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図1は本実施例の画像表示方式の機能の概念図
である。表示装置6は、少なくとも3次元方向への回転
移動が可能になっている。この表示装置6には、表示装
置6の3次元方向の回転角度α,β,γを検出するジャ
イロセンサ7が設けられている。一方、原画データ格納
手段4には、表示対象物の3次元の原画データ4aが格
納されている。An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a conceptual diagram of the function of the image display system of this embodiment. The display device 6 is rotatable at least in three dimensions. The display device 6 is provided with a gyro sensor 7 for detecting rotation angles α, β, γ of the display device 6 in the three-dimensional directions. On the other hand, the original image data storage means 4 stores three-dimensional original image data 4a of the display object.
【0009】行列演算手段1は、ジャイロセンサ7の検
出した3次元方向の回転角度α,β,γに基づいて、各
軸回りの回転行列を演算する。視点位置演算手段2は、
この演算された回転行列に基づいて移動後の視点位置を
演算する。画像データ生成手段3は、演算された移動後
の視点位置と、原画データ4aとに基づいて、移動後の
視点位置から見た場合の画像データを生成する。そし
て、表示制御手段5が、生成された画像データ8を表示
装置6の画面6a上に表示する。The matrix computing means 1 computes a rotation matrix around each axis based on the rotation angles α, β, γ in the three-dimensional directions detected by the gyro sensor 7. The viewpoint position calculation means 2 is
The viewpoint position after the movement is calculated based on the calculated rotation matrix. The image data generating means 3 generates image data when viewed from the viewpoint position after the movement, based on the calculated viewpoint position after the movement and the original image data 4a. Then, the display control means 5 displays the generated image data 8 on the screen 6a of the display device 6.
【0010】図2はロボット制御機構の概略構成を示す
ブロック図である。ロボット10は、ロボット制御装置
20によって制御される。ロボット制御装置20には、
RS232C等の通信回線21を介して表示装置ユニッ
ト30が接続されている。表示装置ユニット30全体
は、持ち運び可能になっている。表示装置ユニット30
は、プロセッサ31を中心とする構成となっており、バ
ス37を介してROM32、RAM33、表示装置3
4、ジャイロセンサ35、およびインタフェース(IN
T)36が接続されている。FIG. 2 is a block diagram showing a schematic configuration of the robot control mechanism. The robot 10 is controlled by the robot controller 20. The robot controller 20 includes
The display device unit 30 is connected via a communication line 21 such as RS232C. The entire display device unit 30 is portable. Display unit 30
Is mainly composed of the processor 31, and the ROM 32, the RAM 33, and the display device 3 are connected via the bus 37.
4, gyro sensor 35, and interface (IN
T) 36 is connected.
【0011】ROM32には、フラッシュROM等が使
用されている。このROM32には、表示装置ユニット
30全体を制御する制御プログラムや、ロボット10の
表示用の原画データが格納されている。プロセッサ31
は、ROM32の制御プログラムに従って、後述する画
像表示処理を実行する。RAM33には、一時的なデー
タが格納される。表示装置34は、液晶表示装置であ
り、後述する手段により処理された画像データを表示す
る。ジャイロセンサ35は、表示装置34の基準座標系
に対する回転角度を検出する。インタフェース36は、
ロボット制御装置20との間でデータのやりとりを行
う。また、バス37には、図示されていない指令ボタン
等が接続されており、画像表示指令や、ロボット制御装
置20に対して種々の指令を行うことができる。A flash ROM or the like is used as the ROM 32. The ROM 32 stores a control program for controlling the entire display device unit 30 and original image data for display of the robot 10. Processor 31
Executes an image display process described later according to the control program of the ROM 32. Temporary data is stored in the RAM 33. The display device 34 is a liquid crystal display device, and displays the image data processed by the means described later. The gyro sensor 35 detects a rotation angle of the display device 34 with respect to the reference coordinate system. The interface 36 is
Data is exchanged with the robot controller 20. Further, a command button (not shown) or the like is connected to the bus 37 so that an image display command and various commands can be issued to the robot controller 20.
【0012】次に、本実施例による画像表示方式の具体
的な処理について説明する。図3は画像表示のための演
算処理の一例を説明するための図である。図2で示した
ロボット10等の表示対象物40の置かれた基準座標系
X,Y,Zにおいて、表示対象物を見る視点位置e(X
e,Ye,Ze)は、表示装置34の向きを変えること
により、その各軸回りの回転角度に応じて例えば視点位
置E(XE ,YE ,ZE )に移動する。この表示装置3
4の基準座標系の各軸X,Y,Zに対する回転角度が、
それぞれ微小角度Δα(rad)、Δβ(rad)、Δ
γ(rad)とすると、X軸回りの回転行列RA、Y軸
回りの回転行列RB、Z軸回りの回転行列RCは、それ
ぞれ次式(1),(2),(3)のようになる。Next, a specific process of the image display system according to this embodiment will be described. FIG. 3 is a diagram for explaining an example of arithmetic processing for displaying an image. In the reference coordinate system X, Y, Z in which the display object 40 such as the robot 10 shown in FIG. 2 is placed, the viewpoint position e (X
e, Ye, Ze) moves to, for example, the viewpoint position E (X E , Y E , Z E ) according to the rotation angle around each axis by changing the direction of the display device 34. This display device 3
The rotation angle with respect to each axis X, Y, Z of the reference coordinate system of 4 is
Minute angles Δα (rad), Δβ (rad), Δ
Assuming γ (rad), the rotation matrix RA around the X axis, the rotation matrix RB around the Y axis, and the rotation matrix RC around the Z axis are as in the following equations (1), (2), and (3), respectively. .
【0013】[0013]
【数1】 [Equation 1]
【0014】[0014]
【数2】 [Equation 2]
【0015】[0015]
【数3】 (Equation 3)
【0016】式(1),(2),(3)において、回転
の角度Δα(rad)、Δβ(rad)、Δγ(ra
d)が微小な場合、その2乗項を無視すると、次式
(4)が成り立つ。In the equations (1), (2) and (3), the rotation angles Δα (rad), Δβ (rad) and Δγ (ra
When d) is very small, the following equation (4) is established when the square term is ignored.
【0017】[0017]
【数4】 R=RA×RB×RC =RA×RC×RB =RB×RA×RC =RB×RC×RA =RC×RA×RB =RC×RB×RA ・・・(4) したがって、回転の結果はRA,RB,RCの乗算順序
には影響されない。また、一般に、Δθが微小であると
きは、 sin(Δθ)=Δθ COS(Δθ)=1 が成立する。このことから、式(4)は、次式(5)の
ように表すことができる。R = RA × RB × RC = RA × RC × RB = RB × RA × RC = RB × RC × RA = RC × RA × RB = RC × RB × RA (4) Therefore, rotation The result of is not affected by the multiplication order of RA, RB, and RC. Further, in general, when Δθ is small, sin (Δθ) = Δθ COS (Δθ) = 1 holds. From this, the equation (4) can be expressed as the following equation (5).
【0018】[0018]
【数5】 (Equation 5)
【0019】したがって、回転前の視点位置e(Xe,
Ye,Ze)をベクトルBeとすると、回転後の視点位
置E(XE ,YE ,ZE )のベクトルBE は、次式
(6)によって、Therefore, the viewpoint position e (Xe,
Ye, when the Ze) and vector Be, viewpoint position after rotating E (X E, Y E, the vector B E of Z E) is the following formula (6),
【0020】[0020]
【数6】BE =R×Be ・・・(6) と求められる。[Equation 6] B E = R × Be (6)
【0021】移動後の視点位置E(XE ,YE ,ZE )
からみた画像データは、以下のような処理によって生成
される。まず、図3に示すように、表示対象物40に
は、画像データ生成用の基準点Pが予め設定されてい
る。基準点Pは、ここでは例えば表示対象物40の立体
の中心点である。視点位置Eが決まると、基準点Pと視
点位置Eとを結ぶ直線L0が法線となる平面Qを生成す
る。Viewpoint position E (X E , Y E , Z E ) after movement
The viewed image data is generated by the following processing. First, as shown in FIG. 3, a reference point P for image data generation is preset in the display object 40. The reference point P is, for example, the center point of the solid of the display object 40 here. When the viewpoint position E is determined, a plane Q having a normal line L0 connecting the reference point P and the viewpoint position E is generated.
【0022】続いて、基準点Pを原点とし、直線L0を
ZN 軸とする座標系Nを定義する。この座標系Nにおい
ては、ZN =0となる平面が平面Qとなる。そして、表
示対象物40の原画データの各点A1,A2,・・・A
mと視点位置Eとを通る直線L1,L2,・・・Lm
が、平面Qと交わる点D1,D2,・・・Dmを求める
ことにより、平面Qへ投影された画像データが生成され
る。Next, a coordinate system N having the reference point P as the origin and the straight line L0 as the Z N axis is defined. In this coordinate system N, the plane where Z N = 0 is the plane Q. Then, each point A1, A2, ... A of the original image data of the display object 40 is displayed.
Straight lines L1, L2, ... Lm passing through m and the viewpoint position E
, Dm that intersects the plane Q, the image data projected onto the plane Q is generated.
【0023】次に、画像データとしての点D1,D2,
・・・Dmの演算方法について説明する。ここで、座標
系Nを行列Nとして表すと、基準座標系から見た視点位
置Eを行列Nで表した視点位置EN は、Next, points D1, D2 as image data
... A method of calculating Dm will be described. Here, when the coordinate system N is represented as a matrix N, the viewpoint position E N in which the viewpoint position E viewed from the reference coordinate system is represented by the matrix N is
【0024】[0024]
【数7】EN =N-1×E ・・・(7) と表される。ただし、ここで、N-1は行列Nの逆行列で
ある。視点位置EN の平面Qまでの距離を焦点距離とし
てfとすると、視点位置EN の座標は、(0,0,f)
となる。[Equation 7] E N = N -1 × E (7) Here, N −1 is an inverse matrix of the matrix N. Assuming that the distance from the viewpoint position E N to the plane Q is f, the coordinates of the viewpoint position E N are (0, 0, f).
Becomes
【0025】同様に、基準座標系から見た点A1を座標
系Nで表した点A1N は、[0025] Similarly, points A1 N is the expressed by the reference coordinate coordinate system A1 point as viewed from the system N,
【0026】[0026]
【数8】A1N =N-1×A1 ・・・(8) と表される。そして、点A1N の座標を(X1N ,Y1
N ,Z1N )とすると、EN とA1N を通る直線L1の
式は、座標系N上では、[Expression 8] A1 N = N -1 × A1 (8) Then, the coordinates of the point A1 N are (X1 N , Y1
N , Z1 N ), the equation of the straight line L1 passing through E N and A1 N is
【0027】[0027]
【数9】 XN /X1N =YN /Y1N =(ZN −f)/(X1N −f) ・・・(9) となる。よって、点A1N の座標系Nにおける平面Qと
の交点D1の座標D1 N は、 XN =X1N ×f/(f−Z1N ) YN =Y1N ×f/(f−Z1N ) ZN =0 となる。他の点A2・・・Amについても、同様の処理
により平面Qとの各交点D2,・・・Dmの座標系Nの
座標が求められる。[Formula 9] XN/ X1N= YN/ Y1N = (ZN-F) / (X1N-F) It becomes (9). Therefore, point A1NPlane Q in the coordinate system N of
Coordinate D1 of intersection D1 of NIs XN= X1NXf / (f-Z1N) YN= Y1NXf / (f-Z1N) ZN= 0. Similar processing is performed for other points A2 ... Am.
Of the coordinate system N of each intersection D2, ... Dm with the plane Q
The coordinates are calculated.
【0028】こうして求められた画像データD1,D2
・・・Dmを直線で結んだものが、表示対象物40の平
面Pへの投影になる。この投影されたデータは、図2で
示した表示装置34の画面上で表示される。この場合、
表示装置34の画面の座標系を座標系NのX−Y座標に
一致させればよい。The image data D1 and D2 thus obtained
... A straight line connecting Dm is the projection onto the plane P of the display object 40. The projected data is displayed on the screen of the display device 34 shown in FIG. in this case,
The coordinate system of the screen of the display device 34 may be matched with the XY coordinates of the coordinate system N.
【0029】図4および図5はロボット10の表示装置
34の画面上での表示例である。図4はロボット10の
正面に対して左側から見た図、図5は右側から見た図で
ある。このように、表示装置34の向きを変えるだけ
で、所望の角度からの画像を容易に表示することができ
る。FIG. 4 and FIG. 5 are display examples on the screen of the display device 34 of the robot 10. FIG. 4 is a view of the front of the robot 10 as seen from the left side, and FIG. 5 is a view as seen from the right side. In this way, the image from a desired angle can be easily displayed only by changing the direction of the display device 34.
【0030】このように、本実施例では、表示装置34
の回転角度をジャイロセンサ35で検出し、その回転角
度に応じて視点位置Eを検出し、この視点位置Eから見
た場合の画像データを生成して表示するようにしたの
で、オペレータは、表示装置ユニット30を持って適度
に回転させるだけで、所望する角度から見た表示対象物
40(ここではロボット10)の投影画像を容易に画面
表示させることができる。As described above, in this embodiment, the display device 34
Since the gyro sensor 35 detects the rotation angle of the, the viewpoint position E is detected according to the rotation angle, and the image data when viewed from the viewpoint position E is generated and displayed, the operator displays A projection image of the display object 40 (here, the robot 10) viewed from a desired angle can be easily displayed on the screen simply by holding the device unit 30 and rotating the device unit 30 appropriately.
【0031】なお、本実施例では、表示対象物40の立
体の中心に基準点Pを設けるようにしたが、予め設定さ
れていれば、他の位置でもよい。In this embodiment, the reference point P is provided at the center of the solid body of the display object 40, but it may be set at another position as long as it is preset.
【0032】[0032]
【発明の効果】以上説明したように本発明では、少なく
とも3次元方向への回転移動が可能な表示装置に、表示
装置の3次元方向の回転角度を検出するジャイロセンサ
を設け、ジャイロセンサの検出した3次元方向の回転角
度に基づいて、各軸回りの回転行列を演算し、この演算
された回転行列に基づいて移動後の視点位置を演算し、
演算された移動後の視点位置と、原画データとに基づい
て、移動後の視点位置から見た場合の画像データを生成
して表示するようにしたので、表示装置を回転させるだ
けで、所望する角度から見た表示対象物の投影画像を容
易に表示させることができる。As described above, according to the present invention, a gyro sensor for detecting the rotation angle of the display device in the three-dimensional direction is provided in the display device capable of rotating and moving in at least the three-dimensional direction. The rotation matrix around each axis is calculated based on the rotation angle in the three-dimensional direction, and the viewpoint position after movement is calculated based on the calculated rotation matrix,
Since the image data when viewed from the viewpoint position after the movement is generated and displayed based on the calculated viewpoint position after the movement and the original image data, it is desired by simply rotating the display device. It is possible to easily display the projection image of the display target viewed from the angle.
【図1】本実施例の画像表示方式の機能の概念図であ
る。FIG. 1 is a conceptual diagram of a function of an image display system according to an embodiment.
【図2】ロボット制御機構の概略構成を示すブロック図
である。FIG. 2 is a block diagram showing a schematic configuration of a robot control mechanism.
【図3】画像表示のための演算処理の一例を説明するた
めの図である。FIG. 3 is a diagram for explaining an example of calculation processing for displaying an image.
【図4】ロボットの表示装置の画面上での表示例であ
る。FIG. 4 is a display example on a screen of a display device of a robot.
【図5】ロボットの表示装置の画面上での表示例であ
る。FIG. 5 is a display example on the screen of the display device of the robot.
1 行列演算手段 2 視点位置演算手段 3 画像データ生成手段 4 原画データ格納手段 4a 原画データ 5 表示制御手段 6 表示装置 7 ジャイロセンサ 10 ロボット 20 ロボット制御装置 30 表示装置ユニット 31 プロセッサ(CPU) 32 ROM 33 RAM 34 表示装置 35 ジャイロセンサ 40 表示対象物 1 matrix calculation means 2 viewpoint position calculation means 3 image data generation means 4 original image data storage means 4a original image data 5 display control means 6 display device 7 gyro sensor 10 robot 20 robot control device 30 display device unit 31 processor (CPU) 32 ROM 33 RAM 34 Display device 35 Gyro sensor 40 Display object
Claims (2)
を表示する画像表示方式において、 少なくとも3次元方向への回転移動が可能な表示装置
と、 前記表示装置に設けられ、前記表示装置の3次元方向の
回転角度を検出するジャイロセンサと、 表示対象物の3次元の原画データを格納する原画データ
格納手段と、 前記ジャイロセンサの検出した3次元方向の回転角度に
基づいて、各軸回りの回転行列を演算する行列演算手段
と、 前記演算された回転行列に基づいて移動後の視点位置を
演算する視点位置演算手段と、 前記演算された移動後の視点位置と、前記原画データ格
納手段内の原画データとに基づいて、前記移動後の視点
位置から見た場合の画像データを生成する画像データ生
成手段と、 前記生成された画像データを前記表示装置の画面上に表
示する表示制御手段と、 を有することを特徴とする画像表示方式。1. An image display system for displaying three-dimensional image data according to the position of a viewpoint, a display device capable of rotating and moving in at least three-dimensional directions, and a display device provided in the display device, A gyro sensor that detects a rotation angle in a three-dimensional direction, an original image data storage unit that stores three-dimensional original image data of a display object, and the rotation of each axis based on the rotation angle in the three-dimensional direction detected by the gyro sensor. Matrix calculation means for calculating the rotation matrix of the above, viewpoint position calculation means for calculating the viewpoint position after movement based on the calculated rotation matrix, the calculated viewpoint position after movement, and the original image data storage means Image data generating means for generating image data when viewed from the viewpoint position after the movement, based on the original image data in the image, and the display device for generating the generated image data. Image display method characterized by having a display control means for displaying on the screen, the.
ち運び可能であることを特徴とする請求項1記載の画像
表示方式。2. The image display system according to claim 1, wherein the display device is portable by an operator.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7087921A JPH08287291A (en) | 1995-04-13 | 1995-04-13 | Image display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7087921A JPH08287291A (en) | 1995-04-13 | 1995-04-13 | Image display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08287291A true JPH08287291A (en) | 1996-11-01 |
Family
ID=13928393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7087921A Withdrawn JPH08287291A (en) | 1995-04-13 | 1995-04-13 | Image display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08287291A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1639483A1 (en) * | 2003-07-01 | 2006-03-29 | Domotion Ltd. | Hand-held device having three-dimensional viewing function with tilt sensor and display system using the same |
US7170534B2 (en) * | 2001-06-27 | 2007-01-30 | Sevit Co., Ltd. | Automatic controllable display device according to image display direction |
KR100677569B1 (en) * | 2004-12-13 | 2007-02-02 | 삼성전자주식회사 | 3D image display apparatus |
JP2007511839A (en) * | 2003-11-22 | 2007-05-10 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト | Apparatus and method for programming an industrial robot |
US7616187B2 (en) | 2005-04-08 | 2009-11-10 | Samsung Electronics Co., Ltd. | Three-dimensional display device and method using hybrid position-tracking system |
JP2015049536A (en) * | 2013-08-29 | 2015-03-16 | ヤフー株式会社 | TERMINAL DEVICE, DISPLAY METHOD, PROGRAM, AND DISPLAY SYSTEM |
US9171371B2 (en) | 2010-08-12 | 2015-10-27 | Samsung Electronics Co., Ltd. | Display system and method using hybrid user tracking sensor |
CN108687748A (en) * | 2017-04-10 | 2018-10-23 | 发那科株式会社 | Robot system, processing unit with external force display function and teaching operation disk |
JP2020093385A (en) * | 2020-03-19 | 2020-06-18 | ファナック株式会社 | Robot system with external force display function and processing apparatus |
WO2025009888A1 (en) * | 2023-07-04 | 2025-01-09 | 삼성전자 주식회사 | Method for providing three-dimensional screen, and electronic device supporting same |
-
1995
- 1995-04-13 JP JP7087921A patent/JPH08287291A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7170534B2 (en) * | 2001-06-27 | 2007-01-30 | Sevit Co., Ltd. | Automatic controllable display device according to image display direction |
EP1639483A4 (en) * | 2003-07-01 | 2006-08-23 | Domotion Ltd | Hand-held device having three-dimensional viewing function with tilt sensor and display system using the same |
EP1639483A1 (en) * | 2003-07-01 | 2006-03-29 | Domotion Ltd. | Hand-held device having three-dimensional viewing function with tilt sensor and display system using the same |
JP2007511839A (en) * | 2003-11-22 | 2007-05-10 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト | Apparatus and method for programming an industrial robot |
US7880764B2 (en) | 2004-12-13 | 2011-02-01 | Samsung Electronics Co., Ltd. | Three-dimensional image display apparatus |
KR100677569B1 (en) * | 2004-12-13 | 2007-02-02 | 삼성전자주식회사 | 3D image display apparatus |
US7616187B2 (en) | 2005-04-08 | 2009-11-10 | Samsung Electronics Co., Ltd. | Three-dimensional display device and method using hybrid position-tracking system |
US9171371B2 (en) | 2010-08-12 | 2015-10-27 | Samsung Electronics Co., Ltd. | Display system and method using hybrid user tracking sensor |
JP2015049536A (en) * | 2013-08-29 | 2015-03-16 | ヤフー株式会社 | TERMINAL DEVICE, DISPLAY METHOD, PROGRAM, AND DISPLAY SYSTEM |
US9286580B2 (en) | 2013-08-29 | 2016-03-15 | Yahoo Japan Corporation | Terminal apparatus, display method, recording medium, and display system |
CN108687748A (en) * | 2017-04-10 | 2018-10-23 | 发那科株式会社 | Robot system, processing unit with external force display function and teaching operation disk |
JP2018176331A (en) * | 2017-04-10 | 2018-11-15 | ファナック株式会社 | Robot system with external display function, processor and teaching operation panel |
US10810770B2 (en) | 2017-04-10 | 2020-10-20 | Fanuc Corporation | Robot system, processing device and teach pendant, having external force displaying function |
JP2020093385A (en) * | 2020-03-19 | 2020-06-18 | ファナック株式会社 | Robot system with external force display function and processing apparatus |
WO2025009888A1 (en) * | 2023-07-04 | 2025-01-09 | 삼성전자 주식회사 | Method for providing three-dimensional screen, and electronic device supporting same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3841439B2 (en) | Robot jog feed method | |
JP6683671B2 (en) | Robot controller for setting the jog coordinate system | |
US9311608B2 (en) | Teaching system and teaching method | |
US20070242073A1 (en) | Robot simulation apparatus | |
JP2005111618A (en) | Manual feeding device for robot | |
JPS62159286A (en) | Cursor control method and three-dimensional graphic display device | |
WO2019044766A1 (en) | Robot system and method for operating same | |
US20220250237A1 (en) | Teaching device, teaching method, and recording medium | |
JPH08287291A (en) | Image display system | |
JP3559335B2 (en) | 3D image processing device | |
JP5813931B2 (en) | Teaching data correction system | |
JPS60195615A (en) | Posture teaching method for articulated robots | |
JPH10264065A (en) | Remote operation support device for robot | |
JPH0736519A (en) | Nearmiss checking method for robot | |
US11969900B2 (en) | Teaching apparatus, control method, and teaching program | |
JPH1177568A (en) | Teaching assisting method and device | |
JP3148489B2 (en) | 3D object placement device | |
JPH08249500A (en) | How to display 3D graphics | |
JP2000094370A (en) | Inclination measuring method of work surface of robot and measuring device thereof | |
JP2792842B2 (en) | Robot work teaching method and device | |
JP2868343B2 (en) | Off-line teaching method of 3D laser beam machine | |
JPH08249490A (en) | Three-dimensional parameter input device and image processor | |
US20240416524A1 (en) | Work assistance device and work assistance method | |
US20240001552A1 (en) | Teaching method and teaching apparatus | |
US20220250236A1 (en) | Teaching device, teaching method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020702 |