JP3411994B2 - Remote instruction input system - Google Patents
Remote instruction input systemInfo
- Publication number
- JP3411994B2 JP3411994B2 JP27754496A JP27754496A JP3411994B2 JP 3411994 B2 JP3411994 B2 JP 3411994B2 JP 27754496 A JP27754496 A JP 27754496A JP 27754496 A JP27754496 A JP 27754496A JP 3411994 B2 JP3411994 B2 JP 3411994B2
- Authority
- JP
- Japan
- Prior art keywords
- designated
- pointing
- instruction
- area
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ポインタからの出
射光を用いて遠隔指示入力を行う遠隔指示入力システム
に係り、特に、ポインタから出射されたレーザ光により
指示された位置と指示された対象物との関係データを作
成する遠隔指示入力システムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a remote instruction input system for performing remote instruction input by using light emitted from a pointer, and more particularly to a position indicated by a laser beam emitted from a pointer and an object indicated by the laser light. The present invention relates to a remote instruction input system that creates relationship data with objects.
【0002】[0002]
【従来の技術】近年、発電プラントや化学プラント等の
運転制御においては、複数の運転員が共有する情報を大
型表示装置やミミックボードと呼ばれる電飾を利用した
情報表示板に提供している。これら共有情報を有効に利
用するために、大型表示装置やミミックボード上の表示
物を遠隔から指示することによって、入力操作を行うこ
とが望まれている。また、プラント現場においても、現
場機器に対してポインタを用いて遠隔から指示すること
によって、機器に関する詳細情報を携帯端末等に表示す
る装置の開発が望まれている。この要望に応える技術と
して、例えば、特願平6−48234号公報が知られて
いる。この公報には、表示装置の表示面に表示されてい
る表示物を遠隔から指示することにより、入力操作を実
施する情報表示装置が記載されている。本装置では、テ
レビカメラにより表示装置の表示面を撮影し、この撮影
した映像を画像処理することによってポインタで指示し
た点の座標を求め、この座標を予め作成した較正データ
(座標変換表)を用いて表示装置の表示面内における座
標に補正し、この補正された座標と表示装置の表示面に
表示されている図面に係るデータを基に指示された対象
物を特定する。詳しくは、ポインタから出射されるレー
ザ光により指示された表示画面上の座標値を検出し、こ
の情報と表示中の図面に係る座標値と指示対象物の関係
データ即ち表示図面データを基に、指示された対象物を
判定する。この判定のために、本装置では、画像処理装
置に取り込まれた画像内での座標を表示装置の表示面内
での座標に補正するための較正データを作成する手段を
設ける。これは表示図面データが表示面内の座標により
作成されるため、即ち、表示図面の座標とカメラで撮影
した画像の座標とのずれを補正する必要があるためであ
る。較正データの作成は、表示装置の表示面に順次較正
用のマーカを表示し、このマーカを画像処理装置により
検出して座標を求め、表示面内の座標と画像処理装置が
求めた座標の対応表を作成することにより実現する。2. Description of the Related Art In recent years, in operation control of a power plant, a chemical plant, etc., information shared by a plurality of operators is provided to a large-sized display device or an information display board using an electric decoration called a mimic board. In order to effectively use these shared information, it is desired to perform an input operation by remotely pointing a display object on a large display device or a mimic board. Further, also at a plant site, it is desired to develop a device that displays detailed information about the device on a mobile terminal or the like by remotely pointing to the field device by using a pointer. As a technique to meet this demand, for example, Japanese Patent Application No. 6-48234 is known. This publication describes an information display device that performs an input operation by remotely pointing a display object displayed on the display surface of the display device. In this device, a display surface of a display device is photographed by a television camera, coordinates of a point designated by a pointer are obtained by performing image processing on the photographed video, and calibration data (coordinate conversion table) created in advance with the coordinates is obtained. It is used to correct the coordinates within the display surface of the display device, and the instructed object is specified based on the corrected coordinates and the data related to the drawing displayed on the display surface of the display device. Specifically, the coordinate value on the display screen indicated by the laser light emitted from the pointer is detected, and based on this information, the coordinate value related to the drawing being displayed and the relational data of the pointing object, that is, the display drawing data, Determine the instructed object. For this determination, this apparatus is provided with means for creating calibration data for correcting the coordinates in the image captured by the image processing apparatus to the coordinates in the display surface of the display device. This is because the display drawing data is created by the coordinates on the display surface, that is, it is necessary to correct the deviation between the coordinates of the display drawing and the coordinates of the image captured by the camera. The calibration data is created by sequentially displaying a calibration marker on the display surface of the display device, detecting the marker by the image processing device to obtain coordinates, and correlating the coordinates on the display surface with the coordinates obtained by the image processing device. It is realized by creating a table.
【0003】[0003]
【発明が解決しようとする課題】ところで、ミミックボ
ードやプラントの現場機器には、通常、表示図面データ
に相当するデータはない。従って上記従来技術を使用し
ようとすると、データを新規に作成する必要がある。表
示図面データに相当するデータをミミックボードや現場
機器に対して作成する方法として、設計図やCADシス
テムを利用することが考えられる。しかし、CADデー
タなどを使用して作成しようとすると、複雑な演算が必
要となる。また、データの作成は、カメラの設定の都度
実施する必要があり、その作成のための作業量は膨大と
なる。更に、上記公報の装置では、表示装置の表示面に
較正用のマーカを表示することによって容易に較正デー
タを作成できたが、ミミックボードや現場機器に対し
て、同様に較正用マーカを表示して較正データを作成す
ることは非常に困難である。例えば、較正用マーカをポ
インタから出射するレーザ光で代用する場合、較正のた
めに必要となる位置をポインタから出射されるレーザ光
で指示する必要がある。この較正位置の指示作業をユー
ザが行う場合、較正位置の個数により作業量が決まる。
較正位置の個数は、較正の精度に比例しているため、較
正を精度良く行う場合、ユーザが行う作業量は膨大なも
のとなる。また、較正位置の指示作業を行うための装置
を作成することも考えられる。しかし、現在、遠隔指示
入力システムをプラント現場で使用する目的でシステム
構成の小型化を検討しているため、装置の追加は好まし
くない。By the way, there is usually no data corresponding to the display drawing data in the mimic board or the field equipment of the plant. Therefore, in order to use the above conventional technique, it is necessary to newly create data. As a method of creating data corresponding to display drawing data for a mimic board or a field device, it is possible to use a design drawing or a CAD system. However, in order to create it using CAD data or the like, a complicated operation is required. Moreover, it is necessary to create the data each time the camera is set, and the amount of work for creating the data becomes enormous. Further, in the device of the above publication, the calibration data could be easily created by displaying the calibration marker on the display surface of the display device. However, the calibration marker is similarly displayed on the mimic board or the field device. It is very difficult to generate the calibration data by using. For example, when the calibration marker is substituted by the laser light emitted from the pointer, the laser light emitted from the pointer needs to be used to indicate the position required for the calibration. When the user performs this calibration position instruction work, the amount of work is determined by the number of calibration positions.
Since the number of calibration positions is proportional to the accuracy of the calibration, the amount of work performed by the user is enormous when performing the calibration with high accuracy. It is also conceivable to create a device for instructing the calibration position. However, the addition of a device is not preferable because the system configuration is currently being reduced for the purpose of using the remote instruction input system at the plant site.
【0004】本発明の課題は、ミミックボードや現場機
器を対象とした遠隔指示入力について、ポインタで指示
した対象物を判定するためのデータを容易に作成するこ
とが可能な遠隔指示入力システムを提供することにあ
る。An object of the present invention is to provide a remote instruction input system capable of easily creating data for determining an object pointed by a pointer for remote instruction input for a mimic board or a field device. To do.
【0005】[0005]
【課題を解決するための手段】上記課題を解決するため
に、ポインタからレーザ光を出射し、ポインタのレーザ
光で指示される指示対象物または該指示対象物を含む範
囲をカメラによって撮影し、初期設定モードでは、カメ
ラで撮影したポインタのレーザ光で指定された指示点の
映像を画像処理手段により画像処理すると共に、得られ
た画像内における前記指示点の座標を求め、複数の前記
指示点の座標に基づいて指示領域を指示領域設定手段に
よって設定し、入力手段から指示領域内の指示対象物を
定義する文字情報を入力し、指示対象物に係る文字情報
と当該指示対象物の指示領域を関連付けて記憶装置に保
存し、実行モードでは、ポインタのレーザ光で指定され
た指示点の座標を画像処理手段において検知し、指示領
域判定手段によって当該実行モードにおいて指定された
前記指示点の座標が含まれる指示領域が有ると判定した
とき、当該指示領域に対応する文字情報を前記記憶手段
から求め、該求めた文字情報を用いて指示対象物に関す
る表示命令および/または制御命令を命令認識手段から
出力する。In order to solve the above problems, a laser beam is emitted from a pointer, and a pointing object pointed by the laser beam of the pointer or a range including the pointing object is photographed by a camera, In the initial setting mode, the image of the designated point designated by the laser light of the pointer photographed by the camera is image-processed by the image processing means, the coordinates of the designated point in the obtained image are obtained, and the plurality of designated points are obtained. The pointing area is set by the pointing area setting means based on the coordinates of the, the character information defining the pointing object in the pointing area is input from the input means, and the character information related to the pointing object and the pointing area of the pointing object are input. Are stored in the storage device in association with each other, and in the execution mode, the coordinates of the pointing point designated by the laser beam of the pointer are detected by the image processing means, and the pointing area determination means determines. When it is determined that there is a designated area including the coordinates of the designated point designated in the execution mode, the character information corresponding to the designated area is obtained from the storage means, and the designated object is obtained using the obtained character information. A display command and / or a control command regarding the are output from the command recognition means.
【0006】本発明は、ミミックボ−ドや現場の機器を
撮影した画像、すなわち指示領域を設定するために必要
となるデータをあらかじめシステム内に登録しておくも
のでなく、ミミックボ−ドや現場の機器を撮影するカメ
ラを設置した時に初めて指示領域を設定するためのデー
タを入手するものであり、カメラ設置とともに指示領域
を設定する際、その指示領域の設定作業を容易に実施可
能とする。The present invention does not preliminarily register in the system the image taken by the device of the mimic board or the site, that is, the data necessary for setting the designated area, but the data of the mimic board or the site is not registered. The data for setting the designated area is first obtained when the camera for photographing the device is installed, and the setting work of the designated area can be easily performed when the designated area is set together with the camera installation.
【0007】[0007]
【発明の実施の形態】以下、本発明の実施形態を図面を
用いて説明する。図1は、本発明の第1の実施形態によ
る遠隔指示入力システムを示す。本実施形態の遠隔指示
入力システムは、撮影手段であるテレビカメラ(例え
ば、赤外線カメラ)1、画像処理装置2、指示領域判定
装置3、命令認識装置4、入力装置(キーボード、マウ
ス及び音声入力装置など)5、表示制御装置6、プラン
ト制御装置7、CRTなどの表示装置8、指示領域設定
装置9及びメモリー(指示領域設定データ)10、メモ
リー(プラント情報)11を備える。12は情報を表示
するミミックボード、13はレーザ光を出射するポイン
タである。本実施形態では、ポインタ13から出射する
レーザ光に赤外光と可視光の双方を用いる。即ち、ユー
ザは可視光を見ながら指示位置の入力を行ない、画像処
理2には赤外光のみの画像を取り込む。このように、可
視光は入力者が指示位置を確認するために使用し、赤外
光は画像処理装置2が指示位置を検出するために使用す
る。そのため、テレビカメラ1は可視光に対する感度を
下げた状態で使用する。これにより、画像処理装置2に
は、ミミックボード12上の表示物(可視光)などの影
響を除いた映像が取り込まれるため、画像処理を簡単な
処理で実現することが可能となる。可視光に対する感度
を下げる手段としては、可視光遮断フィルタの装着、レ
ンズの絞りの調整により実施することが可能である。本
実施形態は、ポインタ13から出射されるレーザ光によ
り、ミミックボード12上を指示する。ここでは、ポイ
ンタ13のレーザ光出射のスイッチ(図示せず)を切る
ことにより、即ち、レーザ光をオフにすることにより指
示点の入力が行われたとみなす。テレビカメラ1は、ミ
ミックボード12を含む範囲を撮影する。画像処理装置
2は、テレビカメラ1で撮影した映像を画像処理し、レ
ーザ光で指示された指示点の画像内の座標を求める。指
示領域判定装置3は、画像処理装置2によって得られた
指示点の座標を基に、予め設定して格納しておく指示領
域設定データ(メモリー10に記憶)を用いて、指示領
域を判定し、この指示領域に定義された文字列の情報を
出力する。命令認識装置4は、その文字列情報と、音声
入力やキーボード入力などの入力装置5より入力された
情報を統合して一つの入力文とする。更に、命令認識装
置4は、この入力文を解析して、表示制御装置6及びプ
ラント制御装置7への指令を作成する。命令認識装置4
による認識によって得られた指令信号は、表示制御装置
6(場合によっては、プラント制御装置7)に取り込ま
れる。表示制御装置6は、指令信号に基づいて表示装置
8に表示する情報をメモリー11内の情報(例えば、プ
ラントの系統図、トレンド図、配管計装線図など)を用
いて作成する。作成された情報は、表示装置8に取り込
まれ、表示される。指示領域設定装置9は、ユーザの操
作により入力装置5から入力される初期設定指令信号の
入力をトリガに動作する。この装置9は、ポインタ13
より出射されたレーザ光で指示された指示点を複数個取
り込み、各々の指示点の座標を基に指示領域を設定す
る。更に、この指示領域に対して入力装置5から入力さ
れる文字情報を定義し、指示領域と定義された文字情報
をメモリー10に格納する。また、指示領域設定装置9
は、指示点の入力要求、及び文字情報の入力要求を表示
制御装置6に出力し、この要求が表示装置8に表示され
る。ユーザは、表示装置8に表示された操作を順番に実
施することにより初期設定を行うことが可能である。こ
こで、本実施形態の遠隔指示入力システムを使用する所
定の位置に設置した後、カメラの位置またはカメラで撮
影する範囲を変更した後に、初期設定指令を入力し、指
示領域の設定と、指示領域への文字情報の定義を行う。
この処理が初期設定モードである。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a remote instruction input system according to a first embodiment of the present invention. The remote instruction input system according to the present embodiment includes a television camera (for example, an infrared camera) 1, which is a photographing means, an image processing device 2, an instruction area determination device 3, a command recognition device 4, an input device (a keyboard, a mouse, and a voice input device). Etc.) 5, a display control device 6, a plant control device 7, a display device 8 such as a CRT, an instruction area setting device 9, a memory (instruction area setting data) 10, and a memory (plant information) 11. Reference numeral 12 is a mimic board for displaying information, and 13 is a pointer for emitting laser light. In this embodiment, both infrared light and visible light are used as the laser light emitted from the pointer 13. That is, the user inputs the designated position while observing visible light, and the image processing 2 captures an image of only infrared light. Thus, the visible light is used by the input person to confirm the pointing position, and the infrared light is used by the image processing device 2 to detect the pointing position. Therefore, the television camera 1 is used in a state where the sensitivity to visible light is lowered. As a result, the image processing apparatus 2 captures the image without the influence of the display object (visible light) on the mimic board 12, so that the image processing can be realized by a simple process. As a means for lowering the sensitivity to visible light, it is possible to mount a visible light blocking filter and adjust the diaphragm of the lens. In the present embodiment, the laser light emitted from the pointer 13 points on the mimic board 12. Here, it is assumed that the pointer 13 is input by turning off the laser light emitting switch (not shown) of the pointer 13, that is, by turning off the laser light. The television camera 1 shoots a range including the mimic board 12. The image processing device 2 performs image processing on a video image captured by the television camera 1 and obtains coordinates in the image of the designated point designated by the laser light. The pointing area determination device 3 determines the pointing area using the pointing area setting data (stored in the memory 10) that is preset and stored based on the coordinates of the pointing point obtained by the image processing apparatus 2. , The information of the character string defined in this instruction area is output. The command recognition device 4 integrates the character string information and the information input from the input device 5 such as voice input and keyboard input into one input sentence. Further, the command recognition device 4 analyzes the input sentence and creates a command to the display control device 6 and the plant control device 7. Instruction recognizer 4
The command signal obtained by the recognition by is taken into the display control device 6 (in some cases, the plant control device 7). The display control device 6 creates information to be displayed on the display device 8 based on the command signal, using information in the memory 11 (for example, a system diagram of a plant, a trend diagram, a piping instrumentation diagram, etc.). The created information is taken into the display device 8 and displayed. The instruction area setting device 9 is triggered by the input of an initial setting command signal input from the input device 5 by a user operation. This device 9 has a pointer 13
A plurality of designated points designated by the emitted laser light are taken in, and the designated area is set based on the coordinates of each designated point. Further, character information input from the input device 5 is defined for this designated area, and the character information defined as the designated area is stored in the memory 10. In addition, the designated area setting device 9
Outputs to the display control device 6 a request for inputting an instruction point and a request for inputting character information, and this request is displayed on the display device 8. The user can perform the initial setting by sequentially performing the operations displayed on the display device 8. Here, after the remote instruction input system of the present embodiment is installed at a predetermined position, after changing the position of the camera or the range to be photographed by the camera, an initial setting command is input to set the instruction area and Define the character information for the area.
This process is the initial setting mode.
【0008】以下、初期設定モードについて説明する。
初期設定指令信号が指示領域設定装置9に入力される
と、指示領域設定装置9は、図2に示す処理を実行す
る。本実施形態では指示領域の設定を図3に示すよう
に、2つの指示点P1、P2を指定し、この2つの指示
点が対角となる長方形を指示領域20として設定する。
指示領域設定装置9は、まず、初期設定指令信号が入力
されたか否かを判定する(ステップ101)。この判定
が「YES」の場合、第一指示点の入力要求の表示指令
を表示制御装置6に出力する(ステップ102)。図4
(a)に表示装置8に表示された第一指示点の入力要求
の表示例を示す。ポインタ13から出射されるレーザ光
により指示点P1が入力されると、第一指示点としてP
1の座標を取り込み(ステップ103)、第二指示点の
入力要求の表示指令を出力する(ステップ104)。図
4(b)に表示例を示す。次いで、指示点P2が入力さ
れると、第二指示点としてP2の座標を取り込み(ステ
ップ105)、第一指示点の座標と第二指示点の座標を
用いて指示領域20を設定し(ステップ106)、この
指示領域20に定義する文字列の入力を要求する表示指
令を出力する(ステップ107)。図4(c)に表示例
を示す。入力装置5より文字列が入力されると、この文
字列を取り込み(ステップ108)、指示領域と文字列
をメモリー10に格納する(ステップ109)。メモリ
ー10に格納される指示領域設定データの一例を図5に
示す。図5に示す指示領域設定データには、第一指示点
のx座標X1とy座標Y1、第二指示点のx座標X2と
y座標Y2、及び第一指示点と第二指示点により設定さ
れる指示領域が指示された場合に出力する文字列が格納
される。次いで、初期設定の終了か否かの入力要求の表
示指令を出力する(ステップ110)。図4(d)に表
示例を示す。入力装置5からの入力があると、初期設定
の終了か否かを判定し、判定の結果が「NO」の場合は
次の指示領域の設定処理を開始する。一方、判定の結果
が「YES」の場合は初期設定モードを終了する(ステ
ップ111)。初期設定の終了は、入力装置5から終了
指令をユーザが入力する。The initial setting mode will be described below.
When the initial setting command signal is input to the pointing area setting device 9, the pointing area setting device 9 executes the process shown in FIG. In the present embodiment, as shown in FIG. 3, the setting of the pointing area is performed by designating two pointing points P1 and P2, and setting a rectangle in which these two pointing points are diagonal as the pointing area 20.
The designated area setting device 9 first determines whether or not an initial setting command signal has been input (step 101). When this determination is "YES", the display command of the input request of the first designated point is output to the display control device 6 (step 102). Figure 4
(A) shows a display example of the input request of the first designated point displayed on the display device 8. When the pointing point P1 is input by the laser light emitted from the pointer 13, P is set as the first pointing point.
The coordinate of 1 is taken in (step 103), and the display command of the input request of the second designated point is output (step 104). FIG. 4B shows a display example. Next, when the designated point P2 is input, the coordinates of P2 are taken in as the second designated point (step 105), and the designated area 20 is set using the coordinates of the first designated point and the coordinates of the second designated point (step 105). 106), the display command requesting the input of the character string defined in the instruction area 20 is output (step 107). A display example is shown in FIG. When a character string is input from the input device 5, this character string is fetched (step 108) and the designated area and the character string are stored in the memory 10 (step 109). FIG. 5 shows an example of the designated area setting data stored in the memory 10. In the designated area setting data shown in FIG. 5, the x coordinate X1 and the y coordinate Y1 of the first designated point, the x coordinate X2 and the y coordinate Y2 of the second designated point, and the first designated point and the second designated point are set. The character string to be output when the designated area is designated is stored. Then, the display command of the input request as to whether or not the initialization is completed is output (step 110). A display example is shown in FIG. When there is an input from the input device 5, it is determined whether or not the initial setting is completed. If the result of the determination is "NO", the setting process of the next instruction area is started. On the other hand, when the result of the determination is "YES", the initial setting mode ends (step 111). To end the initial setting, the user inputs an end command from the input device 5.
【0009】図1において、テレビカメラ1は、ミミッ
クボード12を含む範囲を撮影する。テレビカメラ1に
より撮影した映像は、画像処理装置2に取り込まれる。
画像処理装置2によって実行される処理を図6に示す。
画像処理装置2は、まず、テレビカメラ1から出力され
た映像情報を取り込む(ステップ201)。この映像情
報から不要な情報を除去するために映像情報を2値化
(ステップ202)して、2値画像を画像処理装置2内
の画像メモリー(図示せず)に記憶(ステップ203)
する。画像メモリー内の2値画像を基に2値画像の特徴
量が抽出(ステップ204)される。2値画像の特徴量
抽出は、図7のように、2値画像のそれぞれの濃度の投
影分布を計算して行う。この投影分布は、指示点の2値
画像の濃度をx軸方向及びy軸方向にそれぞれ加算して
求められる。この処理により、図7のように、x軸,y
軸に沿った2値画像の濃度分布(2値画像の特徴量)が
得られる。テレビカメラ1で撮影した画像内における指
示点の画像の位置の座標(xi,yi)がこの2値画像
の特徴量を用いて計算(ステップ205)される。座標
(xi,yi)は、指示点の2値画像の濃度が予め定め
た判定基準(図7参照)を超える部分の中心座標であ
る。即ち、図7の例では、xiが(x1+x2)/2で
あり、yiが(y1+y2)/2である。得られた座標
(xi,yi)は、指示領域判定装置3及び指示領域設
定装置9に出力(ステップ206)される。In FIG. 1, the television camera 1 shoots an area including the mimic board 12. The image captured by the television camera 1 is captured by the image processing device 2.
The processing executed by the image processing apparatus 2 is shown in FIG.
The image processing apparatus 2 first takes in the video information output from the television camera 1 (step 201). In order to remove unnecessary information from this video information, the video information is binarized (step 202) and the binary image is stored in an image memory (not shown) in the image processing apparatus 2 (step 203).
To do. The feature amount of the binary image is extracted based on the binary image in the image memory (step 204). The feature amount extraction of the binary image is performed by calculating the projection distribution of each density of the binary image as shown in FIG. This projection distribution is obtained by adding the densities of the binary image of the designated point in the x-axis direction and the y-axis direction, respectively. By this processing, as shown in FIG. 7, the x-axis, y-axis
The density distribution of the binary image (feature amount of the binary image) along the axis is obtained. The coordinates (xi, yi) of the position of the image of the designated point in the image captured by the television camera 1 are calculated using the feature amount of the binary image (step 205). The coordinates (xi, yi) are the center coordinates of the portion where the density of the binary image of the designated point exceeds the predetermined determination standard (see FIG. 7). That is, in the example of FIG. 7, xi is (x1 + x2) / 2 and yi is (y1 + y2) / 2. The obtained coordinates (xi, yi) are output to the designated area determination device 3 and the designated area setting device 9 (step 206).
【0010】本実施形態は、図8(a)に示すように、
ポインタ13から出射されたレーザ光により指示(指示
点23)されるミミックボード12上の対象物に関する
詳細な情報を、図8(b)に示すように表示装置8に表
示することが本来の機能である。このためには、レーザ
光によって指示された位置がどの指示領域を指示してい
るかを特定する必要がある。この処理が実行モードであ
る。実行モードでは、まず、ポインタ13で指示される
指示点23の座標を画像処理装置2で検出する。ここ
で、図8(a)に示すミミックボード12には、予め指
示領域21、22が設定されており、指示領域21には
「原子力圧力」、指示領域22には「原子炉水位」が定
義されているとする。次いで、指示領域判定装置3で
は、指示点23の座標を基に、この指示点23の座標が
指示領域21、22の範囲内にあるか否かを判定し、指
示領域21内にあることを得た後、この指示領域21に
定義されている「原子炉圧力」を命令認識部4へ出力す
る。この後、入力装置5より「トレンド表示」と入力さ
れると、命令認識装置4は、表示制御装置6に原子炉圧
力のトレンド図を表示する指令を出力する。表示制御装
置6は、命令認識装置4からの指令を取り込み、図8
(b)に示すように表示装置8に原子炉圧力のトレンド
図を表示する。以下、実行モードの処理を説明する。ユ
ーザは、ミミックボード12に対するポインタ13から
出射されるレーザ光による指示入力と、入力装置5によ
る音声入力などにより、表示装置8への情報の表示及び
プラントへの操作命令などの入力を行う。まず、テレビ
カメラ1によって撮影したミミックボード12の画像が
画像処理装置2に取り込まれる。実行モードにおいて
も、テレビカメラ1は可視光に対する感度を下げてお
く。テレビカメラ1の出力である映像信号を入力した画
像処理装置2は、図6の処理を実行する。そして、指示
領域判定装置3は、図9の処理を実行する。まず、画像
処理装置2よりポインタ13から出射されるレーザ光に
より指示された指示点の画像内での座標(Xr,Yr)を
取り込み(ステップ301)、次いで、メモリー10に
格納されている指示領域設定データを参照して、指示点
の座標(Xr,Yr)が含まれる指示領域を判定する(ス
テップ302)。判定の結果、指示点の座標(Xr,Y
r)が含まれる指示領域がない場合には、ステップ30
1に戻る(ステップ303)。一方、指示点の座標(X
r,Yr)が含まれる指示領域がある場合には、指示領域
に定義されている出力文字列を命令認識装置4に出力す
る(ステップ204)。In this embodiment, as shown in FIG.
The original function is to display detailed information on the object on the mimic board 12 pointed by the laser beam emitted from the pointer 13 (pointing point 23) on the display device 8 as shown in FIG. 8B. Is. For this purpose, it is necessary to specify which designated area the position designated by the laser beam indicates. This process is the execution mode. In the execution mode, first, the image processing device 2 detects the coordinates of the pointing point 23 designated by the pointer 13. Here, in the mimic board 12 shown in FIG. 8A, the instruction areas 21 and 22 are set in advance. In the instruction area 21, "nuclear pressure" is defined, and in the instruction area 22, "reactor water level" is defined. It has been done. Then, the pointing area determination device 3 determines whether the coordinates of the pointing point 23 are within the range of the pointing areas 21 and 22 based on the coordinates of the pointing point 23, and determines that the pointing point 23 is within the pointing area 21. After that, the “reactor pressure” defined in the instruction area 21 is output to the command recognition unit 4. After that, when "trend display" is input from the input device 5, the command recognition device 4 outputs a command for displaying a trend diagram of the reactor pressure to the display control device 6. The display control device 6 fetches the command from the command recognition device 4, and
As shown in (b), a trend diagram of the reactor pressure is displayed on the display device 8. The processing in the execution mode will be described below. The user inputs information such as information on the display device 8 and operation instructions to the plant by inputting instructions to the mimic board 12 using laser light emitted from the pointer 13 and voice input from the input device 5. First, the image of the mimic board 12 taken by the television camera 1 is captured by the image processing device 2. Even in the execution mode, the TV camera 1 lowers the sensitivity to visible light. The image processing device 2 that receives the video signal output from the television camera 1 executes the process shown in FIG. Then, the designated area determination device 3 executes the process of FIG. 9. First, the coordinates (Xr, Yr) in the image of the pointing point pointed by the laser beam emitted from the pointer 13 from the image processing device 2 is fetched (step 301), and then the pointing area stored in the memory 10 is read. By referring to the setting data, the designated area including the coordinates (Xr, Yr) of the designated point is determined (step 302). As a result of the judgment, the coordinates of the designated point (Xr, Y
If there is no designated area including r), step 30
Return to 1 (step 303). On the other hand, the coordinates (X
If there is a designated area including r, Yr), the output character string defined in the designated area is output to the instruction recognition device 4 (step 204).
【0011】命令認識装置4は、指示領域判定装置3か
ら出力された文字列と、入力装置5により入力された情
報(例えば、音声情報またはキーボードによる入力情報
など)を統合して一つの入力文を作成し、更にこの入力
文を解析して、表示制御装置6(場合によっては、プラ
ント制御装置7)への指令を作成する。この命令認識装
置4は、図10の処理手順によって入力命令の認識処理
を実行する。図10に示す具体的な処理例は、ポインタ
13により「原子炉水位」が指示され、音声入力により
「トレンド図示せ」が入力された場合を示す。まず、命
令認識装置4は情報統合機能と入力文解析機能を有し、
情報統合機能により指示領域判定装置3から出力された
文字列及び入力装置5より入力された音声情報を統合
し、入力文を得る。具体的には、命令認識装置4内の入
力文解析機能により図10の処理を実行する。即ち、入
力文が取り込まれる(ステップ401)。命令認識装置
4のメモリー(図示せず)に記憶されている文法及び辞
書のデータを用いて分かち書きし、図10に示すように
「意味」と「意味カテゴリ」を対応付ける(ステップ4
02)。ここで、意味カテゴリとは、表示情報に関する
技術の世界で使用される単語の意味をカテゴリ分けした
ものである。図10の例では、「系統」及び「状態量」
等がそれにあたる。次に、ステップ402で得られた結
果を用いて入力文の意味を解析する(ステップ40
3)。意味解析は、図10のように(1)及び(2)の
二つのステップで実施する。まず、入力文の要求内容の
種類を同定する。命令認識装置4は、同定のために、要
求の種類ごとに標準的な文型を上記メモリー内に用意し
ている。標準的な文型は、「意味」あるいは「意味カテ
ゴリ」をマッチングすることにより、その要求内容の種
類を同定する。図10の例では、文型“<trend_
graph>□ 提示せよ”がマッチングして、要求の
種類がトレンド図提示要求“trend”であると同定
される。ここで、記号“<>”は意味カテゴリをマッチ
ングに使用すること、“□”は任意の数の単語が含まれ
てもよいことを示すものである。以上の(1)の処理が
終了した後、(2)の処理(要求内容の実行に必要な情
報の取得)が行われる。必要な情報及びその取得方法
は、命令認識装置4のメモリーにフレーム型の知識とし
て用意されている。この知識を用いて、要求内容の実行
に必要な情報を取得する。図10の例は、必要な情報で
ある系統機器名と状態量名をいずれも入力文から得てい
る。必要な情報が入力文に含まれていない場合は、プラ
ント関連知識、対話履歴の利用、あるいは、ユーザへの
問い合わせにより、情報を取得する。入力文の意味の解
析が終了すると、処理命令を対応する制御装置に出力す
る(ステップ404)。図10の例では、表示制御装置
6に原子炉水位トレンド図の表示要求“trend 原
子炉 水位”が出力される。The command recognition device 4 integrates the character string output from the pointing area determination device 3 and the information (for example, voice information or keyboard input information) input by the input device 5 into one input sentence. Is generated and the input sentence is further analyzed to generate a command to the display control device 6 (in some cases, the plant control device 7). The command recognition device 4 executes the recognition process of the input command according to the processing procedure of FIG. The specific processing example shown in FIG. 10 shows a case where “reactor water level” is instructed by the pointer 13 and “trend illustration” is input by voice input. First, the command recognition device 4 has an information integration function and an input sentence analysis function,
The information integration function integrates the character string output from the designated area determination device 3 and the voice information input from the input device 5 to obtain an input sentence. Specifically, the processing of FIG. 10 is executed by the input sentence analysis function in the instruction recognition device 4. That is, the input sentence is fetched (step 401). It is separated into words using the grammar and dictionary data stored in the memory (not shown) of the instruction recognition device 4, and "meaning" and "meaning category" are associated with each other as shown in FIG. 10 (step 4).
02). Here, the meaning category is a category of the meanings of words used in the technical world of display information. In the example of FIG. 10, “system” and “state quantity”
And so on. Next, the meaning of the input sentence is analyzed using the result obtained in step 402 (step 40).
3). The semantic analysis is performed in two steps (1) and (2) as shown in FIG. First, the type of request content of the input sentence is identified. The instruction recognition device 4 prepares standard sentence patterns for each type of request in the memory for identification. The standard sentence pattern identifies the type of the requested content by matching the “meaning” or the “meaning category”. In the example of FIG. 10, the sentence pattern “<trend_
“Graph> □ Present” is matched, and the request type is identified as the trend diagram presentation request “trend”. Here, the symbol “<>” means that the semantic category is used for matching, “□”. Indicates that an arbitrary number of words may be included.After the above processing (1) is completed, processing (2) (acquisition of information necessary to execute the requested content) is performed. The necessary information and its acquisition method are prepared as frame-type knowledge in the memory of the instruction recognition device 4. Using this knowledge, the information necessary for executing the requested content is acquired. Obtains the necessary information such as the system equipment name and the state quantity name from the input sentence. If the required information is not included in the input sentence, the plant-related knowledge, the use of the dialogue history, or the user If you contact us, When the analysis of the meaning of the input sentence is completed, the processing command is output to the corresponding control device (step 404) In the example of Fig. 10, the display control device 6 is requested to display the reactor water level trend diagram. "trend reactor water level" is output.
【0012】以上説明したように、本実施形態の初期設
定モードでは、指示領域設定装置9の機能により、ポイ
ンタ13から出射されるレーザ光により入力された2つ
の指示点を基に長方形の指示領域を設定し、また、入力
装置5からの文字情報の入力に基づいて指示領域への文
字情報の定義を実施し、更に、設定した指示領域とこの
指示領域に定義した文字列を指示領域設定データとして
メモリー10に格納する。このようにして、本実施形態
では、指示座標と指示対象物の関係データである指示領
域設定データを容易に作成することができ、これによ
り、ミミックボード上の指示対象物を遠隔から指示して
入力操作することが可能になると同時に、この指示対象
物に関する情報を効率よく表示することが可能となる。
また、本実施形態の実行モードでは、初期設定モードで
作成した指示座標と指示対象物の関係データである指示
領域設定データを用いることによって、指示領域判定装
置3が画像処理装置2より取り込んだ指示点の座標が含
まれる指示領域を迅速に判定することが可能となり、ま
た、この指示領域に定義された文字列を命令認識装置4
にスムーズかつ容易に出力することが可能となる。ま
た、本実施形態では、ポインタ13に可視光と赤外光を
併用することにより、特に、ユーザは可視光を見ながら
指示入力を行なうことができるので、指示位置の表示機
能を有しないミミックボードに対する指示入力に有効な
手段となる。また、画像処理2には赤外光のみの画像を
取り込むので、画像処理を単純化することができる。こ
れは、画像処理を簡単な処理で実現することが可能とな
り、処理速度の向上に有効な手段となる。As described above, in the initial setting mode of the present embodiment, the function of the pointing area setting device 9 causes a rectangular pointing area based on the two pointing points input by the laser light emitted from the pointer 13. Is set, character information is defined in the pointing area based on the input of character information from the input device 5, and the set pointing area and the character string defined in the pointing area are set in the pointing area setting data. Is stored in the memory 10. In this way, in the present embodiment, it is possible to easily create the pointing area setting data which is the relational data of the pointing coordinates and the pointing object, and thereby to remotely point the pointing object on the mimic board. It becomes possible to perform an input operation, and at the same time, it is possible to efficiently display the information regarding the pointing object.
Further, in the execution mode of the present embodiment, by using the designated area setting data which is the relational data of the designated coordinates created in the initial setting mode and the designated object, the designated area determination device 3 receives the instruction captured from the image processing apparatus 2. It becomes possible to quickly determine the designated area including the coordinates of the points, and the character string defined in this designated area is used for the instruction recognition device 4
It is possible to output smoothly and easily. Further, in the present embodiment, by using the visible light and the infrared light in combination for the pointer 13, the user can particularly perform an instruction input while looking at the visible light. Therefore, the mimic board that does not have the function of displaying the indicated position. It becomes an effective means for inputting instructions. Further, since the image processing 2 captures an image of only infrared light, the image processing can be simplified. This makes it possible to realize image processing by simple processing, and is an effective means for improving the processing speed.
【0013】なお、本実施形態では、ミミックボード1
2を用いているが、これを現場機器に置き換えても、本
実施形態に記載の構成及び処理と同様に実現が可能であ
る。In this embodiment, the mimic board 1 is used.
Although 2 is used, even if it is replaced with a field device, it can be realized similarly to the configuration and processing described in the present embodiment.
【0014】図11は、本発明の第2の実施形態による
遠隔指示入力システムを示す。本実施形態は、撮影手段
であるテレビカメラ(例えば、赤外線カメラ)1、画像
処理装置2、指示領域判定装置3、命令認識装置4、入
力装置(キーボード、マウス及び音声入力装置など)
5、表示制御装置6、プラント制御装置7、携帯端末8
a、指示領域設定装置9a及びメモリー(指示領域設定
データ)10a、メモリー(プラント情報)11を備え
る。13はレーザ光を出射するポインタ、14はプラン
トの現場機器である。以下、第1の実施形態と異なる、
指示領域設定装置9aの処理、メモリー10aに格納さ
れる指示領域設定データについて詳細に説明する。その
他については第1の実施形態と同様である。FIG. 11 shows a remote instruction input system according to the second embodiment of the present invention. In the present embodiment, a television camera (for example, an infrared camera) 1, which is a photographing means, an image processing device 2, a pointing area determination device 3, a command recognition device 4, an input device (keyboard, mouse, voice input device, etc.).
5, display control device 6, plant control device 7, mobile terminal 8
a, a designated area setting device 9a, a memory (designated area setting data) 10a, and a memory (plant information) 11. Reference numeral 13 is a pointer that emits a laser beam, and 14 is a field device of the plant. Hereinafter, different from the first embodiment,
The processing of the designated area setting device 9a and the designated area setting data stored in the memory 10a will be described in detail. Others are the same as those in the first embodiment.
【0015】図12は、指示領域設定装置9aの初期設
定モードにおいて実行される処理を示す。ここで、本実
施形態は、図13に示すように、任意の個数の指示点で
形成される形状を指示領域として設定する。例えば、指
示点P11,P12,P13,P14が入力されたと
き、各々の指示点を結び、指示領域30として設定す
る。また、指示点P21,P22,P23が入力された
ときは、指示領域31として指示領域を設定する。指示
領域設定装置9aは、まず、初期設定指令信号が入力さ
れたか否かを判定(ステップ501)する。この判定が
「YES」の場合、i=0と設定(ステップ502)
し、i=i+1を実行(ステップ503)する。次に、
第i指示点の入力要求の表示指令を表示制御装置6に出
力(ステップ504)し、第i指示点の入力を行う(ス
テップ505)。第i指示点の入力が行われた後、i<
3を評価する(ステップ506)。これは、指示領域を
形成するために必要な指示点の最小数が3個であるため
で、3個の指示点が入力されるまでステップ503から
ステップ506を繰り返し実行する。一方、指示点が3
個入力された後は、指示点入力を終了するか否かの入力
要求の表示指令を表示制御装置6へ出力し(ステップ5
07)、指示点入力の終了指令が入力されるまで、ステ
ップ503からステップ508の処理を繰り返し実行す
る(ステップ508)。一方、指示点入力の終了指令が
入力された場合、入力された指示点を基に指示領域を設
定し(ステップ509)、この指示領域に定義する文字
列の入力要求の表示指令を表示制御装置6へ出力する
(ステップ510)。定義する文字列が入力されると
(ステップ511)、指示領域とこの指示領域に定義す
る文字列をメモリー10aに記憶する(ステップ51
2)。ここで、メモリー10aに格納される指示領域設
定データの一例を図14に示す。図14に示す指示領域
設定データには、第一指示点のx座標X1とy座標Y1
から第n指示点のx座標Xnとy座標Yn、及び入力さ
れた指示点により設定される指示領域が指示された場合
に出力する文字列が格納される。次いで、初期設定モー
ドを終了するか否かの入力要求の表示指令を表示制御装
置6に出力し(ステップ513)、初期設定モードの継
続指令が入力されれば、ステップ502からステップ5
14までの処理を初期設定モード終了指令が入力される
まで繰り返し実行する(ステップ514)。FIG. 12 shows the processing executed in the initial setting mode of the designated area setting device 9a. Here, in the present embodiment, as shown in FIG. 13, a shape formed by an arbitrary number of pointing points is set as the pointing area. For example, when the pointing points P11, P12, P13, P14 are input, the respective pointing points are connected and set as the pointing area 30. When the pointing points P21, P22, and P23 are input, the pointing area is set as the pointing area 31. The designated area setting device 9a first determines whether or not an initial setting command signal has been input (step 501). If this determination is “YES”, set i = 0 (step 502)
Then, i = i + 1 is executed (step 503). next,
The display command of the input request of the i-th designated point is output to the display control device 6 (step 504), and the i-th designated point is input (step 505). After the i-th point is input, i <
3 is evaluated (step 506). This is because the minimum number of pointing points required to form the pointing area is three, and steps 503 to 506 are repeatedly executed until three pointing points are input. On the other hand, the designated point is 3
After the individual input, the display command of the input request as to whether or not the input of the designated points is to be output to the display control device 6 (step 5
07), the processing from step 503 to step 508 is repeatedly executed until the instruction to end the input of the designated point is input (step 508). On the other hand, when the instruction to end the input of the pointing point is input, the pointing area is set based on the input pointing point (step 509), and the display command of the input request of the character string defined in the pointing area is displayed. 6 (step 510). When the character string to be defined is input (step 511), the instruction area and the character string to be defined in this instruction area are stored in the memory 10a (step 51).
2). Here, an example of the designated area setting data stored in the memory 10a is shown in FIG. In the designated area setting data shown in FIG. 14, the x coordinate X1 and the y coordinate Y1 of the first designated point are included.
The x-coordinate Xn and the y-coordinate Yn of the n-th designated point and the character string output when the designated area set by the inputted designated point are designated are stored. Then, a display command of an input request as to whether or not to end the initialization mode is output to the display control device 6 (step 513), and if a continuation command of the initialization mode is input, steps 502 to 5
The processes up to 14 are repeatedly executed until the initialization mode end command is input (step 514).
【0016】本実施形態は、図15(a)に示すよう
に、ポインタ13から出射されたレーザ光により指示
(指示点34)される現場機器に関する詳細な情報を、
図15(b)に示すように、携帯端末8aに表示するこ
とが本来の機能である。このためには、レーザ光によっ
て指示された位置がどの指示領域を指示しているかを特
定する必要がある。この処理が実行モードである。実行
モードでは、まず、ポインタ13で指示される指示点3
4の座標を画像処理装置2が検出する。ここで、図15
(a)に示す現場機器には、予め指示領域32、33が
設定されており、指示領域32には「PLRポンプ
A」、指示領域33には「弁1132」が定義されてい
るとする。次いで、指示領域判定装置3では、指示点3
4の座標を基に、この指示点34の座標が指示領域3
2、33の範囲内にあるか否かを判定し、指示領域32
内にあることを得た後、この指示領域32に定義されて
いる「PLRポンプA」を命令認識部4に出力する。こ
の後、入力装置5から「設計図表示」と入力されると、
命令認識装置4は、表示制御装置6にPLRポンプAの
設計図を表示する指令を出力する。表示制御装置6は、
命令認識装置4からの指令を取り込み、図15(b)に
示すように、携帯端末8aにPLRポンプAの設計図を
表示する。In the present embodiment, as shown in FIG. 15 (a), detailed information on the on-site equipment pointed by the laser beam emitted from the pointer 13 (pointing point 34) is provided.
As shown in FIG. 15B, the original function is to display on the mobile terminal 8a. For this purpose, it is necessary to specify which designated area the position designated by the laser beam indicates. This process is the execution mode. In the execution mode, first, the designated point 3 designated by the pointer 13
The image processing device 2 detects the coordinates of 4. Here, FIG.
In the field device shown in (a), it is assumed that the instruction areas 32 and 33 are set in advance, and the instruction area 32 has "PLR pump A" and the instruction area 33 has "valve 1132". Next, in the pointing area determination device 3, the pointing point 3
Based on the coordinates of 4, the coordinates of the pointing point 34 are
It is determined whether or not it is within the range of 2, 33, and the instruction area 32
Then, the “PLR pump A” defined in the instruction area 32 is output to the command recognition unit 4. After that, when "design drawing display" is input from the input device 5,
The command recognition device 4 outputs a command for displaying the design drawing of the PLR pump A to the display control device 6. The display control device 6 is
A command from the command recognition device 4 is fetched, and a design drawing of the PLR pump A is displayed on the mobile terminal 8a as shown in FIG. 15 (b).
【0017】以上説明したように、本実施形態の初期設
定モードでは、指示領域設定装置9aの機能により、ポ
インタ13からの指示命令で入力された任意の個数の指
示点を基に指示領域を設定し、また、入力装置5からの
文字情報の入力で指示領域への文字情報の定義を実施
し、更に、設定した指示領域とこの指示領域に定義した
文字列を指示領域設定データとしてメモリー10aに格
納する。このようにして、本実施形態では、指示座標と
指示対象物の関係データである指示領域設定データを容
易に作成することができ、これにより、現場機器におけ
る指示対象物を遠隔から指示して入力操作することが可
能になると同時に、この指示対象物に関する情報を携帯
端末等に効率よく表示することが可能となる。また、ポ
インタ13から任意の個数の指示点を基に指示領域を設
定するので、現場機器のように複雑な形状の指示対象物
に対しても、指示対象物と同様な形状の指示領域を設定
することができる。As described above, in the initial setting mode of this embodiment, the function of the pointing area setting device 9a sets the pointing area based on an arbitrary number of pointing points input by the pointing command from the pointer 13. Further, the character information is defined in the instruction area by inputting the character information from the input device 5, and the set instruction area and the character string defined in the instruction area are stored in the memory 10a as instruction area setting data. Store. In this way, in the present embodiment, it is possible to easily create the pointing area setting data, which is the relational data of the pointing coordinates and the pointing target, and thereby to remotely point and input the pointing target in the field device. It becomes possible to operate and at the same time, it becomes possible to efficiently display the information on the pointing object on the mobile terminal or the like. Further, since the pointing area is set based on an arbitrary number of pointing points from the pointer 13, the pointing area having the same shape as the pointing object is set even for the pointing object having a complicated shape such as a field device. can do.
【0018】なお、本実施形態では、現場機器14を対
象としているが、これをミミックボードに置き換えて
も、本実施形態に記載の構成及び処理と同様に実現が可
能である。In the present embodiment, the field device 14 is targeted, but even if it is replaced with a mimic board, it can be realized in the same manner as the configuration and processing described in the present embodiment.
【0019】[0019]
【発明の効果】以上説明したように、本発明によれば、
通常表示図面データに相当するデータのないミミックボ
−ドや現場機器を撮影した画像、すなわち指示領域を設
定するために必要となるデータをあらかじめシステム内
に登録しておくものでなく、ミミックボ−ドや現場の機
器を撮影するカメラを設置した時に初めて指示領域を設
定するためのデータを入手するものであるので、カメラ
設置とともに指示領域を設定するに際して、その指示領
域の設定作業を容易に実施することができる。また、ミ
ミックボードや現場機器等に対して、ポインタから出射
されるレーザ光により指示される位置の座標と、ポイン
タにより指示した指示対象物との関係データである指示
領域設定データを容易に作成することができ、これによ
り、ミミックボードや現場機器等における指示対象物を
遠隔から指示して入力操作することが可能になると同時
に、この指示対象物に関する情報を効率よく表示するこ
とができる。また、本発明における指示領域設定データ
として位置の座標値と指示対象物の関係データの座標値
には、カメラで撮影した画像内の座標を使用するため、
従来技術において作成していた較正データが不要とな
り、この結果、本発明によれば、従来のようなデータ作
成のための膨大な作業量を削減することができる。ま
た、本発明によれば、初期設定モードで作成した指示座
標と指示対象物の関係データである指示領域設定データ
を用いることによって、指示領域判定装置が画像処理装
置より取り込んだ指示点の座標が含まれる指示領域を迅
速に判定することが可能となり、また、この指示領域に
定義された文字列を命令認識装置にスムーズかつ容易に
出力することが可能となる。As described above, according to the present invention,
The mimic board that does not have data corresponding to the normal display drawing data or an image of a field device, that is, the data necessary for setting the designated area is not registered in advance in the system. Since the data for setting the designated area is obtained for the first time when the camera for shooting the equipment in the field is installed, when setting the designated area together with the camera installation, the setting work of the designated area can be easily performed. You can Further, for the mimic board or the field device, it is possible to easily create the pointing area setting data which is the relational data between the coordinates of the position pointed by the laser beam emitted from the pointer and the pointing object pointed by the pointer. As a result, it becomes possible to remotely instruct and input an instruction target object on a mimic board or a field device, and at the same time, it is possible to efficiently display information regarding the instruction target object. Further, as the coordinate value of the position and the coordinate value of the relational data of the pointing object as the pointing area setting data in the present invention, since the coordinates in the image taken by the camera are used,
The calibration data created in the prior art becomes unnecessary, and as a result, according to the present invention, it is possible to reduce a huge amount of work for creating data as in the prior art. Further, according to the present invention, by using the designated area created by the designated area in the initial setting mode and the designated area setting data which is the relational data of the designated object, the coordinates of the designated point captured from the image processing apparatus by the designated area determination apparatus can be determined. It is possible to quickly determine the included instruction area, and it is possible to smoothly and easily output the character string defined in the instruction area to the instruction recognition device.
【図1】本発明の第1の実施形態による遠隔指示入力シ
ステムの構成図FIG. 1 is a configuration diagram of a remote instruction input system according to a first embodiment of the present invention.
【図2】第1の実施形態の指示領域設定装置において実
行される処理を示す図FIG. 2 is a diagram showing a process executed in the designated area setting device of the first embodiment.
【図3】第1の実施形態の指示領域設定方法を示す図FIG. 3 is a diagram showing a designated area setting method according to the first embodiment.
【図4】表示装置の表示例を示す図FIG. 4 is a diagram showing a display example of a display device.
【図5】第1の実施形態の指示領域設定データの一例を
示す図FIG. 5 is a diagram showing an example of designated area setting data according to the first embodiment.
【図6】画像処理装置の処理を示す図FIG. 6 is a diagram showing processing of the image processing apparatus.
【図7】投影分布の計算と座標値の検出処理を説明する
図FIG. 7 is a diagram for explaining calculation of projection distribution and detection processing of coordinate values.
【図8】第1の実施形態の実行モードの処理を説明する
模式図FIG. 8 is a schematic diagram illustrating processing in an execution mode according to the first embodiment.
【図9】指示領域判定装置において実行される処理を示
す図FIG. 9 is a diagram showing processing executed in the designated area determination device.
【図10】命令認識装置の処理を示す図FIG. 10 is a diagram showing processing of an instruction recognition device.
【図11】本発明の第2の実施形態による遠隔指示入力
システムの構成図FIG. 11 is a configuration diagram of a remote instruction input system according to a second embodiment of the present invention.
【図12】第2の実施形態の指示領域設定装置において
実行される処理を示す図FIG. 12 is a diagram showing a process executed in the designated area setting device of the second embodiment.
【図13】第2の実施形態の指示領域設定方法を説明す
る図FIG. 13 is a diagram illustrating a designated area setting method according to the second embodiment.
【図14】第2の実施例形態の指示領域設定データの一
例を示す図FIG. 14 is a diagram showing an example of designated area setting data according to the second embodiment.
【図15】第2の実施形態の実行モードの処理を説明す
る模式図FIG. 15 is a schematic diagram illustrating processing in an execution mode according to the second embodiment.
1…テレビカメラ 2…画像処理装置 3…指示領
域判定装置
4…命令認識装置 5…入力装置 6…表示制御装
置
7…プラント制御装置 8,8a……表示装置(携帯
端末)
9,9a…指示領域設定装置 10,10a,11…
メモリー
12…ミミックボード 13…ポインタ 14…プ
ラントの現場機器DESCRIPTION OF SYMBOLS 1 ... Television camera 2 ... Image processing device 3 ... Instruction area determination device 4 ... Command recognition device 5 ... Input device 6 ... Display control device 7 ... Plant control device 8, 8a ... Display device (portable terminal) 9, 9a ... Instruction Area setting device 10, 10a, 11 ...
Memory 12 ... Mimic board 13 ... Pointer 14 ... Plant field equipment
───────────────────────────────────────────────────── フロントページの続き (72)発明者 丸山 武一 茨城県日立市大みか町五丁目2番1号 株式会社日立製作所 大みか工場内 (56)参考文献 特開 昭63−30926(JP,A) 特開 平6−242884(JP,A) 特開 平2−224011(JP,A) 特開 平4−142613(JP,A) 特開 平5−127887(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06F 3/03 G06F 3/033 - 3/037 G06T 1/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Takeichi Maruyama 5-2-1 Omika-cho, Hitachi-shi, Ibaraki Hitachi, Ltd. Omika factory, Hitachi, Ltd. (56) Reference JP-A-63-30926 (JP, A) JP-A-6-242884 (JP, A) JP-A-2-224011 (JP, A) JP-A-4-142613 (JP, A) JP-A-5-127887 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06F 3/03 G06F 3/033-3/037 G06T 1/00
Claims (4)
インタのレーザ光で指示される指示対象物または該指示
対象物を含む範囲をカメラによって撮影し、 初期設定モードでは、 前記カメラで撮影した前記ポインタのレーザ光で指定さ
れた指示点の映像を画像処理手段により画像処理すると
共に、得られた画像内における前記指示点の座標を求
め、 複数の前記指示点の座標に基づいて指示領域を指示領域
設定手段によって設定し、 入力手段から前記指示領域内の前記指示対象物を定義す
る文字情報を入力し、 前記指示対象物に係る文字情報と当該指示対象物の指示
領域を関連付けて記憶装置に保存し、 実行モードでは、 前記ポインタのレーザ光で指定された指示点の座標を前
記画像処理手段において検知し、 指示領域判定手段によって当該実行モードにおいて指定
された前記指示点の座標が含まれる指示領域が有ると判
定したとき、当該指示領域に対応する文字情報を前記記
憶手段から求め、 該求めた文字情報を用いて指示対象物に関する表示命令
および/または制御命令を命令認識手段から出力するこ
とを特徴とする遠隔指示入力システム。1. A laser beam is emitted from a pointer, a pointing object pointed by the laser beam of the pointer or a range including the pointing object is shot by a camera, and in an initial setting mode, the image shot by the camera is set. The image of the designated point designated by the laser beam of the pointer is image-processed by the image processing means, the coordinates of the designated point in the obtained image are obtained, and the designated area is designated based on the coordinates of the plurality of designated points. The character information defining the pointing object in the pointing area is set by the area setting means, the character information defining the pointing object in the pointing area is input, and the character information relating to the pointing object and the pointing area of the pointing object are associated with each other and stored in the storage device. In the execution mode, the coordinates of the pointing point designated by the laser beam of the pointer are detected by the image processing means, and are stored by the pointing area determination means. When it is determined that there is a designated area that includes the coordinates of the designated point designated in the execution mode, the character information corresponding to the designated area is obtained from the storage means, and the obtained target character information is used to relate to the designated object. A remote instruction input system characterized by outputting a display instruction and / or a control instruction from an instruction recognition means.
する表示命令は、前記指示対象物に係わるプラント情報
の表示命令であることを特徴とする遠隔指示入力システ
ム。2. The remote instruction input system according to claim 1, wherein the display instruction regarding the instruction target object is a display instruction regarding plant information regarding the instruction object.
する制御命令は、プラント制御装置への指令信号である
ことを特徴とする遠隔指示入力システム。3. The remote instruction input system according to claim 1, wherein the control instruction relating to the instruction target is a command signal to a plant control device.
て、前記指示対象物は、プラント機器であることを特徴
とする遠隔指示入力システム。4. The remote instruction input system according to claim 1, wherein the instruction target is a plant device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27754496A JP3411994B2 (en) | 1996-09-27 | 1996-09-27 | Remote instruction input system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27754496A JP3411994B2 (en) | 1996-09-27 | 1996-09-27 | Remote instruction input system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10105331A JPH10105331A (en) | 1998-04-24 |
JP3411994B2 true JP3411994B2 (en) | 2003-06-03 |
Family
ID=17585027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27754496A Expired - Fee Related JP3411994B2 (en) | 1996-09-27 | 1996-09-27 | Remote instruction input system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3411994B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010070870A1 (en) * | 2008-12-18 | 2010-06-24 | 日本電気株式会社 | Information acquiring apparatus, information acquiring method and program |
-
1996
- 1996-09-27 JP JP27754496A patent/JP3411994B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10105331A (en) | 1998-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3277658B2 (en) | Information display device | |
CN1143205C (en) | Interactive display system | |
US20210304438A1 (en) | Object pose obtaining method, and electronic device | |
US6188388B1 (en) | Information presentation apparatus and information display apparatus | |
CN103092432A (en) | Trigger control method and system of man-machine interaction operating instruction and laser emission device | |
JPH08287288A (en) | Plurality of side annotations interactive three-dimensional graphics and hot link | |
EP4528537A1 (en) | Information processing apparatus, information processing method, and computer program | |
CN113934297B (en) | Interaction method and device based on augmented reality, electronic equipment and medium | |
CN113139541A (en) | Power distribution cabinet dial nixie tube visual identification method based on deep learning | |
CN115364401A (en) | Method and device for extinguishing fire | |
CN116245808A (en) | Workpiece defect detection method and device, electronic equipment and storage medium | |
JP3411994B2 (en) | Remote instruction input system | |
CN1746831A (en) | Interactive projection system | |
CN113778233B (en) | Method and device for controlling display equipment and readable medium | |
JP3470170B2 (en) | Remote instruction input method and device | |
JP3744418B2 (en) | Information display device | |
JP2600533B2 (en) | Touch input device | |
US6208756B1 (en) | Hand-written character recognition device with noise removal | |
EP0448496B1 (en) | Dynamic selective correlation of graphic entities | |
CN118097311B (en) | Cursor detection method and system based on deep learning | |
CN115118948B (en) | Repairing method and device for irregular shielding in panoramic video | |
JP7512532B1 (en) | Computer system, dimension measurement method, and semiconductor device manufacturing system | |
JP2751114B2 (en) | Character processing method | |
JP3078038B2 (en) | Automatic drawing input system and method | |
KR960001753B1 (en) | Directionally characteristic recognition system by binary image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090328 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090328 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100328 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |