JP4340302B2 - Coordinate input device - Google Patents
Coordinate input device Download PDFInfo
- Publication number
- JP4340302B2 JP4340302B2 JP2007096928A JP2007096928A JP4340302B2 JP 4340302 B2 JP4340302 B2 JP 4340302B2 JP 2007096928 A JP2007096928 A JP 2007096928A JP 2007096928 A JP2007096928 A JP 2007096928A JP 4340302 B2 JP4340302 B2 JP 4340302B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- light receiving
- coordinate
- predetermined
- coordinate input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000903 blocking effect Effects 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000003287 optical effect Effects 0.000 claims description 19
- 230000014509 gene expression Effects 0.000 claims description 12
- 238000009826 distribution Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 description 25
- 239000000523 sample Substances 0.000 description 16
- 238000003860 storage Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000012546 transfer Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- Drawing Aids And Blackboards (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、座標入力装置に関し、特にパーソナルコンピュータ等において、情報を入力したり選択するためにペン等の指示部材や指等によって指示された座標位置を入力するいわゆるタッチパネル方式の座標入力装置に関する。この座標入力装置は、電子黒板や大型のディスプレイと共に一体化して利用されたり、壁面、机上の紙面や従来の黒板など、電子的な表示装置と一体化する形態に限らず、そこに書き込まれた情報をディジタイズする装置などに利用される。 The present invention relates to a coordinate input device, and more particularly to a so-called touch panel type coordinate input device that inputs a coordinate position indicated by a pointing member such as a pen or a finger to input or select information in a personal computer or the like. This coordinate input device is used in combination with an electronic blackboard or a large display, or is not limited to a form integrated with an electronic display device such as a wall surface, a paper surface on a desk, or a conventional blackboard. Used for devices that digitize information.
図18は、本発明が適用される光学式の座標入力装置の構成を示す図である。光学式の座標入力装置40は、受発光手段41と座標入力領域43と再帰性反射部材44から構成されている。座標入力領域43は四角形の形状であり、例えば電子的に文字や画像を表示するディスプレイ表面やマーカー等のペンで書き込むホワイトボードなどが座標入力領域となる。
FIG. 18 is a diagram showing a configuration of an optical coordinate input device to which the present invention is applied. The optical coordinate input device 40 includes light emitting /
光学式の座標入力装置40は、座標入力領域43上を光学的に不透明な材質からなるユーザの手、指やペン、支持棒などの指示物体42で触ったときの指示物体42の座標位置を検出して、その位置情報をパーソナルコンピュータ等に入力する装置である。
The optical coordinate input device 40 indicates the coordinate position of the
座標入力領域43の上方両端には受発光手段41が設けられている。受発光手段41からは座標入力領域43に向けて、L1、L2、L3、...Lmの光ビームの束(プローブ光)が照射されている。実際には点光源61から拡がる、座標入力領域の面に平行に進行する扇形板状の光波である。
Light emitting /
また、座標入力領域43の周辺部分には、再帰性反射部材44が再帰反射面を座標入力領域43の中央に向けて設けられている。再帰性反射部材44は、入射した光を、入射角度によらずに同じ方向に反射する特性をもった部材である。例えば、受発光手段41から発した扇形板状の光波の内、ある一つのビーム47に注目すると、ビーム47は再帰性反射部材44によって反射されて再び同じ光路を再帰反射光46として受発光手段41に向かって戻るように進行する。受発光手段41には、後述するように受光手段が設置されていて、プローブ光L1〜Lmのそれぞれに対して、その再帰光が受発光手段41に再帰したか否かを検出することができる。
Further, a
いま、ユーザーが手で位置42を触った場合を考える。このときプローブ光45は位置42で手に遮られて再帰性反射部材44には到達しない。従ってプローブ光45の再帰光は受発光手段41には到達せず、プローブ光45に対応する再帰光が受光されないことを検出することによって、プローブ光45の延長線(直線L)上に指示物体が挿入されたことを検出することができる。
Consider a case where the user touches the
同様に図18の右上方に設置された受発光手段41からもプローブ光を照射し、プローブ光48に対応する再帰光が受光されないことを検出することによって、プローブ光48の延長線(直線R)上に指示物体が挿入されたことを検出することができる。直線Lおよび直線Rを求めることができれば、この交点座標を演算により算出することにより、手などの指示物体42が挿入された座標位置を得ることができる。
Similarly, the probe light is emitted from the light emitting / receiving
次に、受発光手段41の構成と、プローブ光L1〜Lmの内、どのプローブ光が遮断されたかを検出する機構について説明する。図19は、受発光手段41の内部の構成を示す。図19は、図18の座標入力領域43に取り付けられた受発光手段41を、座標入力領域43の面に対して垂直な方向から見た図である。ここでは簡単のため、座標入力領域43の面に平行な2次元平面で説明する。
Next, the structure of the light receiving / emitting means 41 and the mechanism for detecting which probe light among the probe lights L 1 to L m is blocked will be described. FIG. 19 shows an internal configuration of the light emitting / receiving
受発光手段41は、点光源61、集光レンズ51および受光素子50から構成されている。点光源61は光源から見て受光素子50と反対の方向に扇形に光を出射するものとする。点光源61から出射された扇形の光は、矢印53、58の方向、その他の方向に進行するビームの集合であると考える。矢印53方向に進行したビームは再帰性反射部材55で反射されて、再帰反射光54が集光レンズ51を通り、受光素子50上の位置57に到達する。
The light receiving / emitting means 41 includes a
また、進行方向58に沿って進行したビームは再帰性反射部材55によって反射されて、再帰反射光59が受光素子50上の位置56に到達する。このように点光源61から出射し、再帰性反射部材55で反射され同じ経路を戻ってきた光は、集光レンズ51の作用によって、それぞれ受光素子50上のそれぞれ異なる位置56、57に到達する。
Further, the beam traveling along the
従って、ある位置に指示物体が挿入され、あるビームが遮断されると、そのビームに対応する受光素子50上の点に光が到達しなくなる。このことから、受光素子50上の光強度の分布を調べることによって、どのビームが遮られたかを知ることができる。
Therefore, when the pointing object is inserted at a certain position and a certain beam is blocked, the light does not reach a point on the
図20は、指示物体が挿入されてビームが遮断されたときの動作を説明する図である。図20において、受光素子50は集光レンズ51の焦点面に設けられているものとする。点光源61から図20の右側に向けて出射した光は、再帰性反射部材55によって反射されて同じ経路を戻ってくる。従って、点光源61の位置に再び集光する。集光レンズ51の中心は点光源位置と一致するように設けられている。再帰性反射部材か55から戻った再帰光は、集光レンズ51の中心を通るので、レンズ後方(受光素子側)に対称の経路で進行する。
FIG. 20 is a diagram for explaining the operation when the pointing object is inserted and the beam is blocked. In FIG. 20, the
このとき、受光素子50上の光強度分布を調べると、指示物体60が挿入されていなければ、受光素子50上の光強度分布はほぼ一定であるが、図20に示すように、光を遮る指示物体60が挿入された場合、ここを通過するビームは遮られ、受光素子50上では位置Dnの位置に、光強度が弱い領域(暗点)が生じる。
At this time, when the light intensity distribution on the
この位置Dnは、遮られたビームの出射/入射角θnと対応していて、Dnを検出することによりθnを算出することができる。
すなわちθnはDnの関数として
θn=arctan(Dn/f) 式(1)
と表すことができる。ただし、fは図20に示すように、集光レンズ51と受光素子50との間の距離で、集光レンズ51の焦点距離に該当する。
This position D n is obstructed by not correspond to the emitted / incident angle theta n of the beam can be calculated theta n by detecting the D n.
That is, θ n is a function of D n θ n = arctan (D n / f) Equation (1)
It can be expressed as. However, f is a distance between the
ここで、特に図18の左上方の受発光手段41におけるθnをθnL、DnをDnLと置き換える。さらに、座標位置の算出方法を説明する図21において、受発光手段41と座標入力領域43との幾何学的な相対位置関係の変換gにより、指示物体60と座標入力領域43のx軸とのなす角θLは、式(1)で求められるDnLの関数として、
θL=g(θnL)
ただし θnL=arctan(DnL/f) 式(2)
と表すことができる。
Here, in particular, θ n is replaced with θ nL and D n is replaced with D nL in the light emitting /
θ L = g (θ nL )
Where θ nL = arctan (D nL / f) Equation (2)
It can be expressed as.
同様に、図18の右上方の受発光手段41についても、上記した式のL記号をR記号に置き換えて、右側の受発光手段41と座標入力領域43との幾何学的な相対位置関係の変換hにより、
θR=h(θnR)
ただし θnR=arctan(DnR/f) 式(3)
と表すことができる。
Similarly, for the light emitting / receiving means 41 in the upper right of FIG. 18, the L symbol in the above formula is replaced with the R symbol, and the geometric relative positional relationship between the right light emitting /
θ R = h (θ nR )
Where θ nR = arctan (D nR / f) Equation (3)
It can be expressed as.
図21に示すように、座標入力領域43において受発光手段41の取り付け間隔をwとし、座標入力領域43の左角を原点70とし、x、y座標を図21に示すようにとれば、座標入力領域43上の指示物体60で指示した点の座標(x,y)は、
x=wtanθR/(tanθL+tanθR) 式(4)
y=wtanθL・tanθR/(tanθL+tanθR)
式(5)
となり、式(2)、(3)、(4)、(5)からx、yは、DnL、DnRの関数として表すことができる。
As shown in FIG. 21, if the mounting interval of the light emitting /
x = wtan θ R / (tan θ L + tan θ R ) (4)
y = wtanθ L · tan θ R / (tan θ L + tan θ R )
Formula (5)
From equations (2), (3), (4), and (5), x and y can be expressed as functions of D nL and D nR .
すなわち、左右の受発光手段41の受光素子50上の暗点の位置DnL、DnRを検出し、受発光手段41の幾何学的配置を考慮することにより、指示物体60で指示した点の座標を算出することができる。上記説明した座標算出方法は、三角測量の原理に基づくものであり、例えば特許文献1に記載されている。
That is, by detecting the positions D nL and D nR of the dark spots on the
上記した従来の座標入力装置では、受発光手段の幾何学配置を基に座標を算出している。このため、以下のような幾何学配置を表すパラメータが既知の場合に座標入力領域の座標を求めることができる。上記した「受発光手段」を、以下の説明では「センサヘッド」という。 In the conventional coordinate input device described above, the coordinates are calculated based on the geometric arrangement of the light emitting / receiving means. Therefore, the coordinates of the coordinate input area can be obtained when the following parameters representing the geometric arrangement are known. The above “light emitting / receiving means” is referred to as “sensor head” in the following description.
図22は、センサヘッドを座標入力領域の近傍に配置した例を示す図である。この図において、式(2)〜(5)から求められる座標x,yは、点Pを原点とする座標である。この座標を算出する段階で、既にwおよび両センサヘッドL、Rの光軸と両センサヘッド中心を結ぶ線分がなす角度θoffL、θoffRが既知である必要がある。θoffL、θoffRは、それぞれ式(2)および式(3)のgおよびhの変換に必要なパラメータとなる。 FIG. 22 is a diagram illustrating an example in which the sensor head is arranged in the vicinity of the coordinate input area. In this figure, the coordinates x and y obtained from the equations (2) to (5) are coordinates with the point P as the origin. At the stage of calculating these coordinates, the angles θ offL and θ offR formed by the line connecting the optical axes of w and the sensor heads L and R and the centers of the sensor heads must already be known. θ offL and θ offR are parameters necessary for the conversion of g and h in equations (2) and (3), respectively.
さらに、PおよびQを原点とする座標系における、平行移動によるオフセットdx、dyと回転によるオフセットθ0が既知であることによって、式(2)〜(5)から求められるPを原点とする座標x、yを、座標入力領域のQを原点とする座標系に変換することができる。したがって、w、θoffL、θoffR、dx、dy、θ0が既知であるようにセンサヘッドの機械的位置を決定する必要がある。 Further, in the coordinate system having P and Q as the origin, the coordinates d that are obtained from equations (2) to (5) by the offset dx and dy due to the translation and the offset θ 0 due to the rotation are known. x and y can be converted into a coordinate system having Q as the origin in the coordinate input area. Therefore, it is necessary to determine the mechanical position of the sensor head so that w, θ offL , θ offR , dx, dy, and θ 0 are known.
しかし、一般にこれらすべてのパラメータを所定の値になるようにセンサヘッドを組み付けることは装置製造工程上のコストを押し上げてしまう。また、これらのパラメータが甘い公差内に収まるように組み付けを行い、組み付け後にこれらのパラメータを測定し、演算に反映するという方法もある。しかしこの方法では、組み付け後にパラメータの測定を行う困難さを伴い、実用的ではない。 However, in general, assembling the sensor head so that all these parameters have predetermined values increases the cost in the device manufacturing process. In addition, there is a method in which these parameters are assembled so that they are within a small tolerance, and after the assembly, these parameters are measured and reflected in the calculation. However, this method is not practical due to the difficulty of measuring parameters after assembly.
また、運搬時の振動などにより、上記のパラメータが出荷時の設定値からずれてしまい、納品時に正しい座標入力動作ができなくなるといった不具合がある。さらに、運搬および梱包の都合上、受発光手段を分割して運搬する場合などでも、組み付け時に設計時の所定の位置精度を維持して受発光手段を座標入力面(ディスプレイ面や黒板面など)に再び取り付ける必要がある。 In addition, there is a problem that the above-mentioned parameters are deviated from the set values at the time of shipment due to vibration during transportation, and correct coordinate input operation cannot be performed at the time of delivery. Furthermore, even when the light emitting / receiving means is divided and transported for the convenience of transportation and packaging, the coordinate input surface (display surface, blackboard surface, etc.) Need to be reattached.
しかし、一般のユーザーが精度を維持して再度、取り付けを行うことは難しいか、または特殊な治具、機構が必要となり、コストを押し上げてしまう。これに加えて、例えば受発光手段が構成するセンサヘッド部分を分割可搬型として、任意の座標入力面にユーザーが取り付けて使うようなアプリケーションを考えた場合、従来の三角測量演算による方法では同様の問題が生じ、実現が困難となる。 However, it is difficult for a general user to perform the mounting again while maintaining accuracy, or a special jig or mechanism is required, which increases the cost. In addition to this, for example, in the case where an application where a user attaches to an arbitrary coordinate input surface and uses the sensor head portion formed by the light emitting / receiving means as a split portable type is the same in the conventional triangulation calculation method. Problems arise and are difficult to implement.
本発明は、上記したような座標入力装置の問題点に鑑みてなされたものであり、
本発明の目的は、座標入力面における受発光手段の取り付け位置の自由度を高めた座標入力装置を提供することにある。
The present invention has been made in view of the problems of the coordinate input device as described above,
An object of the present invention is to provide a coordinate input device that increases the degree of freedom of the attachment position of the light emitting and receiving means on the coordinate input surface.
本発明では、キャリブレーション時に、基準点に指示物体を挿入したときのセンサヘッドにおける光遮断位置情報と基準点座標とを基に、光遮断位置情報と基準点座標との関係を記述する関係式の係数を算出する。座標入力時に挿入された光遮断物体によって、各センサヘッドに生じた光の遮断位置に対応する情報と、先に算出された係数を用いて所定の演算を行うことにより、光遮断物体が挿入された座標を出力する。 In the present invention, at the time of calibration, the relational expression describing the relationship between the light blocking position information and the reference point coordinates based on the light blocking position information and the reference point coordinates in the sensor head when the pointing object is inserted into the reference point. The coefficient of is calculated. The light blocking object is inserted by performing a predetermined calculation using information corresponding to the light blocking position generated in each sensor head and the previously calculated coefficient by the light blocking object inserted at the time of coordinate input. Output the coordinates.
また、本発明では、光遮断位置情報として、受光手段の像面における光強度分布から得られる物理的な位置などを用いる。 In the present invention, the physical position obtained from the light intensity distribution on the image plane of the light receiving means is used as the light blocking position information.
さらに、本発明では、キャリブレーション時に係数を算出する際に、係数行列が正則である必要があるので、基準座標の点数を5点とし、かつそれら5点の座標は、受光手段の中心と各点の座標とを結ぶ直線が互いに一致しないように配置されている。 Furthermore, in the present invention, when calculating the coefficients during calibration, the coefficient matrix needs to be regular, so the number of reference coordinates is five, and the coordinates of these five points are the center of the light receiving means and each of the coordinates. They are arranged so that the straight lines connecting the coordinates of the points do not coincide with each other.
本発明によれば、座標入力面における受発光手段の取り付け位置に関するパラメータが未知の場合あるいは取り付け時に既知であっても何らかの理由でパラメータが変わってしまって場合でも、装置を使用する前の簡単なキャリブレーション動作によって座標入力面での座標を正しく入力することができるので、信頼性が高くまた利便性が向上する。 According to the present invention, even when a parameter related to the attachment position of the light emitting / receiving means on the coordinate input surface is unknown, or even if the parameter is changed for some reason even if it is known at the time of attachment, a simple process before using the apparatus is possible. Since the coordinates on the coordinate input surface can be correctly input by the calibration operation, the reliability is high and the convenience is improved.
本発明の他の目的は、キャリブレーション時に光遮断手段が挿入された所定の座標とこれに対応する遮断された光の位置情報の関係を記述する関係式の係数を演算する際に、係数が必ず演算できる条件として、連立方程式の係数行列が必ず正則となる必要があるので、基準となる座標点の数とその配置の仕方を限定することにより、係数行列を必ず正則とした座標入力装置を提供することにある。 Another object of the present invention is to calculate a coefficient of a relational expression that describes a relationship between a predetermined coordinate into which a light blocking unit is inserted at the time of calibration and position information of the blocked light corresponding thereto. As a condition that can be always calculated, the coefficient matrix of the simultaneous equations must be regular, so by limiting the number of coordinate points and how to place them as a reference, a coordinate input device that makes the coefficient matrix regular is necessary. It is to provide.
本発明の他の目的は、構造が簡単で、かつ高精度に座標を入力できる座標入力装置を提供することにある。 Another object of the present invention is to provide a coordinate input device that has a simple structure and can input coordinates with high accuracy.
本発明のさらに他の目的は、キャリブレーションモードと座標入力モードを設けることにより、使用中に受発光手段の位置がずれた場合あるいは運搬直後などに、ユーザが任意でモードを切り替えてユーザ自身でキャリブレーションできる座標入力装置を提供することにある。 Still another object of the present invention is to provide a calibration mode and a coordinate input mode so that the user can arbitrarily switch the mode by himself / herself when the position of the light emitting / receiving means is shifted during use or immediately after transportation. The object is to provide a coordinate input device that can be calibrated.
基準点(x1,y1)、(x2,y2)...(x5,y5)に、それぞれ指示物体を挿入したときの、センサヘッド1およびセンサヘッド2における光遮断位置情報(u11,u21,...,u51)および(u12,u22,...,u52)と基準点の座標とを、第1記憶部3、4にそれぞれ記憶する(ステップ103)。
Reference points (x 1 , y 1 ), (x 2 , y 2 ). . . The light blocking position information (u 11 , u 21 ,..., U 51 ) and (u 12 , u in the
第1記憶部3、4に記憶された基準点座標および光遮断位置情報は、係数算出手段5、6に読み込まれる。係数算出手段5、6は、後述する式(11)に従ってそれぞれのセンサヘッド毎に係数(c11,c21,...,c51)および(c12,c22,...,c52)を算出し(ステップ104)、第2記憶部7、8に記憶する(ステップ105)。
The reference point coordinates and the light blocking position information stored in the
ここまでの動作がキャリブレーション動作モードであり、これを図1中に太い矢印で示す。これらの一連の動作は、ユーザが座標入力装置を使用する前に、あるいは座標入力装置を設置するときなどに、実行される動作である。 The operation so far is the calibration operation mode, which is indicated by a thick arrow in FIG. These series of operations are performed before the user uses the coordinate input device or when installing the coordinate input device.
キャリブレーション動作モードに続いて、座標入力を行う動作モードとなる。以下、座標入力動作について説明する。 Following the calibration operation mode, an operation mode for inputting coordinates is set. Hereinafter, the coordinate input operation will be described.
座標入力領域に挿入された指など光遮断物体により、各センサヘッド1、2で光の遮断が生じる。つまり、キャリブレーションモードで説明したと同様にして、光束の遮断位置に対応する情報u1、u2が各センサヘッド1、2で取得される(ステップ106)。 Light is blocked by each of the sensor heads 1 and 2 by a light blocking object such as a finger inserted in the coordinate input area. That is, in the same manner as described in the calibration mode, information u 1 and u 2 corresponding to the light blocking positions are acquired by the sensor heads 1 and 2 (step 106).
さらに、前述したキャリブレーション動作モードにおいて第2記憶部7、8に記憶された係数(c11,c21,...,c51)および(c12,c22,...,c52)が読み出され(ステップ107)、座標演算部9は、u1,u2と(c11,c21,...,c51)および(c12,c22,...,c52)を用いて後述する式(14)に従って座標を演算し(ステップ108)、指など光遮断物体が挿入された座標(x、y)を、図示しないパソコンなどに出力する(ステップ109)。
Further, the coefficients (c 11 , c 21 ,..., C 51 ) and (c 12 , c 22 ,..., C 52 ) stored in the
なお、図2の処理フローチャートにおいては、例えばセンサヘッド1側のキャリブレーション動作モード(ステップ101〜105)とセンサヘッド2側のキャリブレーション動作モード(ステップ101〜105)とが並列に行われ、その後、座標演算モード(ステップ106〜109)が実行されるが、センサヘッド1側のキャリブレーション動作モードを実行し、次いで、センサヘッド2側のキャリブレーション動作モードを実行し、その後に座標演算モードを実行するようにしてもよい。
In the processing flowchart of FIG. 2, for example, the calibration operation mode on the
以下に、前述した係数の算出と座標の演算について詳述する。
一般にカメラ系では、3次元空間の物体を撮影し、2次元のフィルム面にその像を記録する。図3は、カメラ系の概念を説明する図である。(x,y,z)は物体空間座標で、p(x,y,z)は物体の位置とする。また、(u,v)は像空間座標で、像面上の像の位置を表す座標系である。また点rはレンズの主点位置とする。3次元の物体空間上の点pは、レンズを経て、写像fにより2次元の像空間上の点qへ変換される。すなわち
In general, a camera system captures an object in a three-dimensional space and records the image on a two-dimensional film surface. FIG. 3 is a diagram for explaining the concept of the camera system. (X, y, z) is the object space coordinate, and p (x, y, z) is the position of the object. Further, (u, v) is an image space coordinate, which is a coordinate system representing the position of the image on the image plane. Point r is the principal point position of the lens. The point p on the three-dimensional object space is converted to a point q on the two-dimensional image space by the mapping f through the lens. Ie
一般に写像fは、式(6)、式(7)で表される(例えば、徐 剛、3次元ビジョン、p79、共立出版、1998年を参照)。 In general, the mapping f is expressed by Equation (6) and Equation (7) (see, for example, Xu Tsuyoshi, 3D Vision, p79, Kyoritsu Shuppan, 1998).
ここで、本発明が適用される、前述した光学式座標入力装置における座標入力系を考える。この座標系は、物体空間が2次元であり、像空間が1次元と考えることができる。すなわち、物体空間は座標入力領域であり、平面上に拘束される。また像空間は1次元CCD上であり、CCD画素の配列に沿って直線上に拘束される。 Here, a coordinate input system in the above-described optical coordinate input apparatus to which the present invention is applied will be considered. This coordinate system can be considered that the object space is two-dimensional and the image space is one-dimensional. That is, the object space is a coordinate input area and is constrained on a plane. The image space is on a one-dimensional CCD and is constrained on a straight line along the array of CCD pixels.
すなわち、式(6)、(7)の一般式に対して、像空間のu軸は物体空間のx−y平面と同一平面内にあると仮定する。従って、式(6)、(7)は、係数c4,c9,c10を、c3,c4,c5と書き換えて式(8)のように表され、さらに展開して式(9)を得る。 That is, it is assumed that the u-axis of the image space is in the same plane as the xy plane of the object space with respect to the general expressions (6) and (7). Therefore, Expressions (6) and (7) are expressed as Expression (8) by rewriting coefficients c 4 , c 9 , and c 10 with c 3 , c 4 , and c 5, and further expanded to Expression (8) 9) is obtained.
c1x+c2y+c3−c4ux−c5uy=u 式(9)
式(9)は、指など物体が挿入された座標入力領域上の座標(x,y)と、センサヘッドの受光素子上の光束の遮断位置(光束の遮断位置に相当する情報)uを関係付ける式である。ここで、c1,c2,c3,c4,c5は係数であり、センサヘッド毎にそれぞれ存在する。前述したキャリブレーション動作モードでは、この係数をセンサヘッド毎に決定する。
c 1 x + c 2 y + c 3 −c 4 ux−c 5 uy = u Formula (9)
Expression (9) relates the coordinates (x, y) on the coordinate input area where an object such as a finger is inserted and the light blocking position (information corresponding to the light blocking position) u on the light receiving element of the sensor head. It is an expression to attach. Here, c 1 , c 2 , c 3 , c 4 , and c 5 are coefficients and exist for each sensor head. In the calibration operation mode described above, this coefficient is determined for each sensor head.
以下、これら係数の決定方法を説明する。
n番目のセンサヘッドの係数c1n,c2n,...c5nは、以下のようにして求める。すなわち、m個の既知の点p1(x1,y1),p2(x2,y2),...pm(xm,ym)と、それに対応するn番目のセンサヘッドにおける像位置q1n(u1n),q2n(u2n),...qmn(umn)に対して、式(9)より、以下の連立方程式が得られる。
Hereinafter, a method for determining these coefficients will be described.
The coefficients c 1n , c 2n ,. . . c 5n is obtained as follows. That is, m known points p 1 (x 1 , y 1 ), p 2 (x 2 , y 2 ),. . . p m (x m , y m ) and the corresponding image positions q 1n (u 1n ), q 2n (u 2n ),. . . For q mn (u mn ), the following simultaneous equations are obtained from Equation (9).
次に、座標入力動作モードにおける座標の演算方法を説明する。センサヘッドの数をnとし、それぞれのセンサヘッドに対する係数をc1i,c2i,c3i,c4i,c5i(i=1,2,...n)とする。また、n個のセンサヘッドにおける像位置(測定値)をu1,u2,...un とする。 Next, a coordinate calculation method in the coordinate input operation mode will be described. The number of sensor heads is n, and the coefficients for each sensor head are c 1i , c 2i , c 3i , c 4i , c 5i (i = 1, 2,... N). Also, the image positions (measured values) in the n sensor heads are represented by u 1 , u 2 ,. . . Let u n .
式(9)より、物体空間座標(座標入力領域上の座標)(x,y)は、式(12)の連立方程式を満たす。 From equation (9), object space coordinates (coordinates on the coordinate input area) (x, y) satisfy the simultaneous equations of equation (12).
本発明の座標入力装置ではセンサヘッド数は2個であるので、n=2とする。図1の座標演算部9では、式(13)でn=2とした、式(14)に従って、指などの指示物体が挿入された座標入力面上の座標(x,y)を演算し、出力する。
(実施例2)
従来技術では、前述したように、光遮断手段によって遮断された光の受光手段上での位置(DnL、DnR)を基に、光遮断手段の受発光手段からの見込みの角度(θL、θR)に変換する必要があり、変換テーブルあるいは変換式を予め求めておく必要があった。
(Example 2)
In the prior art, as described above, based on the position (D nL , D nR ) on the light receiving means of the light blocked by the light blocking means, the expected angle (θ L ) of the light blocking means from the light receiving / emitting means. , Θ R ), and a conversion table or conversion formula must be obtained in advance.
これに対して本発明では、光の遮断位置に対応する情報として受光素子上の物理的位置、受光素子の電気的な走査のタイミング信号など他の物理量を用いることにより、装置設計上の自由度を大幅に向上させている。 On the other hand, the present invention uses other physical quantities such as a physical position on the light receiving element and a timing signal for electrical scanning of the light receiving element as information corresponding to the light blocking position. Has been greatly improved.
実施例2は、光の遮断位置(以下、ディップ位置)を検出する実施例である。図4は、実施例2の構成を示す。実施例1と相違する点は、ディップ位置情報検出部10、11を設けた点である。他の構成要素は実施例1と同様であり、実施例1と同様に、再帰光射影方式の光学式座標入力装置に適用される。また、図5は、実施例2に係る処理フローチャートである。図5のステップ202は、図2のステップ102に対応し、図5のステップ203は、図2のステップ103に対応し、図5のステップ206は、図2のステップ106に対応し、つまり、図2の光遮断位置情報を図5のディップ位置情報に置き換えたものである。
The second embodiment is an embodiment in which a light blocking position (hereinafter referred to as a dip position) is detected. FIG. 4 shows the configuration of the second embodiment. The difference from the first embodiment is that dip position
すなわち、基準点(x1,y1)、(x2,y2)...(x5,y5)に、それぞれ指示物体を挿入したときの、センサヘッド1およびセンサヘッド2のディップ位置情報検出部10、11で検出されたディップ位置情報(u11,u21,...,u51)および(u12,u22,...,u52)と基準点の座標とを、第1記憶部3、4にそれぞれ記憶する(ステップ203)。
That is, the reference points (x 1 , y 1 ), (x 2 , y 2 ). . . (X 5 , y 5 ), the dip position information (u 11 , u 21 ,...) Detected by the dip
第1記憶部3、4に記憶された基準点座標およびディップ位置情報は、係数算出手段5、6に読み込まれ、それぞれのセンサヘッド毎に係数(c11,c21,...,c51)および(c12,c22,...,c52)を算出し(ステップ204)、第2記憶部7、8に記憶する(ステップ205)。
The reference point coordinates and the dip position information stored in the
実施例1と同様に、ここまでの動作がキャリブレーション動作モードであり、ユーザが座標入力装置を使用する前に、あるいは座標入力装置を設置するときなどに、実行される動作である。キャリブレーション動作モードに続いて、座標入力を行う動作モードとなる。 Similar to the first embodiment, the operation so far is the calibration operation mode, and is an operation executed before the user uses the coordinate input device or when the coordinate input device is installed. Following the calibration operation mode, an operation mode for inputting coordinates is set.
座標入力領域に挿入された指など光遮断物体により、各センサヘッド1、2で光の遮断によるディップが生じる。センサヘッド1およびセンサヘッド2のディップ位置情報検出部10、11では、光の遮断位置に対応するディップ位置情報u1、u2を検出する(ステップ206)。
Due to a light blocking object such as a finger inserted into the coordinate input area, a dip due to light blocking occurs in each of the sensor heads 1 and 2. The dip position
さらに、前述したキャリブレーション動作モードにおいて第2記憶部7、8に記憶された係数(c11,c21,...,c51)および(c12,c22,...,c52)が読み出され(ステップ207)、座標演算部9は、u1,u2と(c11,c21,...,c51)および(c12,c22,...,c52)を用いて実施例1と同様にして演算し(ステップ208)、指など光遮断物体が挿入された座標(x、y)を出力する(ステップ209)。
Further, the coefficients (c 11 , c 21 ,..., C 51 ) and (c 12 , c 22 ,..., C 52 ) stored in the
ディップ位置情報検出部10、11では、例えば、図20で受光素子50がCCDである場合には、ディップ位置情報uとして、光の遮断位置に対応するCCDの画素添字(つまり画素位置番号)を用いる。
In the dip position
図6は、受光素子の画素配列を示す。受光素子は1次元CCD21であり、図6は、2048画素からなるCCDの例である。図6では、CCD上の画素22には0番から2047番までのインデックスが付けられている。例えばAで示すディップ位置が図6で示す100番のインデックスが付いた画素位置にあるとした場合、ディップ位置情報または式(8)中のuは、図6のDnに相当するCCDの中心を原点とするCCD面上での物理的なサイズで表現する必要はなく、uとしては100というインデックス番号をそのまま代入して計算すればよい。
FIG. 6 shows a pixel array of the light receiving elements. The light receiving element is a one-
ただし、係数決定時にインデックスを用いた場合は、測定時もインデックスを用い、係数決定時にCCDの中心を原点とするCCD上の物理的な実サイズを用いた場合は、測定時も同様に実サイズを用いる。このように、係数決定時と測定時で同様のパラメータを用いる必要がある。なお、上記したインデックスには、所定の係数やオフセットがかかっていてもよく、装置の設計上都合の良いパラメータを任意に使用することができる。 However, if an index is used when determining the coefficient, the index is also used when measuring, and if the physical actual size on the CCD with the center of the CCD as the origin is used when determining the coefficient, the actual size is also used when measuring. Is used. Thus, it is necessary to use the same parameters when determining the coefficient and when measuring. It should be noted that a predetermined coefficient or offset may be applied to the above-described index, and parameters convenient for designing the apparatus can be arbitrarily used.
上記した画素インデックスを用いる場合、画素インデックスは例えば以下のような方法で取得することができる。すなわち、ある時刻でのCCD上の光強度分布をCCD画素に対応させて配列に読み込む。配列には画素インデックスと同じインデックスが付与されている。例えば配列をbuf[0]、buf[1]、...buf[2047]とすると、
100番のインデックスが付与されたCCD画素における光強度はbuf[100]に記憶され、101番のインデックスが付与されたCCD画素の光強度はbuf[101]に記憶される。
When the above-described pixel index is used, the pixel index can be obtained by the following method, for example. That is, the light intensity distribution on the CCD at a certain time is read into the array in correspondence with the CCD pixels. The same index as the pixel index is given to the array. For example, an array may be buf [0], buf [1],. . . buf [2047]
The light intensity at the CCD pixel assigned the index 100 is stored in buf [100], and the light intensity of the CCD pixel assigned the
このようにして光強度を記憶した配列上でソフトウェア処理により、例えば後述する方法によってディップ位置を決定し、ディップ位置の配列のインデックスをuに代入して座標を計算すればよい。 In this way, the dip position is determined by software processing on the array storing the light intensities, for example, by a method described later, and the coordinates are calculated by substituting the index of the array of dip positions into u.
CCD画素のインデックスを得る他の方法として、CCD転送クロックをカウントする方法を用いることもできる。図7は、CCD転送クロック、走査クロックおよびCCD画素に配置されたフォトダイオードのサンプルホールド出力すなわちCCDビデオ出力を示すタイムチャートである。 As another method for obtaining the index of the CCD pixel, a method of counting the CCD transfer clock can also be used. FIG. 7 is a time chart showing a CCD transfer clock, a scan clock, and a sample hold output of a photodiode arranged in a CCD pixel, that is, a CCD video output.
転送クロック23は、各画素のフォトダイオードの電荷をCCDによって転送するためのCCD駆動のためのクロックである。簡単のため、この例では1つの転送クロックだけ示したが、実際には図示した周期の1/2の周期で位相が反転した2つのクロックを必要とする素子もあり、図示したクロックの動作はその一例である。
The
図8は、カウンタを用いてCCD画素インデックスを取得する構成を示す。転送クロック1周期毎に、各画素の電荷がCCD21により転送され、サンプルホールドされて出力端子に逐次出力される。走査クロック24は、一度のCCDによる走査毎に、走査開始時に1パルスだけCCD素子に入力される。転送クロック23をカウンタ26によってカウントすることで何番目の画素における電荷が出力されたかを知ることができる。
FIG. 8 shows a configuration for obtaining a CCD pixel index using a counter. For each transfer clock cycle, the charge of each pixel is transferred by the
転送クロック23はCCD21に入力されるとともにカウンタ26の入力端子に入力される。さらに、カウンタ26は走査クロック24でリセットされる。従って、カウンタ26の出力27はCCD21が走査開始されてから、現在何番目の画素の電荷が出力されているかを示している。このカウンタ出力27は、上記説明した画素のインデックスに相当するものである。
The
ディップ位置の検出をハードウェアロジックで構成する場合には、カウンタ出力を画素のインデックスとして用いる方が、回路構成が簡単化され、都合が良い。本発明では、回路やソフトウェアの設計上、都合のよいパラメータを設計者が任意に用いることができ、設計の自由度が高く、設計工数やコストの削減に特に効果的である。
図9は、ディップ位置情報検出部におけるディップ位置の検出方法を説明する図である。
When detecting the dip position by hardware logic, it is more convenient to use the counter output as a pixel index because the circuit configuration is simplified. In the present invention, parameters that are convenient for designing circuits and software can be arbitrarily used by the designer, the degree of freedom in design is high, and it is particularly effective in reducing design man-hours and costs.
FIG. 9 is a diagram illustrating a dip position detection method in the dip position information detection unit.
ディップは光強度分布中の光遮断による暗点の位置を示す。図9は、CCDサンプルホールド出力のディップ近傍の波形を示す。横軸はCCDの画素もしくはCCDの画素に対応して記憶した配列である。uiは前述したようにCCD画素に対応するインデックスであり、配列のインデックスまたはカウンタのカウント値などである。 The dip indicates the position of the dark spot due to light blocking in the light intensity distribution. FIG. 9 shows the waveform near the dip of the CCD sample hold output. The horizontal axis represents a CCD pixel or an array stored corresponding to the CCD pixel. As described above, ui is an index corresponding to the CCD pixel, such as an array index or a counter count value.
ディップ位置の第1の検出方法では、CCD出力値を逐次走査し、所定のしきい値より小さい値が現れたときのインデックスをuiとする。さらに走査を続け再びしきい値を越える直前の出力値のインデックスをui+nとする。このときディップ位置を式(15)に従って算出する。
ディップ位置の第2の検出方法では、CCD出力値を逐次走査し、所定のしきい値より小さい値が現れたときのインデックスをui,ui+1,ui+2...ui+nとする。このときディップ位置を式(16)に従って算出する。
(実施例3)
実施例3は、センサヘッドの配置方法に係る実施例である。図10は、ディスプレイ上に本発明の座標入力装置を配置した構成を示し、(a)はその平面図であり、(b)はその側面図である。
(Example 3)
Example 3 is an example according to the arrangement method of the sensor head. FIG. 10 shows a configuration in which the coordinate input device of the present invention is arranged on a display, (a) is a plan view thereof, and (b) is a side view thereof.
ディスプレイ31の表示面32と同一平面となるように、支持筐体33が設けられ、その支持筐体33上にセンサヘッド1、2が配置されている。また、支持筐体33上には再帰反射板34も設置されている。なお、係数算出部、座標演算部、記憶部などを含む制御部は、例えば図10に示すセンサヘッドの機構部内に組み込まれている。
A support housing 33 is provided so as to be flush with the
座標入力領域35内の点p1,p2,p3,p4,p5は、座標が既知である、前述したキャリブレーション用の基準点である。また、点oは複数のセンサヘッドの内、1つのセンサヘッドの中心である。正確には受光レンズの物体側主点である。 The points p1, p2, p3, p4, and p5 in the coordinate input area 35 are the above-described calibration reference points whose coordinates are known. Point o is the center of one of the plurality of sensor heads. To be precise, it is the object side principal point of the light receiving lens.
実施例1で説明したように、式(10)で係数を演算する際に、係数が必ず演算できる条件として、連立方程式の係数行列が必ず正則となる必要がある。キャリブレーション用の基準点を5点とし、かつその配置を限定することにより、係数行列を正則とする。 As described in the first embodiment, the coefficient matrix of the simultaneous equations must be regular as a condition under which the coefficient can always be calculated when calculating the coefficient using Expression (10). The coefficient matrix is made regular by setting the reference points for calibration to 5 points and limiting their arrangement.
上記した条件を満たすように、センサヘッドを以下のようにして支持筐体33上に配置する。すなわち、点oと各点を結ぶ線分o−p1,o−p2,0−p3,o−p4,o−p5がすべて一致しないように、センサヘッド2と基準点を配置する。他方のセンサヘッド1についても同様に、そのセンサヘッドにおいて受光レンズ主点と基準点を結ぶ線分がすべて一致しないように基準点とセンサヘッドを配置する。
In order to satisfy the above-described conditions, the sensor head is disposed on the support housing 33 as follows. That is, the
図11は、センサヘッドの取り付け機構の一例を示す図である。センサヘッドの図示しない突起部を支持筐体33の基準穴36と長穴37に挿入する。その後、上記したようにセンサヘッドの中心と各点p1〜p5を結ぶ線分が全て一致しないように、センサヘッドの向きを調整し、調整後の位置をネジなどで止める。 FIG. 11 is a diagram illustrating an example of a sensor head mounting mechanism. A protrusion (not shown) of the sensor head is inserted into the reference hole 36 and the long hole 37 of the support housing 33. Thereafter, as described above, the orientation of the sensor head is adjusted so that the line connecting the center of the sensor head and the points p1 to p5 does not coincide with each other, and the adjusted position is stopped with a screw or the like.
図12は、センサヘッドの取り付け機構の他の例を示す図である。図12のセンサヘッドは、着脱式となっていて、センサヘッドが吸盤などの着脱手段38によって支持筐体33に取り付けられる。なお、この例におけるセンサヘッドの取り付け方法は、図10で説明したものと同様である。また、本発明の座標入力装置は、上記したディスプレイの他に、例えばプロジェクタを投影するスクリーン面上に設置してもよい。 FIG. 12 is a diagram illustrating another example of the sensor head mounting mechanism. The sensor head of FIG. 12 is detachable, and the sensor head is attached to the support housing 33 by attaching / detaching means 38 such as a suction cup. The sensor head mounting method in this example is the same as that described in FIG. In addition to the display described above, the coordinate input device of the present invention may be installed on a screen surface that projects a projector, for example.
(実施例4)
実施例4は、キャリブレーション用の基準点の表示方法に係る実施例である。図13は、本発明の座標入力装置を例えば電子ディスプレイ上に設置した場合の基準点の表示方法を説明する図である。
(Example 4)
Example 4 is an example according to a method of displaying a reference point for calibration. FIG. 13 is a diagram illustrating a reference point display method when the coordinate input device of the present invention is installed on, for example, an electronic display.
これらの基準点は、キャリブレーション動作時にのみ、ディスプレイ上に所定の印として表示される。あるいはディスプレイ表面32に基準点を刻印しておく。
These reference points are displayed as predetermined marks on the display only during the calibration operation. Alternatively, a reference point is imprinted on the
図14は、基準点の表示方法の他の例を説明する図である。図14では、基準点を印刷した基準チャート39などをディスプレイ表面32に貼っている。この基準チャート39は、座標入力時には不要であるので、ディスプレイ表面32から取り除かれる。
FIG. 14 is a diagram illustrating another example of the reference point display method. In FIG. 14, a reference chart 39 printed with reference points is pasted on the
なお、本発明の座標入力装置をプロジェクタを投影するスクリーン面上に設置した場合にも、上記した表示方法を同様に適用することができる。 Note that the display method described above can be similarly applied to the case where the coordinate input device of the present invention is installed on the screen surface on which the projector is projected.
(実施例5)
実施例5は、キャリブレーションモードと座標入力モードを切り替える実施例である。すなわち、座標入力装置を使用中に、センサヘッド(受発光手段)の位置がずれたりした場合や、運搬直後など、ユーザが任意でモードを切り替えて、ユーザ自身でキャリブレーションができるように構成した実施例である。
(Example 5)
The fifth embodiment is an embodiment that switches between the calibration mode and the coordinate input mode. In other words, when the position of the sensor head (light emitting / receiving means) is shifted while using the coordinate input device or immediately after transportation, the user can arbitrarily switch the mode and calibrate by himself. This is an example.
図15は、実施例5の構成を示す。実施例1と異なる点は、操作状態を切り替える切替手段12〜17を設けた点である。これらの切替手段12〜17は、動作状態指示手段18からの指示によって全て連動して作動する。切替手段12〜17が図示した状態にあるときは、キャリブレーション動作モードにある。切替手段12〜17が切り替わったときは、座標入力動作モードとなる。この動作状態指示手段18としては、例えばユーザからの切替手段に対する指示などの方法を採る。
FIG. 15 shows the configuration of the fifth embodiment. The difference from the first embodiment is that switching means 12 to 17 for switching the operation state are provided. These switching means 12 to 17 are all operated in conjunction with an instruction from the operation state instruction means 18. When the switching means 12 to 17 are in the illustrated state, they are in the calibration operation mode. When the switching
図16は、実施例5に係る処理フローチャートである。スタート1は2つのセンサヘッドのそれぞれのキャリブレーション動作モードの起点を示す。スタート2は通常の座標入力動作モードの起点を示す。
FIG. 16 is a process flowchart according to the fifth embodiment.
スタートは処理の起点を表す。通常の座標入力動作モードは、少なくとも一回のキャリブレーション動作モードによる第2記憶部7、8への係数書き込み動作がなされた後で実行されるものとする。
Start represents the starting point of processing. It is assumed that the normal coordinate input operation mode is executed after the coefficient writing operation to the
スタートで処理が開始後、キャリブレーション動作モードか通常座標入力モードであるかの動作状態を判断する(ステップ301)。これは、例えば切替手段12〜17の状態をユーザが判断することによって行う。あるいは、切替手段12〜17の状態に対応したフラグを参照することにより判断するなどの方法を採ることもできる。 After the processing is started at the start, it is determined whether the operation state is the calibration operation mode or the normal coordinate input mode (step 301). This is performed, for example, by the user determining the state of the switching means 12-17. Alternatively, a method of making a determination by referring to a flag corresponding to the state of the switching means 12 to 17 can be adopted.
キャリブレーション動作モードと判断された場合は、スタート1の動作に入りキャリブレーション動作を行い(ステップ302〜306)、それ以外の場合はスタート2の動作に入り、通常の座標入力動作を行う(ステップ307〜310)。各動作の一回の動作が終了すると再びスタートに戻りキャリブレーションモードか否かを判断し、同様の動作を行う。
If it is determined that the calibration operation mode is selected, the operation of
(実施例6)
実施例6は、本発明をソフトウェアによって実現する実施例であり、図17は、そのシステム構成例を示す。システム構成において、座標入力部80は、例えば図1に示すセンサヘッドで構成されている。CPU81は、キャリブレーション動作時に前述した実施例の処理ステップや処理機能を実行することにより係数を算出し、座標入力時に前述した実施例の処理ステップや処理機能を実行することにより座標を算出し、例えば入力された座標データから描画データを生成して、文字などを表示装置83に表示する。
(Example 6)
The sixth embodiment is an embodiment for realizing the present invention by software, and FIG. 17 shows an example of the system configuration. In the system configuration, the coordinate
上記した処理を実行するプログラムは、CD−ROM85などの記録媒体に記録されていて、媒体に記録されたプログラムをCD−ROM装置84から読み込み、システムにインストールすることによって実行され、上記実施例で説明した処理機能が実現される。また、上記したプログラムは、媒体の他、通信装置86、ネットワーク87を介してサーバなどからダウンロードすることによっても提供される。
The program for executing the above-described processing is recorded on a recording medium such as the CD-
以上、本発明を再帰光射影方式に適用した場合について説明したが、本発明はこれに限定されず、撮像方式を採るセンサヘッド(図23)や、ポリゴンミラーによって座標入力面を走査し、再帰反射シートによって反射されたビームをフォトディテクター(PD)で検出し、指等の遮断物で座標入力面上でビームが遮断された場合、その点に対応するビームがPDで検出されず、検出されなかったビームに相当する位置を三角測量によって算出する光走査方式(例えば特開平11−110116号公報を参照)にも適用できる。 As described above, the case where the present invention is applied to the recursive light projection method has been described. However, the present invention is not limited to this, and the coordinate input surface is scanned by a sensor head (FIG. 23) employing an image pickup method or a polygon mirror. When the beam reflected by the reflection sheet is detected by a photodetector (PD) and the beam is blocked on the coordinate input surface by a blocking object such as a finger, the beam corresponding to that point is not detected by the PD but is detected. The present invention can also be applied to an optical scanning method (see, for example, Japanese Patent Application Laid-Open No. 11-110116) that calculates a position corresponding to a beam that has not occurred by triangulation.
1、2 センサヘッド
3、4 第1記憶部
5、6 係数算出部
7、8 第2記憶部
9 座標算出部
10、11 ディップ位置情報検出部
12〜17 切替手段
18 動作状態指示手段
21、50 受光素子
22 画素
23 転送クロック
24 走査クロック
25 フォトダイオードサンプルホールド出力
26 カウンタ
27 カウンタ出力
31 ディスプレイ
32 表示面
33 支持筐体
34 再帰反射板
35、43 座標入力領域
36 基準穴
37 長穴
38 着脱手段
39 基準点チャート
40 座標入力装置
41 受発光手段
42 手の位置
44 、55 再帰性反射部材
45、48 プローブ光
46、54、59 再帰反射光
47、53、58 ビーム
51 集光レンズ
56、57 受光位置
60 指示物体
61 点光源
62 撮像手段
70 原点
80 座標入力部
81 CPU
82 メモリ
83 表示装置
84 CD−ROM装置
85 CD−ROM
86 通信装置
87 ネットワーク
DESCRIPTION OF
82
86
Claims (5)
前記所定の座標位置を(x、y)とし、前記所定の座標位置に対応するn番目の受光手段における光学的な位置情報をu n としたとき、
所定の関係式は、
ここで、c 1n 〜c 5n はn番目の受光手段における所定の係数である前記複数の特定の座標位置をm個の(x 1 、y 1 )〜(x m 、y m )とし、前記特定の座標位置に対応するn番目の受光手段における光学的な位置情報をu 1n 〜u mn としたとき、
前記係数算出手段は、前記所定の係数c 1n 〜c 5n を、
前記受光手段の数をNとし、前記所定の座標位置(x、y)に対応するN個の受光手段における光学的な位置情報をu 1 〜u N としたとき、
前記演算手段は、前記所定の座標位置(x、y)を、
When the predetermined coordinate position is (x, y) and the optical position information in the nth light receiving means corresponding to the predetermined coordinate position is un ,
The predetermined relational expression is
Here, c 1n to c 5n are m (x 1 , y 1 ) to (x m , y m ), where the plurality of specific coordinate positions, which are predetermined coefficients in the n-th light receiving means, are used for the identification. When the optical position information in the n-th light receiving means corresponding to the coordinate position of u 1n to u mn is
The coefficient calculation means calculates the predetermined coefficients c 1n to c 5n ,
When the number of the light receiving means is N and the optical position information in the N light receiving means corresponding to the predetermined coordinate position (x, y) is u 1 to u N ,
The arithmetic means calculates the predetermined coordinate position (x, y),
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007096928A JP4340302B2 (en) | 2007-04-02 | 2007-04-02 | Coordinate input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007096928A JP4340302B2 (en) | 2007-04-02 | 2007-04-02 | Coordinate input device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000075212A Division JP2001265517A (en) | 2000-03-17 | 2000-03-17 | Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007265417A JP2007265417A (en) | 2007-10-11 |
JP4340302B2 true JP4340302B2 (en) | 2009-10-07 |
Family
ID=38638275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007096928A Expired - Fee Related JP4340302B2 (en) | 2007-04-02 | 2007-04-02 | Coordinate input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4340302B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2824548A1 (en) | 2013-07-08 | 2015-01-14 | Ricoh Company, Ltd. | Coordinate detecting device and electronic information board system |
US9140540B2 (en) | 2012-12-07 | 2015-09-22 | Ricoh Company, Ltd. | Coordinate detector and electronic information board system |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010072028A1 (en) * | 2008-12-24 | 2010-07-01 | Hong Kong Applied Science And Technology Research Institute Co. , Ltd | Touch surface and system and method of detecting touch input |
JP5725774B2 (en) | 2010-09-13 | 2015-05-27 | キヤノン株式会社 | Coordinate input device and coordinate input method |
US10070066B2 (en) | 2016-01-05 | 2018-09-04 | Ricoh Company, Ltd. | Coordinate calculator and coordinate calculation system |
-
2007
- 2007-04-02 JP JP2007096928A patent/JP4340302B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9140540B2 (en) | 2012-12-07 | 2015-09-22 | Ricoh Company, Ltd. | Coordinate detector and electronic information board system |
EP2824548A1 (en) | 2013-07-08 | 2015-01-14 | Ricoh Company, Ltd. | Coordinate detecting device and electronic information board system |
US9292135B2 (en) | 2013-07-08 | 2016-03-22 | Ricoh Company, Ltd. | Coordinate detecting device and electronic information board system |
Also Published As
Publication number | Publication date |
---|---|
JP2007265417A (en) | 2007-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3934846B2 (en) | Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium | |
US6594023B1 (en) | Coordinate inputting/detecting apparatus, method and computer program product designed to precisely recognize a designating state of a designating device designating a position | |
JP4094794B2 (en) | Coordinate detection apparatus, information storage medium, and coordinate detection method | |
US7176904B2 (en) | Information input/output apparatus, information input/output control method, and computer product | |
US8922526B2 (en) | Touch detection apparatus and touch point detection method | |
JP4340302B2 (en) | Coordinate input device | |
JP2015060296A (en) | Spatial coordinate specification device | |
US8780084B2 (en) | Apparatus for detecting a touching position on a flat panel display and a method thereof | |
JP2013210956A (en) | Display device | |
JP2001265517A (en) | Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium | |
JP2002268807A (en) | Coordinate input device, program for performing coordinate input function and recording medium with the program recorded | |
JP2001175415A (en) | Coordinate inputting/detecting device | |
JP4560224B2 (en) | Information input device, information input / output system, program, and storage medium | |
JP2003186616A (en) | Information input device, information input and output system, program, and recording medium | |
JP2004038528A (en) | Optical coordinate detecting device | |
JP4142963B2 (en) | Information input device and information input / output system | |
JP4603183B2 (en) | Information input / output system, display control method, storage medium, and program | |
JP2005173684A (en) | Optical coordinate input device | |
JP2003122494A (en) | Device and method for coordinate input/detection | |
JP4256555B2 (en) | Coordinate input / detection device, electronic blackboard system, coordinate position detection method, and storage medium | |
JP2017139012A (en) | Input device, aerial image interaction system, and input method | |
JP2001243015A (en) | Information inputting/displaying system | |
JP4423003B2 (en) | Coordinate input device, control method therefor, and program | |
JP2008217819A (en) | Information input device, information input method, information input program and storage medium | |
JP4080136B2 (en) | Coordinate input / detection device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090310 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090610 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090703 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4340302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120710 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120710 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130710 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |