[go: up one dir, main page]

JP4340302B2 - Coordinate input device - Google Patents

Coordinate input device Download PDF

Info

Publication number
JP4340302B2
JP4340302B2 JP2007096928A JP2007096928A JP4340302B2 JP 4340302 B2 JP4340302 B2 JP 4340302B2 JP 2007096928 A JP2007096928 A JP 2007096928A JP 2007096928 A JP2007096928 A JP 2007096928A JP 4340302 B2 JP4340302 B2 JP 4340302B2
Authority
JP
Japan
Prior art keywords
light
light receiving
coordinate
predetermined
coordinate input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007096928A
Other languages
Japanese (ja)
Other versions
JP2007265417A (en
Inventor
克之 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007096928A priority Critical patent/JP4340302B2/en
Publication of JP2007265417A publication Critical patent/JP2007265417A/en
Application granted granted Critical
Publication of JP4340302B2 publication Critical patent/JP4340302B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Drawing Aids And Blackboards (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、座標入力装置に関し、特にパーソナルコンピュータ等において、情報を入力したり選択するためにペン等の指示部材や指等によって指示された座標位置を入力するいわゆるタッチパネル方式の座標入力装置に関する。この座標入力装置は、電子黒板や大型のディスプレイと共に一体化して利用されたり、壁面、机上の紙面や従来の黒板など、電子的な表示装置と一体化する形態に限らず、そこに書き込まれた情報をディジタイズする装置などに利用される。   The present invention relates to a coordinate input device, and more particularly to a so-called touch panel type coordinate input device that inputs a coordinate position indicated by a pointing member such as a pen or a finger to input or select information in a personal computer or the like. This coordinate input device is used in combination with an electronic blackboard or a large display, or is not limited to a form integrated with an electronic display device such as a wall surface, a paper surface on a desk, or a conventional blackboard. Used for devices that digitize information.

図18は、本発明が適用される光学式の座標入力装置の構成を示す図である。光学式の座標入力装置40は、受発光手段41と座標入力領域43と再帰性反射部材44から構成されている。座標入力領域43は四角形の形状であり、例えば電子的に文字や画像を表示するディスプレイ表面やマーカー等のペンで書き込むホワイトボードなどが座標入力領域となる。   FIG. 18 is a diagram showing a configuration of an optical coordinate input device to which the present invention is applied. The optical coordinate input device 40 includes light emitting / receiving means 41, a coordinate input area 43, and a retroreflective member 44. The coordinate input area 43 has a quadrangular shape. For example, a display surface that electronically displays characters and images, a whiteboard that is written with a pen such as a marker, or the like is the coordinate input area.

光学式の座標入力装置40は、座標入力領域43上を光学的に不透明な材質からなるユーザの手、指やペン、支持棒などの指示物体42で触ったときの指示物体42の座標位置を検出して、その位置情報をパーソナルコンピュータ等に入力する装置である。   The optical coordinate input device 40 indicates the coordinate position of the pointing object 42 when the coordinate input area 43 is touched with a pointing object 42 such as a user's hand, finger, pen, support bar, etc. made of an optically opaque material. It is a device that detects and inputs the position information to a personal computer or the like.

座標入力領域43の上方両端には受発光手段41が設けられている。受発光手段41からは座標入力領域43に向けて、L1、L2、L3、...Lmの光ビームの束(プローブ光)が照射されている。実際には点光源61から拡がる、座標入力領域の面に平行に進行する扇形板状の光波である。 Light emitting / receiving means 41 are provided at both upper ends of the coordinate input area 43. From the light emitting / receiving means 41 toward the coordinate input area 43, L 1 , L 2 , L 3 ,. . . A bundle of L m light beams (probe light) is irradiated. Actually, it is a fan-shaped light wave extending from the point light source 61 and traveling in parallel to the plane of the coordinate input area.

また、座標入力領域43の周辺部分には、再帰性反射部材44が再帰反射面を座標入力領域43の中央に向けて設けられている。再帰性反射部材44は、入射した光を、入射角度によらずに同じ方向に反射する特性をもった部材である。例えば、受発光手段41から発した扇形板状の光波の内、ある一つのビーム47に注目すると、ビーム47は再帰性反射部材44によって反射されて再び同じ光路を再帰反射光46として受発光手段41に向かって戻るように進行する。受発光手段41には、後述するように受光手段が設置されていて、プローブ光L1〜Lmのそれぞれに対して、その再帰光が受発光手段41に再帰したか否かを検出することができる。 Further, a retroreflecting member 44 is provided in the peripheral portion of the coordinate input area 43 with the retroreflective surface facing the center of the coordinate input area 43. The retroreflective member 44 is a member having a characteristic of reflecting incident light in the same direction regardless of the incident angle. For example, when focusing on a certain beam 47 among the fan-shaped plate-like light waves emitted from the light emitting / receiving means 41, the beam 47 is reflected by the retroreflecting member 44 and receives the same light path as the retroreflected light 46 again. It progresses so that it may return toward 41. The light receiving / emitting means 41 is provided with a light receiving means as will be described later, and detects whether or not the return light has returned to the light receiving / emitting means 41 for each of the probe lights L 1 to L m. Can do.

いま、ユーザーが手で位置42を触った場合を考える。このときプローブ光45は位置42で手に遮られて再帰性反射部材44には到達しない。従ってプローブ光45の再帰光は受発光手段41には到達せず、プローブ光45に対応する再帰光が受光されないことを検出することによって、プローブ光45の延長線(直線L)上に指示物体が挿入されたことを検出することができる。   Consider a case where the user touches the position 42 with his / her hand. At this time, the probe light 45 is blocked by the hand at the position 42 and does not reach the retroreflective member 44. Accordingly, the retroreflected light of the probe light 45 does not reach the light receiving and emitting means 41, and the pointing object is placed on the extension line (straight line L) of the probe light 45 by detecting that the retroreflected light corresponding to the probe light 45 is not received. Can be detected.

同様に図18の右上方に設置された受発光手段41からもプローブ光を照射し、プローブ光48に対応する再帰光が受光されないことを検出することによって、プローブ光48の延長線(直線R)上に指示物体が挿入されたことを検出することができる。直線Lおよび直線Rを求めることができれば、この交点座標を演算により算出することにより、手などの指示物体42が挿入された座標位置を得ることができる。   Similarly, the probe light is emitted from the light emitting / receiving means 41 installed on the upper right side of FIG. 18 to detect that the recursive light corresponding to the probe light 48 is not received, thereby extending the probe light 48 (straight line R). ) It is possible to detect that the pointing object has been inserted above. If the straight line L and the straight line R can be obtained, the coordinate position where the pointing object 42 such as a hand is inserted can be obtained by calculating the intersection coordinates by calculation.

次に、受発光手段41の構成と、プローブ光L1〜Lmの内、どのプローブ光が遮断されたかを検出する機構について説明する。図19は、受発光手段41の内部の構成を示す。図19は、図18の座標入力領域43に取り付けられた受発光手段41を、座標入力領域43の面に対して垂直な方向から見た図である。ここでは簡単のため、座標入力領域43の面に平行な2次元平面で説明する。 Next, the structure of the light receiving / emitting means 41 and the mechanism for detecting which probe light among the probe lights L 1 to L m is blocked will be described. FIG. 19 shows an internal configuration of the light emitting / receiving unit 41. FIG. 19 is a view of the light emitting / receiving means 41 attached to the coordinate input area 43 of FIG. 18 as viewed from a direction perpendicular to the surface of the coordinate input area 43. Here, for the sake of simplicity, description will be made on a two-dimensional plane parallel to the surface of the coordinate input area 43.

受発光手段41は、点光源61、集光レンズ51および受光素子50から構成されている。点光源61は光源から見て受光素子50と反対の方向に扇形に光を出射するものとする。点光源61から出射された扇形の光は、矢印53、58の方向、その他の方向に進行するビームの集合であると考える。矢印53方向に進行したビームは再帰性反射部材55で反射されて、再帰反射光54が集光レンズ51を通り、受光素子50上の位置57に到達する。   The light receiving / emitting means 41 includes a point light source 61, a condensing lens 51, and a light receiving element 50. The point light source 61 emits light in a fan shape in a direction opposite to the light receiving element 50 when viewed from the light source. The fan-shaped light emitted from the point light source 61 is considered to be a set of beams traveling in the directions of arrows 53 and 58 and other directions. The beam traveling in the direction of the arrow 53 is reflected by the retroreflecting member 55, and the retroreflected light 54 passes through the condenser lens 51 and reaches a position 57 on the light receiving element 50.

また、進行方向58に沿って進行したビームは再帰性反射部材55によって反射されて、再帰反射光59が受光素子50上の位置56に到達する。このように点光源61から出射し、再帰性反射部材55で反射され同じ経路を戻ってきた光は、集光レンズ51の作用によって、それぞれ受光素子50上のそれぞれ異なる位置56、57に到達する。   Further, the beam traveling along the traveling direction 58 is reflected by the retroreflecting member 55, and the retroreflected light 59 reaches the position 56 on the light receiving element 50. Thus, the light emitted from the point light source 61, reflected by the retroreflecting member 55, and returned through the same path reaches the different positions 56 and 57 on the light receiving element 50 by the action of the condenser lens 51, respectively. .

従って、ある位置に指示物体が挿入され、あるビームが遮断されると、そのビームに対応する受光素子50上の点に光が到達しなくなる。このことから、受光素子50上の光強度の分布を調べることによって、どのビームが遮られたかを知ることができる。   Therefore, when the pointing object is inserted at a certain position and a certain beam is blocked, the light does not reach a point on the light receiving element 50 corresponding to the beam. From this, it is possible to know which beam is blocked by examining the light intensity distribution on the light receiving element 50.

図20は、指示物体が挿入されてビームが遮断されたときの動作を説明する図である。図20において、受光素子50は集光レンズ51の焦点面に設けられているものとする。点光源61から図20の右側に向けて出射した光は、再帰性反射部材55によって反射されて同じ経路を戻ってくる。従って、点光源61の位置に再び集光する。集光レンズ51の中心は点光源位置と一致するように設けられている。再帰性反射部材か55から戻った再帰光は、集光レンズ51の中心を通るので、レンズ後方(受光素子側)に対称の経路で進行する。   FIG. 20 is a diagram for explaining the operation when the pointing object is inserted and the beam is blocked. In FIG. 20, the light receiving element 50 is provided on the focal plane of the condenser lens 51. The light emitted from the point light source 61 toward the right side in FIG. 20 is reflected by the retroreflecting member 55 and returns along the same path. Therefore, the light is condensed again at the position of the point light source 61. The center of the condensing lens 51 is provided so as to coincide with the point light source position. Since the retroreflected light returning from the retroreflective member 55 passes through the center of the condensing lens 51, it travels in a symmetrical path to the rear of the lens (on the light receiving element side).

このとき、受光素子50上の光強度分布を調べると、指示物体60が挿入されていなければ、受光素子50上の光強度分布はほぼ一定であるが、図20に示すように、光を遮る指示物体60が挿入された場合、ここを通過するビームは遮られ、受光素子50上では位置Dnの位置に、光強度が弱い領域(暗点)が生じる。 At this time, when the light intensity distribution on the light receiving element 50 is examined, if the pointing object 60 is not inserted, the light intensity distribution on the light receiving element 50 is substantially constant, but the light is blocked as shown in FIG. When the pointing object 60 is inserted, the beam passing therethrough is blocked, and a region (dark spot) having a low light intensity is generated at the position D n on the light receiving element 50.

この位置Dnは、遮られたビームの出射/入射角θnと対応していて、Dnを検出することによりθnを算出することができる。
すなわちθnはDnの関数として
θn=arctan(Dn/f) 式(1)
と表すことができる。ただし、fは図20に示すように、集光レンズ51と受光素子50との間の距離で、集光レンズ51の焦点距離に該当する。
This position D n is obstructed by not correspond to the emitted / incident angle theta n of the beam can be calculated theta n by detecting the D n.
That is, θ n is a function of D n θ n = arctan (D n / f) Equation (1)
It can be expressed as. However, f is a distance between the condensing lens 51 and the light receiving element 50, and corresponds to the focal length of the condensing lens 51, as shown in FIG.

ここで、特に図18の左上方の受発光手段41におけるθnをθnL、DnをDnLと置き換える。さらに、座標位置の算出方法を説明する図21において、受発光手段41と座標入力領域43との幾何学的な相対位置関係の変換gにより、指示物体60と座標入力領域43のx軸とのなす角θLは、式(1)で求められるDnLの関数として、
θL=g(θnL
ただし θnL=arctan(DnL/f) 式(2)
と表すことができる。
Here, in particular, θ n is replaced with θ nL and D n is replaced with D nL in the light emitting / receiving means 41 in the upper left of FIG. Further, in FIG. 21 for explaining the calculation method of the coordinate position, the conversion of the geometric relative positional relationship between the light emitting / receiving means 41 and the coordinate input area 43 makes it possible to change between the pointing object 60 and the x axis of the coordinate input area 43. The formed angle θ L is a function of D nL obtained by equation (1),
θ L = g (θ nL )
Where θ nL = arctan (D nL / f) Equation (2)
It can be expressed as.

同様に、図18の右上方の受発光手段41についても、上記した式のL記号をR記号に置き換えて、右側の受発光手段41と座標入力領域43との幾何学的な相対位置関係の変換hにより、
θR=h(θnR
ただし θnR=arctan(DnR/f) 式(3)
と表すことができる。
Similarly, for the light emitting / receiving means 41 in the upper right of FIG. 18, the L symbol in the above formula is replaced with the R symbol, and the geometric relative positional relationship between the right light emitting / receiving means 41 and the coordinate input area 43 is changed. By conversion h
θ R = h (θ nR )
Where θ nR = arctan (D nR / f) Equation (3)
It can be expressed as.

図21に示すように、座標入力領域43において受発光手段41の取り付け間隔をwとし、座標入力領域43の左角を原点70とし、x、y座標を図21に示すようにとれば、座標入力領域43上の指示物体60で指示した点の座標(x,y)は、
x=wtanθR/(tanθL+tanθR) 式(4)
y=wtanθL・tanθR/(tanθL+tanθR
式(5)
となり、式(2)、(3)、(4)、(5)からx、yは、DnL、DnRの関数として表すことができる。
As shown in FIG. 21, if the mounting interval of the light emitting / receiving means 41 in the coordinate input area 43 is w, the left corner of the coordinate input area 43 is the origin 70, and the x and y coordinates are as shown in FIG. The coordinates (x, y) of the point indicated by the pointing object 60 on the input area 43 are:
x = wtan θ R / (tan θ L + tan θ R ) (4)
y = wtanθ L · tan θ R / (tan θ L + tan θ R )
Formula (5)
From equations (2), (3), (4), and (5), x and y can be expressed as functions of D nL and D nR .

すなわち、左右の受発光手段41の受光素子50上の暗点の位置DnL、DnRを検出し、受発光手段41の幾何学的配置を考慮することにより、指示物体60で指示した点の座標を算出することができる。上記説明した座標算出方法は、三角測量の原理に基づくものであり、例えば特許文献1に記載されている。 That is, by detecting the positions D nL and D nR of the dark spots on the light receiving element 50 of the left and right light receiving / emitting means 41 and taking into account the geometrical arrangement of the light receiving / emitting means 41, Coordinates can be calculated. The coordinate calculation method described above is based on the principle of triangulation, and is described in Patent Document 1, for example.

特開平9−91094号公報JP-A-9-91094

上記した従来の座標入力装置では、受発光手段の幾何学配置を基に座標を算出している。このため、以下のような幾何学配置を表すパラメータが既知の場合に座標入力領域の座標を求めることができる。上記した「受発光手段」を、以下の説明では「センサヘッド」という。   In the conventional coordinate input device described above, the coordinates are calculated based on the geometric arrangement of the light emitting / receiving means. Therefore, the coordinates of the coordinate input area can be obtained when the following parameters representing the geometric arrangement are known. The above “light emitting / receiving means” is referred to as “sensor head” in the following description.

図22は、センサヘッドを座標入力領域の近傍に配置した例を示す図である。この図において、式(2)〜(5)から求められる座標x,yは、点Pを原点とする座標である。この座標を算出する段階で、既にwおよび両センサヘッドL、Rの光軸と両センサヘッド中心を結ぶ線分がなす角度θoffL、θoffRが既知である必要がある。θoffL、θoffRは、それぞれ式(2)および式(3)のgおよびhの変換に必要なパラメータとなる。 FIG. 22 is a diagram illustrating an example in which the sensor head is arranged in the vicinity of the coordinate input area. In this figure, the coordinates x and y obtained from the equations (2) to (5) are coordinates with the point P as the origin. At the stage of calculating these coordinates, the angles θ offL and θ offR formed by the line connecting the optical axes of w and the sensor heads L and R and the centers of the sensor heads must already be known. θ offL and θ offR are parameters necessary for the conversion of g and h in equations (2) and (3), respectively.

さらに、PおよびQを原点とする座標系における、平行移動によるオフセットdx、dyと回転によるオフセットθ0が既知であることによって、式(2)〜(5)から求められるPを原点とする座標x、yを、座標入力領域のQを原点とする座標系に変換することができる。したがって、w、θoffL、θoffR、dx、dy、θ0が既知であるようにセンサヘッドの機械的位置を決定する必要がある。 Further, in the coordinate system having P and Q as the origin, the coordinates d that are obtained from equations (2) to (5) by the offset dx and dy due to the translation and the offset θ 0 due to the rotation are known. x and y can be converted into a coordinate system having Q as the origin in the coordinate input area. Therefore, it is necessary to determine the mechanical position of the sensor head so that w, θ offL , θ offR , dx, dy, and θ 0 are known.

しかし、一般にこれらすべてのパラメータを所定の値になるようにセンサヘッドを組み付けることは装置製造工程上のコストを押し上げてしまう。また、これらのパラメータが甘い公差内に収まるように組み付けを行い、組み付け後にこれらのパラメータを測定し、演算に反映するという方法もある。しかしこの方法では、組み付け後にパラメータの測定を行う困難さを伴い、実用的ではない。   However, in general, assembling the sensor head so that all these parameters have predetermined values increases the cost in the device manufacturing process. In addition, there is a method in which these parameters are assembled so that they are within a small tolerance, and after the assembly, these parameters are measured and reflected in the calculation. However, this method is not practical due to the difficulty of measuring parameters after assembly.

また、運搬時の振動などにより、上記のパラメータが出荷時の設定値からずれてしまい、納品時に正しい座標入力動作ができなくなるといった不具合がある。さらに、運搬および梱包の都合上、受発光手段を分割して運搬する場合などでも、組み付け時に設計時の所定の位置精度を維持して受発光手段を座標入力面(ディスプレイ面や黒板面など)に再び取り付ける必要がある。   In addition, there is a problem that the above-mentioned parameters are deviated from the set values at the time of shipment due to vibration during transportation, and correct coordinate input operation cannot be performed at the time of delivery. Furthermore, even when the light emitting / receiving means is divided and transported for the convenience of transportation and packaging, the coordinate input surface (display surface, blackboard surface, etc.) Need to be reattached.

しかし、一般のユーザーが精度を維持して再度、取り付けを行うことは難しいか、または特殊な治具、機構が必要となり、コストを押し上げてしまう。これに加えて、例えば受発光手段が構成するセンサヘッド部分を分割可搬型として、任意の座標入力面にユーザーが取り付けて使うようなアプリケーションを考えた場合、従来の三角測量演算による方法では同様の問題が生じ、実現が困難となる。   However, it is difficult for a general user to perform the mounting again while maintaining accuracy, or a special jig or mechanism is required, which increases the cost. In addition to this, for example, in the case where an application where a user attaches to an arbitrary coordinate input surface and uses the sensor head portion formed by the light emitting / receiving means as a split portable type is the same in the conventional triangulation calculation method. Problems arise and are difficult to implement.

本発明は、上記したような座標入力装置の問題点に鑑みてなされたものであり、
本発明の目的は、座標入力面における受発光手段の取り付け位置の自由度を高めた座標入力装置を提供することにある。
The present invention has been made in view of the problems of the coordinate input device as described above,
An object of the present invention is to provide a coordinate input device that increases the degree of freedom of the attachment position of the light emitting and receiving means on the coordinate input surface.

本発明では、キャリブレーション時に、基準点に指示物体を挿入したときのセンサヘッドにおける光遮断位置情報と基準点座標とを基に、光遮断位置情報と基準点座標との関係を記述する関係式の係数を算出する。座標入力時に挿入された光遮断物体によって、各センサヘッドに生じた光の遮断位置に対応する情報と、先に算出された係数を用いて所定の演算を行うことにより、光遮断物体が挿入された座標を出力する。   In the present invention, at the time of calibration, the relational expression describing the relationship between the light blocking position information and the reference point coordinates based on the light blocking position information and the reference point coordinates in the sensor head when the pointing object is inserted into the reference point. The coefficient of is calculated. The light blocking object is inserted by performing a predetermined calculation using information corresponding to the light blocking position generated in each sensor head and the previously calculated coefficient by the light blocking object inserted at the time of coordinate input. Output the coordinates.

また、本発明では、光遮断位置情報として、受光手段の像面における光強度分布から得られる物理的な位置などを用いる。   In the present invention, the physical position obtained from the light intensity distribution on the image plane of the light receiving means is used as the light blocking position information.

さらに、本発明では、キャリブレーション時に係数を算出する際に、係数行列が正則である必要があるので、基準座標の点数を5点とし、かつそれら5点の座標は、受光手段の中心と各点の座標とを結ぶ直線が互いに一致しないように配置されている。   Furthermore, in the present invention, when calculating the coefficients during calibration, the coefficient matrix needs to be regular, so the number of reference coordinates is five, and the coordinates of these five points are the center of the light receiving means and each of the coordinates. They are arranged so that the straight lines connecting the coordinates of the points do not coincide with each other.

本発明によれば、座標入力面における受発光手段の取り付け位置に関するパラメータが未知の場合あるいは取り付け時に既知であっても何らかの理由でパラメータが変わってしまって場合でも、装置を使用する前の簡単なキャリブレーション動作によって座標入力面での座標を正しく入力することができるので、信頼性が高くまた利便性が向上する。 According to the present invention, even when a parameter related to the attachment position of the light emitting / receiving means on the coordinate input surface is unknown, or even if the parameter is changed for some reason even if it is known at the time of attachment, a simple process before using the apparatus is possible. Since the coordinates on the coordinate input surface can be correctly input by the calibration operation, the reliability is high and the convenience is improved.

本発明の他の目的は、キャリブレーション時に光遮断手段が挿入された所定の座標とこれに対応する遮断された光の位置情報の関係を記述する関係式の係数を演算する際に、係数が必ず演算できる条件として、連立方程式の係数行列が必ず正則となる必要があるので、基準となる座標点の数とその配置の仕方を限定することにより、係数行列を必ず正則とした座標入力装置を提供することにある。 Another object of the present invention is to calculate a coefficient of a relational expression that describes a relationship between a predetermined coordinate into which a light blocking unit is inserted at the time of calibration and position information of the blocked light corresponding thereto. As a condition that can be always calculated, the coefficient matrix of the simultaneous equations must be regular, so by limiting the number of coordinate points and how to place them as a reference, a coordinate input device that makes the coefficient matrix regular is necessary. It is to provide.

本発明の他の目的は、構造が簡単で、かつ高精度に座標を入力できる座標入力装置を提供することにある。 Another object of the present invention is to provide a coordinate input device that has a simple structure and can input coordinates with high accuracy.

本発明のさらに他の目的は、キャリブレーションモードと座標入力モードを設けることにより、使用中に受発光手段の位置がずれた場合あるいは運搬直後などに、ユーザが任意でモードを切り替えてユーザ自身でキャリブレーションできる座標入力装置を提供することにある。 Still another object of the present invention is to provide a calibration mode and a coordinate input mode so that the user can arbitrarily switch the mode by himself / herself when the position of the light emitting / receiving means is shifted during use or immediately after transportation. The object is to provide a coordinate input device that can be calibrated.

基準点(x1,y1)、(x2,y2)...(x5,y5)に、それぞれ指示物体を挿入したときの、センサヘッド1およびセンサヘッド2における光遮断位置情報(u11,u21,...,u51)および(u12,u22,...,u52)と基準点の座標とを、第1記憶部3、4にそれぞれ記憶する(ステップ103)。 Reference points (x 1 , y 1 ), (x 2 , y 2 ). . . The light blocking position information (u 11 , u 21 ,..., U 51 ) and (u 12 , u in the sensor head 1 and the sensor head 2 when the pointing object is inserted into (x 5 , y 5 ), respectively. 22 ,..., U 52 ) and the coordinates of the reference point are respectively stored in the first storage units 3 and 4 (step 103).

第1記憶部3、4に記憶された基準点座標および光遮断位置情報は、係数算出手段5、6に読み込まれる。係数算出手段5、6は、後述する式(11)に従ってそれぞれのセンサヘッド毎に係数(c11,c21,...,c51)および(c12,c22,...,c52)を算出し(ステップ104)、第2記憶部7、8に記憶する(ステップ105)。 The reference point coordinates and the light blocking position information stored in the first storage units 3 and 4 are read into the coefficient calculation means 5 and 6. The coefficient calculating means 5 and 6 are provided with coefficients (c 11 , c 21 ,..., C 51 ) and (c 12 , c 22 ,. ) Is calculated (step 104) and stored in the second storage units 7 and 8 (step 105).

ここまでの動作がキャリブレーション動作モードであり、これを図1中に太い矢印で示す。これらの一連の動作は、ユーザが座標入力装置を使用する前に、あるいは座標入力装置を設置するときなどに、実行される動作である。   The operation so far is the calibration operation mode, which is indicated by a thick arrow in FIG. These series of operations are performed before the user uses the coordinate input device or when installing the coordinate input device.

キャリブレーション動作モードに続いて、座標入力を行う動作モードとなる。以下、座標入力動作について説明する。   Following the calibration operation mode, an operation mode for inputting coordinates is set. Hereinafter, the coordinate input operation will be described.

座標入力領域に挿入された指など光遮断物体により、各センサヘッド1、2で光の遮断が生じる。つまり、キャリブレーションモードで説明したと同様にして、光束の遮断位置に対応する情報u1、u2が各センサヘッド1、2で取得される(ステップ106)。 Light is blocked by each of the sensor heads 1 and 2 by a light blocking object such as a finger inserted in the coordinate input area. That is, in the same manner as described in the calibration mode, information u 1 and u 2 corresponding to the light blocking positions are acquired by the sensor heads 1 and 2 (step 106).

さらに、前述したキャリブレーション動作モードにおいて第2記憶部7、8に記憶された係数(c11,c21,...,c51)および(c12,c22,...,c52)が読み出され(ステップ107)、座標演算部9は、u1,u2と(c11,c21,...,c51)および(c12,c22,...,c52)を用いて後述する式(14)に従って座標を演算し(ステップ108)、指など光遮断物体が挿入された座標(x、y)を、図示しないパソコンなどに出力する(ステップ109)。 Further, the coefficients (c 11 , c 21 ,..., C 51 ) and (c 12 , c 22 ,..., C 52 ) stored in the second storage units 7 and 8 in the calibration operation mode described above. Is read (step 107), and the coordinate calculation unit 9 determines that u 1 , u 2 and (c 11 , c 21 ,..., C 51 ) and (c 12 , c 22 ,..., C 52 ). Is used to calculate coordinates according to equation (14) described later (step 108), and outputs the coordinates (x, y) into which a light blocking object such as a finger is inserted to a personal computer (not shown) (step 109).

なお、図2の処理フローチャートにおいては、例えばセンサヘッド1側のキャリブレーション動作モード(ステップ101〜105)とセンサヘッド2側のキャリブレーション動作モード(ステップ101〜105)とが並列に行われ、その後、座標演算モード(ステップ106〜109)が実行されるが、センサヘッド1側のキャリブレーション動作モードを実行し、次いで、センサヘッド2側のキャリブレーション動作モードを実行し、その後に座標演算モードを実行するようにしてもよい。   In the processing flowchart of FIG. 2, for example, the calibration operation mode on the sensor head 1 side (steps 101 to 105) and the calibration operation mode on the sensor head 2 side (steps 101 to 105) are performed in parallel. The coordinate calculation mode (steps 106 to 109) is executed. The calibration operation mode on the sensor head 1 side is executed, then the calibration operation mode on the sensor head 2 side is executed, and then the coordinate calculation mode is set. You may make it perform.

以下に、前述した係数の算出と座標の演算について詳述する。
一般にカメラ系では、3次元空間の物体を撮影し、2次元のフィルム面にその像を記録する。図3は、カメラ系の概念を説明する図である。(x,y,z)は物体空間座標で、p(x,y,z)は物体の位置とする。また、(u,v)は像空間座標で、像面上の像の位置を表す座標系である。また点rはレンズの主点位置とする。3次元の物体空間上の点pは、レンズを経て、写像fにより2次元の像空間上の点qへ変換される。すなわち

Figure 0004340302
このときの写像fが推定できれば、これの逆写像を用いて、2次元のフィルム面上の像の位置から3次元の物体空間の物体の位置を推定することができる。 The coefficient calculation and coordinate calculation described above will be described in detail below.
In general, a camera system captures an object in a three-dimensional space and records the image on a two-dimensional film surface. FIG. 3 is a diagram for explaining the concept of the camera system. (X, y, z) is the object space coordinate, and p (x, y, z) is the position of the object. Further, (u, v) is an image space coordinate, which is a coordinate system representing the position of the image on the image plane. Point r is the principal point position of the lens. The point p on the three-dimensional object space is converted to a point q on the two-dimensional image space by the mapping f through the lens. Ie
Figure 0004340302
If the mapping f at this time can be estimated, the position of the object in the three-dimensional object space can be estimated from the position of the image on the two-dimensional film surface using the inverse mapping.

一般に写像fは、式(6)、式(7)で表される(例えば、徐 剛、3次元ビジョン、p79、共立出版、1998年を参照)。   In general, the mapping f is expressed by Equation (6) and Equation (7) (see, for example, Xu Tsuyoshi, 3D Vision, p79, Kyoritsu Shuppan, 1998).

Figure 0004340302
Figure 0004340302

Figure 0004340302
Figure 0004340302

ここで、本発明が適用される、前述した光学式座標入力装置における座標入力系を考える。この座標系は、物体空間が2次元であり、像空間が1次元と考えることができる。すなわち、物体空間は座標入力領域であり、平面上に拘束される。また像空間は1次元CCD上であり、CCD画素の配列に沿って直線上に拘束される。   Here, a coordinate input system in the above-described optical coordinate input apparatus to which the present invention is applied will be considered. This coordinate system can be considered that the object space is two-dimensional and the image space is one-dimensional. That is, the object space is a coordinate input area and is constrained on a plane. The image space is on a one-dimensional CCD and is constrained on a straight line along the array of CCD pixels.

すなわち、式(6)、(7)の一般式に対して、像空間のu軸は物体空間のx−y平面と同一平面内にあると仮定する。従って、式(6)、(7)は、係数c4,c9,c10を、c3,c4,c5と書き換えて式(8)のように表され、さらに展開して式(9)を得る。 That is, it is assumed that the u-axis of the image space is in the same plane as the xy plane of the object space with respect to the general expressions (6) and (7). Therefore, Expressions (6) and (7) are expressed as Expression (8) by rewriting coefficients c 4 , c 9 , and c 10 with c 3 , c 4 , and c 5, and further expanded to Expression (8) 9) is obtained.

Figure 0004340302
Figure 0004340302

1x+c2y+c3−c4ux−c5uy=u 式(9)
式(9)は、指など物体が挿入された座標入力領域上の座標(x,y)と、センサヘッドの受光素子上の光束の遮断位置(光束の遮断位置に相当する情報)uを関係付ける式である。ここで、c1,c2,c3,c4,c5は係数であり、センサヘッド毎にそれぞれ存在する。前述したキャリブレーション動作モードでは、この係数をセンサヘッド毎に決定する。
c 1 x + c 2 y + c 3 −c 4 ux−c 5 uy = u Formula (9)
Expression (9) relates the coordinates (x, y) on the coordinate input area where an object such as a finger is inserted and the light blocking position (information corresponding to the light blocking position) u on the light receiving element of the sensor head. It is an expression to attach. Here, c 1 , c 2 , c 3 , c 4 , and c 5 are coefficients and exist for each sensor head. In the calibration operation mode described above, this coefficient is determined for each sensor head.

以下、これら係数の決定方法を説明する。
n番目のセンサヘッドの係数c1n,c2n,...c5nは、以下のようにして求める。すなわち、m個の既知の点p1(x1,y1),p2(x2,y2),...pm(xm,ym)と、それに対応するn番目のセンサヘッドにおける像位置q1n(u1n),q2n(u2n),...qmn(umn)に対して、式(9)より、以下の連立方程式が得られる。
Hereinafter, a method for determining these coefficients will be described.
The coefficients c 1n , c 2n ,. . . c 5n is obtained as follows. That is, m known points p 1 (x 1 , y 1 ), p 2 (x 2 , y 2 ),. . . p m (x m , y m ) and the corresponding image positions q 1n (u 1n ), q 2n (u 2n ),. . . For q mn (u mn ), the following simultaneous equations are obtained from Equation (9).

Figure 0004340302
未知係数が5個なので、式(10)でm=5とし、5個の既知の点pに対して、それぞれに対応する像面位置qを求める。図1における係数算出部5、6では、式(10)を解いた式(11)に従って、係数ベクトル{c1n,c2n,...c5n}をセンサヘッド毎に演算し、第2記憶部7、8に記憶する。
Figure 0004340302
Since there are five unknown coefficients, m = 5 in equation (10), and the image plane position q corresponding to each of the five known points p is obtained. In the coefficient calculation units 5 and 6 in FIG. 1, coefficient vectors {c 1n , c 2n ,. . . c 5n } is calculated for each sensor head and stored in the second storage units 7 and 8.

Figure 0004340302
Figure 0004340302

次に、座標入力動作モードにおける座標の演算方法を説明する。センサヘッドの数をnとし、それぞれのセンサヘッドに対する係数をc1i,c2i,c3i,c4i,c5i(i=1,2,...n)とする。また、n個のセンサヘッドにおける像位置(測定値)をu1,u2,...un とする。 Next, a coordinate calculation method in the coordinate input operation mode will be described. The number of sensor heads is n, and the coefficients for each sensor head are c 1i , c 2i , c 3i , c 4i , c 5i (i = 1, 2,... N). Also, the image positions (measured values) in the n sensor heads are represented by u 1 , u 2 ,. . . Let u n .

式(9)より、物体空間座標(座標入力領域上の座標)(x,y)は、式(12)の連立方程式を満たす。   From equation (9), object space coordinates (coordinates on the coordinate input area) (x, y) satisfy the simultaneous equations of equation (12).

Figure 0004340302
従って、座標入力領域上の物体座標(x,y)は、式(12)を解いて、式(13)で求められる。
Figure 0004340302
Accordingly, the object coordinates (x, y) on the coordinate input area can be obtained by the equation (13) by solving the equation (12).

Figure 0004340302
Figure 0004340302

本発明の座標入力装置ではセンサヘッド数は2個であるので、n=2とする。図1の座標演算部9では、式(13)でn=2とした、式(14)に従って、指などの指示物体が挿入された座標入力面上の座標(x,y)を演算し、出力する。

Figure 0004340302
Since the number of sensor heads is 2 in the coordinate input device of the present invention, n = 2. The coordinate calculation unit 9 in FIG. 1 calculates the coordinates (x, y) on the coordinate input surface into which the pointing object such as a finger is inserted according to the equation (14) where n = 2 in the equation (13). Output.
Figure 0004340302

(実施例2)
従来技術では、前述したように、光遮断手段によって遮断された光の受光手段上での位置(DnL、DnR)を基に、光遮断手段の受発光手段からの見込みの角度(θL、θR)に変換する必要があり、変換テーブルあるいは変換式を予め求めておく必要があった。
(Example 2)
In the prior art, as described above, based on the position (D nL , D nR ) on the light receiving means of the light blocked by the light blocking means, the expected angle (θ L ) of the light blocking means from the light receiving / emitting means. , Θ R ), and a conversion table or conversion formula must be obtained in advance.

これに対して本発明では、光の遮断位置に対応する情報として受光素子上の物理的位置、受光素子の電気的な走査のタイミング信号など他の物理量を用いることにより、装置設計上の自由度を大幅に向上させている。   On the other hand, the present invention uses other physical quantities such as a physical position on the light receiving element and a timing signal for electrical scanning of the light receiving element as information corresponding to the light blocking position. Has been greatly improved.

実施例2は、光の遮断位置(以下、ディップ位置)を検出する実施例である。図4は、実施例2の構成を示す。実施例1と相違する点は、ディップ位置情報検出部10、11を設けた点である。他の構成要素は実施例1と同様であり、実施例1と同様に、再帰光射影方式の光学式座標入力装置に適用される。また、図5は、実施例2に係る処理フローチャートである。図5のステップ202は、図2のステップ102に対応し、図5のステップ203は、図2のステップ103に対応し、図5のステップ206は、図2のステップ106に対応し、つまり、図2の光遮断位置情報を図5のディップ位置情報に置き換えたものである。   The second embodiment is an embodiment in which a light blocking position (hereinafter referred to as a dip position) is detected. FIG. 4 shows the configuration of the second embodiment. The difference from the first embodiment is that dip position information detection units 10 and 11 are provided. The other components are the same as those in the first embodiment, and are applied to the optical coordinate input device of the retroreflective projection method as in the first embodiment. FIG. 5 is a process flowchart according to the second embodiment. Step 202 in FIG. 5 corresponds to step 102 in FIG. 2, step 203 in FIG. 5 corresponds to step 103 in FIG. 2, and step 206 in FIG. 5 corresponds to step 106 in FIG. The light blocking position information in FIG. 2 is replaced with the dip position information in FIG.

すなわち、基準点(x1,y1)、(x2,y2)...(x5,y5)に、それぞれ指示物体を挿入したときの、センサヘッド1およびセンサヘッド2のディップ位置情報検出部10、11で検出されたディップ位置情報(u11,u21,...,u51)および(u12,u22,...,u52)と基準点の座標とを、第1記憶部3、4にそれぞれ記憶する(ステップ203)。 That is, the reference points (x 1 , y 1 ), (x 2 , y 2 ). . . (X 5 , y 5 ), the dip position information (u 11 , u 21 ,...) Detected by the dip position information detectors 10 and 11 of the sensor head 1 and the sensor head 2 when the pointing object is inserted. , U 51 ) and (u 12 , u 22 ,..., U 52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4 (step 203).

第1記憶部3、4に記憶された基準点座標およびディップ位置情報は、係数算出手段5、6に読み込まれ、それぞれのセンサヘッド毎に係数(c11,c21,...,c51)および(c12,c22,...,c52)を算出し(ステップ204)、第2記憶部7、8に記憶する(ステップ205)。 The reference point coordinates and the dip position information stored in the first storage units 3 and 4 are read into the coefficient calculation means 5 and 6 and the coefficients (c 11 , c 21 ,..., C 51 for each sensor head. ) And (c 12 , c 22 ,..., C 52 ) are calculated (step 204) and stored in the second storage units 7 and 8 (step 205).

実施例1と同様に、ここまでの動作がキャリブレーション動作モードであり、ユーザが座標入力装置を使用する前に、あるいは座標入力装置を設置するときなどに、実行される動作である。キャリブレーション動作モードに続いて、座標入力を行う動作モードとなる。   Similar to the first embodiment, the operation so far is the calibration operation mode, and is an operation executed before the user uses the coordinate input device or when the coordinate input device is installed. Following the calibration operation mode, an operation mode for inputting coordinates is set.

座標入力領域に挿入された指など光遮断物体により、各センサヘッド1、2で光の遮断によるディップが生じる。センサヘッド1およびセンサヘッド2のディップ位置情報検出部10、11では、光の遮断位置に対応するディップ位置情報u1、u2を検出する(ステップ206)。 Due to a light blocking object such as a finger inserted into the coordinate input area, a dip due to light blocking occurs in each of the sensor heads 1 and 2. The dip position information detection units 10 and 11 of the sensor head 1 and sensor head 2 detect the dip position information u 1 and u 2 corresponding to the light blocking position (step 206).

さらに、前述したキャリブレーション動作モードにおいて第2記憶部7、8に記憶された係数(c11,c21,...,c51)および(c12,c22,...,c52)が読み出され(ステップ207)、座標演算部9は、u1,u2と(c11,c21,...,c51)および(c12,c22,...,c52)を用いて実施例1と同様にして演算し(ステップ208)、指など光遮断物体が挿入された座標(x、y)を出力する(ステップ209)。 Further, the coefficients (c 11 , c 21 ,..., C 51 ) and (c 12 , c 22 ,..., C 52 ) stored in the second storage units 7 and 8 in the calibration operation mode described above. Is read (step 207), and the coordinate calculation unit 9 determines that u 1 , u 2 and (c 11 , c 21 ,..., C 51 ) and (c 12 , c 22 ,..., C 52 ). Is used in the same manner as in the first embodiment (step 208), and coordinates (x, y) into which a light blocking object such as a finger is inserted are output (step 209).

ディップ位置情報検出部10、11では、例えば、図20で受光素子50がCCDである場合には、ディップ位置情報uとして、光の遮断位置に対応するCCDの画素添字(つまり画素位置番号)を用いる。   In the dip position information detection units 10 and 11, for example, when the light receiving element 50 is a CCD in FIG. 20, the CCD subscript corresponding to the light blocking position (that is, the pixel position number) is used as the dip position information u. Use.

図6は、受光素子の画素配列を示す。受光素子は1次元CCD21であり、図6は、2048画素からなるCCDの例である。図6では、CCD上の画素22には0番から2047番までのインデックスが付けられている。例えばAで示すディップ位置が図6で示す100番のインデックスが付いた画素位置にあるとした場合、ディップ位置情報または式(8)中のuは、図6のDnに相当するCCDの中心を原点とするCCD面上での物理的なサイズで表現する必要はなく、uとしては100というインデックス番号をそのまま代入して計算すればよい。 FIG. 6 shows a pixel array of the light receiving elements. The light receiving element is a one-dimensional CCD 21, and FIG. 6 shows an example of a CCD having 2048 pixels. In FIG. 6, the pixels 22 on the CCD are indexed from 0 to 2047. For example, when the dip position indicated by A is at the pixel position with the index number 100 shown in FIG. 6, the dip position information or u in the equation (8) is the center of the CCD corresponding to D n in FIG. It is not necessary to express the physical size on the CCD surface with the origin as the origin, and u can be calculated by substituting the index number of 100 as it is.

ただし、係数決定時にインデックスを用いた場合は、測定時もインデックスを用い、係数決定時にCCDの中心を原点とするCCD上の物理的な実サイズを用いた場合は、測定時も同様に実サイズを用いる。このように、係数決定時と測定時で同様のパラメータを用いる必要がある。なお、上記したインデックスには、所定の係数やオフセットがかかっていてもよく、装置の設計上都合の良いパラメータを任意に使用することができる。   However, if an index is used when determining the coefficient, the index is also used when measuring, and if the physical actual size on the CCD with the center of the CCD as the origin is used when determining the coefficient, the actual size is also used when measuring. Is used. Thus, it is necessary to use the same parameters when determining the coefficient and when measuring. It should be noted that a predetermined coefficient or offset may be applied to the above-described index, and parameters convenient for designing the apparatus can be arbitrarily used.

上記した画素インデックスを用いる場合、画素インデックスは例えば以下のような方法で取得することができる。すなわち、ある時刻でのCCD上の光強度分布をCCD画素に対応させて配列に読み込む。配列には画素インデックスと同じインデックスが付与されている。例えば配列をbuf[0]、buf[1]、...buf[2047]とすると、
100番のインデックスが付与されたCCD画素における光強度はbuf[100]に記憶され、101番のインデックスが付与されたCCD画素の光強度はbuf[101]に記憶される。
When the above-described pixel index is used, the pixel index can be obtained by the following method, for example. That is, the light intensity distribution on the CCD at a certain time is read into the array in correspondence with the CCD pixels. The same index as the pixel index is given to the array. For example, an array may be buf [0], buf [1],. . . buf [2047]
The light intensity at the CCD pixel assigned the index 100 is stored in buf [100], and the light intensity of the CCD pixel assigned the index 101 is stored in buf [101].

このようにして光強度を記憶した配列上でソフトウェア処理により、例えば後述する方法によってディップ位置を決定し、ディップ位置の配列のインデックスをuに代入して座標を計算すればよい。   In this way, the dip position is determined by software processing on the array storing the light intensities, for example, by a method described later, and the coordinates are calculated by substituting the index of the array of dip positions into u.

CCD画素のインデックスを得る他の方法として、CCD転送クロックをカウントする方法を用いることもできる。図7は、CCD転送クロック、走査クロックおよびCCD画素に配置されたフォトダイオードのサンプルホールド出力すなわちCCDビデオ出力を示すタイムチャートである。   As another method for obtaining the index of the CCD pixel, a method of counting the CCD transfer clock can also be used. FIG. 7 is a time chart showing a CCD transfer clock, a scan clock, and a sample hold output of a photodiode arranged in a CCD pixel, that is, a CCD video output.

転送クロック23は、各画素のフォトダイオードの電荷をCCDによって転送するためのCCD駆動のためのクロックである。簡単のため、この例では1つの転送クロックだけ示したが、実際には図示した周期の1/2の周期で位相が反転した2つのクロックを必要とする素子もあり、図示したクロックの動作はその一例である。   The transfer clock 23 is a clock for driving the CCD for transferring the charge of the photodiode of each pixel by the CCD. For the sake of simplicity, only one transfer clock is shown in this example, but there are actually elements that require two clocks whose phases are inverted at a period half that of the illustrated period. This is an example.

図8は、カウンタを用いてCCD画素インデックスを取得する構成を示す。転送クロック1周期毎に、各画素の電荷がCCD21により転送され、サンプルホールドされて出力端子に逐次出力される。走査クロック24は、一度のCCDによる走査毎に、走査開始時に1パルスだけCCD素子に入力される。転送クロック23をカウンタ26によってカウントすることで何番目の画素における電荷が出力されたかを知ることができる。   FIG. 8 shows a configuration for obtaining a CCD pixel index using a counter. For each transfer clock cycle, the charge of each pixel is transferred by the CCD 21, sampled and held, and sequentially output to the output terminal. The scan clock 24 is input to the CCD element by one pulse at the start of scanning for each scan by the CCD. By counting the transfer clock 23 by the counter 26, it is possible to know what number of pixels the charge has been output.

転送クロック23はCCD21に入力されるとともにカウンタ26の入力端子に入力される。さらに、カウンタ26は走査クロック24でリセットされる。従って、カウンタ26の出力27はCCD21が走査開始されてから、現在何番目の画素の電荷が出力されているかを示している。このカウンタ出力27は、上記説明した画素のインデックスに相当するものである。   The transfer clock 23 is input to the CCD 21 and input to the input terminal of the counter 26. Further, the counter 26 is reset by the scanning clock 24. Therefore, the output 27 of the counter 26 indicates what number of pixel charges have been output since the CCD 21 started scanning. The counter output 27 corresponds to the pixel index described above.

ディップ位置の検出をハードウェアロジックで構成する場合には、カウンタ出力を画素のインデックスとして用いる方が、回路構成が簡単化され、都合が良い。本発明では、回路やソフトウェアの設計上、都合のよいパラメータを設計者が任意に用いることができ、設計の自由度が高く、設計工数やコストの削減に特に効果的である。
図9は、ディップ位置情報検出部におけるディップ位置の検出方法を説明する図である。
When detecting the dip position by hardware logic, it is more convenient to use the counter output as a pixel index because the circuit configuration is simplified. In the present invention, parameters that are convenient for designing circuits and software can be arbitrarily used by the designer, the degree of freedom in design is high, and it is particularly effective in reducing design man-hours and costs.
FIG. 9 is a diagram illustrating a dip position detection method in the dip position information detection unit.

ディップは光強度分布中の光遮断による暗点の位置を示す。図9は、CCDサンプルホールド出力のディップ近傍の波形を示す。横軸はCCDの画素もしくはCCDの画素に対応して記憶した配列である。uiは前述したようにCCD画素に対応するインデックスであり、配列のインデックスまたはカウンタのカウント値などである。   The dip indicates the position of the dark spot due to light blocking in the light intensity distribution. FIG. 9 shows the waveform near the dip of the CCD sample hold output. The horizontal axis represents a CCD pixel or an array stored corresponding to the CCD pixel. As described above, ui is an index corresponding to the CCD pixel, such as an array index or a counter count value.

ディップ位置の第1の検出方法では、CCD出力値を逐次走査し、所定のしきい値より小さい値が現れたときのインデックスをuiとする。さらに走査を続け再びしきい値を越える直前の出力値のインデックスをui+nとする。このときディップ位置を式(15)に従って算出する。

Figure 0004340302
In the first detection method of the dip position, the CCD output value is sequentially scanned, and an index when a value smaller than a predetermined threshold appears is set to ui. Further, the scanning is continued and the index of the output value immediately before exceeding the threshold value again is set to ui + n. At this time, the dip position is calculated according to the equation (15).
Figure 0004340302

ディップ位置の第2の検出方法では、CCD出力値を逐次走査し、所定のしきい値より小さい値が現れたときのインデックスをui,ui+1,ui+2...ui+nとする。このときディップ位置を式(16)に従って算出する。

Figure 0004340302
In the second method of detecting the dip position, the CCD output value is sequentially scanned, and the index when a value smaller than a predetermined threshold appears is assigned as ui, ui + 1, ui + 2. . . Let ui + n. At this time, the dip position is calculated according to the equation (16).
Figure 0004340302

(実施例3)
実施例3は、センサヘッドの配置方法に係る実施例である。図10は、ディスプレイ上に本発明の座標入力装置を配置した構成を示し、(a)はその平面図であり、(b)はその側面図である。
(Example 3)
Example 3 is an example according to the arrangement method of the sensor head. FIG. 10 shows a configuration in which the coordinate input device of the present invention is arranged on a display, (a) is a plan view thereof, and (b) is a side view thereof.

ディスプレイ31の表示面32と同一平面となるように、支持筐体33が設けられ、その支持筐体33上にセンサヘッド1、2が配置されている。また、支持筐体33上には再帰反射板34も設置されている。なお、係数算出部、座標演算部、記憶部などを含む制御部は、例えば図10に示すセンサヘッドの機構部内に組み込まれている。   A support housing 33 is provided so as to be flush with the display surface 32 of the display 31, and the sensor heads 1 and 2 are disposed on the support housing 33. A retroreflector 34 is also installed on the support housing 33. Note that a control unit including a coefficient calculation unit, a coordinate calculation unit, a storage unit, and the like is incorporated in, for example, a mechanism unit of the sensor head shown in FIG.

座標入力領域35内の点p1,p2,p3,p4,p5は、座標が既知である、前述したキャリブレーション用の基準点である。また、点oは複数のセンサヘッドの内、1つのセンサヘッドの中心である。正確には受光レンズの物体側主点である。   The points p1, p2, p3, p4, and p5 in the coordinate input area 35 are the above-described calibration reference points whose coordinates are known. Point o is the center of one of the plurality of sensor heads. To be precise, it is the object side principal point of the light receiving lens.

実施例1で説明したように、式(10)で係数を演算する際に、係数が必ず演算できる条件として、連立方程式の係数行列が必ず正則となる必要がある。キャリブレーション用の基準点を5点とし、かつその配置を限定することにより、係数行列を正則とする。   As described in the first embodiment, the coefficient matrix of the simultaneous equations must be regular as a condition under which the coefficient can always be calculated when calculating the coefficient using Expression (10). The coefficient matrix is made regular by setting the reference points for calibration to 5 points and limiting their arrangement.

上記した条件を満たすように、センサヘッドを以下のようにして支持筐体33上に配置する。すなわち、点oと各点を結ぶ線分o−p1,o−p2,0−p3,o−p4,o−p5がすべて一致しないように、センサヘッド2と基準点を配置する。他方のセンサヘッド1についても同様に、そのセンサヘッドにおいて受光レンズ主点と基準点を結ぶ線分がすべて一致しないように基準点とセンサヘッドを配置する。   In order to satisfy the above-described conditions, the sensor head is disposed on the support housing 33 as follows. That is, the sensor head 2 and the reference point are arranged so that the line o connecting the points o and the line segments op-p1, op-p2, 0-p3, op-p4, op-p5 do not all match. Similarly, for the other sensor head 1, the reference point and the sensor head are arranged so that all the line segments connecting the light receiving lens principal point and the reference point do not coincide with each other.

図11は、センサヘッドの取り付け機構の一例を示す図である。センサヘッドの図示しない突起部を支持筐体33の基準穴36と長穴37に挿入する。その後、上記したようにセンサヘッドの中心と各点p1〜p5を結ぶ線分が全て一致しないように、センサヘッドの向きを調整し、調整後の位置をネジなどで止める。   FIG. 11 is a diagram illustrating an example of a sensor head mounting mechanism. A protrusion (not shown) of the sensor head is inserted into the reference hole 36 and the long hole 37 of the support housing 33. Thereafter, as described above, the orientation of the sensor head is adjusted so that the line connecting the center of the sensor head and the points p1 to p5 does not coincide with each other, and the adjusted position is stopped with a screw or the like.

図12は、センサヘッドの取り付け機構の他の例を示す図である。図12のセンサヘッドは、着脱式となっていて、センサヘッドが吸盤などの着脱手段38によって支持筐体33に取り付けられる。なお、この例におけるセンサヘッドの取り付け方法は、図10で説明したものと同様である。また、本発明の座標入力装置は、上記したディスプレイの他に、例えばプロジェクタを投影するスクリーン面上に設置してもよい。   FIG. 12 is a diagram illustrating another example of the sensor head mounting mechanism. The sensor head of FIG. 12 is detachable, and the sensor head is attached to the support housing 33 by attaching / detaching means 38 such as a suction cup. The sensor head mounting method in this example is the same as that described in FIG. In addition to the display described above, the coordinate input device of the present invention may be installed on a screen surface that projects a projector, for example.

(実施例4)
実施例4は、キャリブレーション用の基準点の表示方法に係る実施例である。図13は、本発明の座標入力装置を例えば電子ディスプレイ上に設置した場合の基準点の表示方法を説明する図である。
(Example 4)
Example 4 is an example according to a method of displaying a reference point for calibration. FIG. 13 is a diagram illustrating a reference point display method when the coordinate input device of the present invention is installed on, for example, an electronic display.

これらの基準点は、キャリブレーション動作時にのみ、ディスプレイ上に所定の印として表示される。あるいはディスプレイ表面32に基準点を刻印しておく。   These reference points are displayed as predetermined marks on the display only during the calibration operation. Alternatively, a reference point is imprinted on the display surface 32.

図14は、基準点の表示方法の他の例を説明する図である。図14では、基準点を印刷した基準チャート39などをディスプレイ表面32に貼っている。この基準チャート39は、座標入力時には不要であるので、ディスプレイ表面32から取り除かれる。   FIG. 14 is a diagram illustrating another example of the reference point display method. In FIG. 14, a reference chart 39 printed with reference points is pasted on the display surface 32. Since this reference chart 39 is not necessary when inputting coordinates, it is removed from the display surface 32.

なお、本発明の座標入力装置をプロジェクタを投影するスクリーン面上に設置した場合にも、上記した表示方法を同様に適用することができる。   Note that the display method described above can be similarly applied to the case where the coordinate input device of the present invention is installed on the screen surface on which the projector is projected.

(実施例5)
実施例5は、キャリブレーションモードと座標入力モードを切り替える実施例である。すなわち、座標入力装置を使用中に、センサヘッド(受発光手段)の位置がずれたりした場合や、運搬直後など、ユーザが任意でモードを切り替えて、ユーザ自身でキャリブレーションができるように構成した実施例である。
(Example 5)
The fifth embodiment is an embodiment that switches between the calibration mode and the coordinate input mode. In other words, when the position of the sensor head (light emitting / receiving means) is shifted while using the coordinate input device or immediately after transportation, the user can arbitrarily switch the mode and calibrate by himself. This is an example.

図15は、実施例5の構成を示す。実施例1と異なる点は、操作状態を切り替える切替手段12〜17を設けた点である。これらの切替手段12〜17は、動作状態指示手段18からの指示によって全て連動して作動する。切替手段12〜17が図示した状態にあるときは、キャリブレーション動作モードにある。切替手段12〜17が切り替わったときは、座標入力動作モードとなる。この動作状態指示手段18としては、例えばユーザからの切替手段に対する指示などの方法を採る。   FIG. 15 shows the configuration of the fifth embodiment. The difference from the first embodiment is that switching means 12 to 17 for switching the operation state are provided. These switching means 12 to 17 are all operated in conjunction with an instruction from the operation state instruction means 18. When the switching means 12 to 17 are in the illustrated state, they are in the calibration operation mode. When the switching units 12 to 17 are switched, the coordinate input operation mode is set. As this operation state instruction means 18, for example, a method such as an instruction from the user to the switching means is adopted.

図16は、実施例5に係る処理フローチャートである。スタート1は2つのセンサヘッドのそれぞれのキャリブレーション動作モードの起点を示す。スタート2は通常の座標入力動作モードの起点を示す。   FIG. 16 is a process flowchart according to the fifth embodiment. Start 1 indicates the starting point of each calibration operation mode of the two sensor heads. Start 2 shows the starting point of the normal coordinate input operation mode.

スタートは処理の起点を表す。通常の座標入力動作モードは、少なくとも一回のキャリブレーション動作モードによる第2記憶部7、8への係数書き込み動作がなされた後で実行されるものとする。   Start represents the starting point of processing. It is assumed that the normal coordinate input operation mode is executed after the coefficient writing operation to the second storage units 7 and 8 is performed by at least one calibration operation mode.

スタートで処理が開始後、キャリブレーション動作モードか通常座標入力モードであるかの動作状態を判断する(ステップ301)。これは、例えば切替手段12〜17の状態をユーザが判断することによって行う。あるいは、切替手段12〜17の状態に対応したフラグを参照することにより判断するなどの方法を採ることもできる。   After the processing is started at the start, it is determined whether the operation state is the calibration operation mode or the normal coordinate input mode (step 301). This is performed, for example, by the user determining the state of the switching means 12-17. Alternatively, a method of making a determination by referring to a flag corresponding to the state of the switching means 12 to 17 can be adopted.

キャリブレーション動作モードと判断された場合は、スタート1の動作に入りキャリブレーション動作を行い(ステップ302〜306)、それ以外の場合はスタート2の動作に入り、通常の座標入力動作を行う(ステップ307〜310)。各動作の一回の動作が終了すると再びスタートに戻りキャリブレーションモードか否かを判断し、同様の動作を行う。   If it is determined that the calibration operation mode is selected, the operation of start 1 is entered and the calibration operation is performed (steps 302 to 306). Otherwise, the operation of start 2 is entered and the normal coordinate input operation is performed (step). 307-310). When one operation of each operation is completed, the operation returns to the start again to determine whether or not the calibration mode is selected, and the same operation is performed.

(実施例6)
実施例6は、本発明をソフトウェアによって実現する実施例であり、図17は、そのシステム構成例を示す。システム構成において、座標入力部80は、例えば図1に示すセンサヘッドで構成されている。CPU81は、キャリブレーション動作時に前述した実施例の処理ステップや処理機能を実行することにより係数を算出し、座標入力時に前述した実施例の処理ステップや処理機能を実行することにより座標を算出し、例えば入力された座標データから描画データを生成して、文字などを表示装置83に表示する。
(Example 6)
The sixth embodiment is an embodiment for realizing the present invention by software, and FIG. 17 shows an example of the system configuration. In the system configuration, the coordinate input unit 80 includes, for example, a sensor head shown in FIG. The CPU 81 calculates the coefficients by executing the processing steps and processing functions of the above-described embodiment during the calibration operation, calculates the coordinates by executing the processing steps and processing functions of the above-described embodiments when inputting the coordinates, For example, drawing data is generated from the input coordinate data, and characters and the like are displayed on the display device 83.

上記した処理を実行するプログラムは、CD−ROM85などの記録媒体に記録されていて、媒体に記録されたプログラムをCD−ROM装置84から読み込み、システムにインストールすることによって実行され、上記実施例で説明した処理機能が実現される。また、上記したプログラムは、媒体の他、通信装置86、ネットワーク87を介してサーバなどからダウンロードすることによっても提供される。   The program for executing the above-described processing is recorded on a recording medium such as the CD-ROM 85, and is executed by reading the program recorded on the medium from the CD-ROM device 84 and installing it in the system. The described processing function is realized. In addition to the medium, the above-described program is provided by downloading from a server or the like via the communication device 86 and the network 87.

以上、本発明を再帰光射影方式に適用した場合について説明したが、本発明はこれに限定されず、撮像方式を採るセンサヘッド(図23)や、ポリゴンミラーによって座標入力面を走査し、再帰反射シートによって反射されたビームをフォトディテクター(PD)で検出し、指等の遮断物で座標入力面上でビームが遮断された場合、その点に対応するビームがPDで検出されず、検出されなかったビームに相当する位置を三角測量によって算出する光走査方式(例えば特開平11−110116号公報を参照)にも適用できる。   As described above, the case where the present invention is applied to the recursive light projection method has been described. However, the present invention is not limited to this, and the coordinate input surface is scanned by a sensor head (FIG. 23) employing an image pickup method or a polygon mirror. When the beam reflected by the reflection sheet is detected by a photodetector (PD) and the beam is blocked on the coordinate input surface by a blocking object such as a finger, the beam corresponding to that point is not detected by the PD but is detected. The present invention can also be applied to an optical scanning method (see, for example, Japanese Patent Application Laid-Open No. 11-110116) that calculates a position corresponding to a beam that has not occurred by triangulation.

本発明の実施例1の構成を示す図である。It is a figure which shows the structure of Example 1 of this invention. 本発明の実施例1に係る処理フローチャートである。It is a processing flowchart concerning Example 1 of the present invention. カメラ系の概念を説明する図である。It is a figure explaining the concept of a camera system. 本発明の実施例2の構成を示す図である。It is a figure which shows the structure of Example 2 of this invention. 本発明の実施例2に係る処理フローチャートである。It is a processing flowchart concerning Example 2 of the present invention. 受光素子の画素配列を示す図である。It is a figure which shows the pixel arrangement | sequence of a light receiving element. CCD転送クロック、走査クロックおよびCCD画素に配置されたフォトダイオードのサンプルホールド出力すなわちCCDビデオ出力を示すタイムチャートである。4 is a time chart showing a CCD transfer clock, a scanning clock, and a sample hold output of a photodiode arranged in a CCD pixel, that is, a CCD video output. カウンタを用いてCCD画素インデックスを取得する構成を示す図である。It is a figure which shows the structure which acquires a CCD pixel index using a counter. ディップ位置情報検出部におけるディップ位置の検出方法を説明する図である。It is a figure explaining the detection method of the dip position in a dip position information detection part. ディスプレイ上に本発明の座標入力装置を配置した構成を示し、(a)はその平面図であり、(b)はその側面図である。The structure which has arrange | positioned the coordinate input device of this invention on the display is shown, (a) is the top view, (b) is the side view. センサヘッドの取り付け機構の一例を示す図である。It is a figure which shows an example of the attachment mechanism of a sensor head. センサヘッドの取り付け機構の他の例を示す図である。It is a figure which shows the other example of the attachment mechanism of a sensor head. 本発明の座標入力装置を例えば電子ディスプレイ上に設置した場合の基準点の表示方法を説明する図である。It is a figure explaining the display method of the reference point at the time of installing the coordinate input device of this invention on an electronic display, for example. 基準点の表示方法の他の例を説明する図である。It is a figure explaining the other example of the display method of a reference point. 本発明の実施例5の構成を示す図である。It is a figure which shows the structure of Example 5 of this invention. 本発明の実施例5に係る処理フローチャートである。It is a processing flowchart concerning Example 5 of the present invention. 本発明の実施例6の構成を示す図である。It is a figure which shows the structure of Example 6 of this invention. 本発明が適用される光学式の座標入力装置の構成を示す図である。It is a figure which shows the structure of the optical coordinate input device with which this invention is applied. 図18の受発光手段の内部の構成を示す図である。It is a figure which shows the internal structure of the light emitting / receiving means of FIG. 指示物体が挿入されてビームが遮断されたときの動作を説明する図である。It is a figure explaining operation | movement when a pointing object is inserted and a beam is interrupted | blocked. 三角測量の原理を基に座標位置を算出する方法を説明する図である。It is a figure explaining the method of calculating a coordinate position based on the principle of triangulation. センサヘッドを座標入力領域の近傍に配置した例を示す図である。It is a figure which shows the example which has arrange | positioned the sensor head in the vicinity of the coordinate input area. 撮像方式を採るセンサヘッドを示す図である。It is a figure which shows the sensor head which takes an imaging system.

符号の説明Explanation of symbols

1、2 センサヘッド
3、4 第1記憶部
5、6 係数算出部
7、8 第2記憶部
9 座標算出部
10、11 ディップ位置情報検出部
12〜17 切替手段
18 動作状態指示手段
21、50 受光素子
22 画素
23 転送クロック
24 走査クロック
25 フォトダイオードサンプルホールド出力
26 カウンタ
27 カウンタ出力
31 ディスプレイ
32 表示面
33 支持筐体
34 再帰反射板
35、43 座標入力領域
36 基準穴
37 長穴
38 着脱手段
39 基準点チャート
40 座標入力装置
41 受発光手段
42 手の位置
44 、55 再帰性反射部材
45、48 プローブ光
46、54、59 再帰反射光
47、53、58 ビーム
51 集光レンズ
56、57 受光位置
60 指示物体
61 点光源
62 撮像手段
70 原点
80 座標入力部
81 CPU
82 メモリ
83 表示装置
84 CD−ROM装置
85 CD−ROM
86 通信装置
87 ネットワーク
DESCRIPTION OF SYMBOLS 1, 2 Sensor head 3, 4 1st memory | storage part 5, 6 Coefficient calculation part 7, 8 2nd memory | storage part 9 Coordinate calculation part 10, 11 Dip position information detection part 12-17 Switching means 18 Operation | movement state instruction | indication means 21, 50 Light receiving element 22 Pixel 23 Transfer clock 24 Scan clock 25 Photodiode sample hold output 26 Counter 27 Counter output 31 Display 32 Display surface 33 Support housing 34 Retroreflective plate 35, 43 Coordinate input area 36 Reference hole 37 Elongated hole 38 Detaching means 39 Reference point chart 40 Coordinate input device 41 Light emitting / receiving means 42 Hand position 44, 55 Retroreflective member 45, 48 Probe light 46, 54, 59 Retroreflected light 47, 53, 58 Beam 51 Condensing lens 56, 57 Light receiving position 60 Pointing object 61 Point light source 62 Imaging means 70 Origin 80 Coordinate input Part 81 CPU
82 Memory 83 Display device 84 CD-ROM device 85 CD-ROM
86 Communication device 87 Network

Claims (5)

複数の発光手段と、該発光手段から出射した光を、前記発光手段の方向に向けて反射する反射手段と、該反射手段によって反射した光を受光する複数の受光手段とを備え、前記出射光と反射光の光路によって形成される入力領域において、所定の光遮断手段が前記入力領域に挿入されることによって前記光路が遮断されたとき、前記光遮断手段が挿入された座標位置を算出して入力する座標入力装置であって、前記光遮断手段が挿入された所定の座標位置と、該所定の座標位置に対応する前記複数の受光手段における光学的な位置情報との関係が所定の関係式によって対応付けられ、前記光遮断手段が挿入された複数の特定の座標位置と、該特定の座標位置に対応する前記複数の受光手段における光学的な位置情報とを基に、前記関係式を満たす所定の係数を算出する係数算出手段と、前記所定の座標位置を、該所定の座標位置に対応する前記複数の受光手段における光学的な位置情報と前記所定の係数とを用いた所定の演算によって算出する演算手段とを備え、
前記所定の座標位置を(x、y)とし、前記所定の座標位置に対応するn番目の受光手段における光学的な位置情報をu としたとき、
所定の関係式は、
Figure 0004340302
であり、
ここで、c 1n 〜c 5n はn番目の受光手段における所定の係数である前記複数の特定の座標位置をm個の(x 1 、y 1 )〜(x m 、y m )とし、前記特定の座標位置に対応するn番目の受光手段における光学的な位置情報をu 1n 〜u mn としたとき、
前記係数算出手段は、前記所定の係数c 1n 〜c 5n を、
Figure 0004340302
に従って求め、
前記受光手段の数をNとし、前記所定の座標位置(x、y)に対応するN個の受光手段における光学的な位置情報をu 1 〜u N としたとき、
前記演算手段は、前記所定の座標位置(x、y)を、
Figure 0004340302
に従って算出することを特徴とする座標入力装置。
A plurality of light emitting means; a reflecting means for reflecting the light emitted from the light emitting means toward the light emitting means; and a plurality of light receiving means for receiving the light reflected by the reflecting means. In the input area formed by the optical path of the reflected light, when the optical path is blocked by inserting a predetermined light blocking means into the input area, the coordinate position where the light blocking means is inserted is calculated. A coordinate input device for inputting, wherein a relationship between a predetermined coordinate position where the light blocking unit is inserted and optical position information in the plurality of light receiving units corresponding to the predetermined coordinate position is a predetermined relational expression. The relational expression is satisfied based on a plurality of specific coordinate positions where the light blocking means are inserted and optical position information on the plurality of light receiving means corresponding to the specific coordinate positions. Coefficient calculation means for calculating a predetermined coefficient, and a predetermined calculation using the predetermined coordinate position using optical position information and the predetermined coefficient in the plurality of light receiving means corresponding to the predetermined coordinate position. And calculating means for calculating by
When the predetermined coordinate position is (x, y) and the optical position information in the nth light receiving means corresponding to the predetermined coordinate position is un ,
The predetermined relational expression is
Figure 0004340302
And
Here, c 1n to c 5n are m (x 1 , y 1 ) to (x m , y m ), where the plurality of specific coordinate positions, which are predetermined coefficients in the n-th light receiving means, are used for the identification. When the optical position information in the n-th light receiving means corresponding to the coordinate position of u 1n to u mn is
The coefficient calculation means calculates the predetermined coefficients c 1n to c 5n ,
Figure 0004340302
According to
When the number of the light receiving means is N and the optical position information in the N light receiving means corresponding to the predetermined coordinate position (x, y) is u 1 to u N ,
The arithmetic means calculates the predetermined coordinate position (x, y),
Figure 0004340302
A coordinate input device that calculates according to the above.
前記受光手段における光学的な位置情報として、光遮断位置に対応した受光面の物理的な位置を用いることを特徴とする請求項1記載の座標入力装置。The coordinate input device according to claim 1, wherein a physical position of a light receiving surface corresponding to a light blocking position is used as optical position information in the light receiving means. 前記物理的な位置として、光遮断位置に対応した受光面上の光強度分布から算出される位置を用いることを特徴とする請求項2記載の座標入力装置。The coordinate input device according to claim 2, wherein a position calculated from a light intensity distribution on the light receiving surface corresponding to the light blocking position is used as the physical position. 前記受光手段が受光素子アレイで構成されているとき、前記光学的な位置情報として、光遮断位置に対応した受光素子アレイの画素番号を用いることを特徴とする請求項1記載の座標入力装置。2. The coordinate input device according to claim 1, wherein when the light receiving means is composed of a light receiving element array, a pixel number of a light receiving element array corresponding to a light blocking position is used as the optical position information. 前記複数の受光手段は少なくとも2つの受光手段であり、前記複数の特定の座標位置は、前記2つの受光手段の光学中心と前記複数の特定の座標位置とを結ぶ直線が互いに一致しない少なくとも5点の座標位置であることを特徴とする請求項1記載の座標入力装置。The plurality of light receiving means are at least two light receiving means, and the plurality of specific coordinate positions include at least five points where straight lines connecting the optical centers of the two light receiving means and the plurality of specific coordinate positions do not coincide with each other. The coordinate input device according to claim 1, wherein the coordinate input device is a coordinate position of
JP2007096928A 2007-04-02 2007-04-02 Coordinate input device Expired - Fee Related JP4340302B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007096928A JP4340302B2 (en) 2007-04-02 2007-04-02 Coordinate input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007096928A JP4340302B2 (en) 2007-04-02 2007-04-02 Coordinate input device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000075212A Division JP2001265517A (en) 2000-03-17 2000-03-17 Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium

Publications (2)

Publication Number Publication Date
JP2007265417A JP2007265417A (en) 2007-10-11
JP4340302B2 true JP4340302B2 (en) 2009-10-07

Family

ID=38638275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007096928A Expired - Fee Related JP4340302B2 (en) 2007-04-02 2007-04-02 Coordinate input device

Country Status (1)

Country Link
JP (1) JP4340302B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2824548A1 (en) 2013-07-08 2015-01-14 Ricoh Company, Ltd. Coordinate detecting device and electronic information board system
US9140540B2 (en) 2012-12-07 2015-09-22 Ricoh Company, Ltd. Coordinate detector and electronic information board system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010072028A1 (en) * 2008-12-24 2010-07-01 Hong Kong Applied Science And Technology Research Institute Co. , Ltd Touch surface and system and method of detecting touch input
JP5725774B2 (en) 2010-09-13 2015-05-27 キヤノン株式会社 Coordinate input device and coordinate input method
US10070066B2 (en) 2016-01-05 2018-09-04 Ricoh Company, Ltd. Coordinate calculator and coordinate calculation system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9140540B2 (en) 2012-12-07 2015-09-22 Ricoh Company, Ltd. Coordinate detector and electronic information board system
EP2824548A1 (en) 2013-07-08 2015-01-14 Ricoh Company, Ltd. Coordinate detecting device and electronic information board system
US9292135B2 (en) 2013-07-08 2016-03-22 Ricoh Company, Ltd. Coordinate detecting device and electronic information board system

Also Published As

Publication number Publication date
JP2007265417A (en) 2007-10-11

Similar Documents

Publication Publication Date Title
JP3934846B2 (en) Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium
US6594023B1 (en) Coordinate inputting/detecting apparatus, method and computer program product designed to precisely recognize a designating state of a designating device designating a position
JP4094794B2 (en) Coordinate detection apparatus, information storage medium, and coordinate detection method
US7176904B2 (en) Information input/output apparatus, information input/output control method, and computer product
US8922526B2 (en) Touch detection apparatus and touch point detection method
JP4340302B2 (en) Coordinate input device
JP2015060296A (en) Spatial coordinate specification device
US8780084B2 (en) Apparatus for detecting a touching position on a flat panel display and a method thereof
JP2013210956A (en) Display device
JP2001265517A (en) Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium
JP2002268807A (en) Coordinate input device, program for performing coordinate input function and recording medium with the program recorded
JP2001175415A (en) Coordinate inputting/detecting device
JP4560224B2 (en) Information input device, information input / output system, program, and storage medium
JP2003186616A (en) Information input device, information input and output system, program, and recording medium
JP2004038528A (en) Optical coordinate detecting device
JP4142963B2 (en) Information input device and information input / output system
JP4603183B2 (en) Information input / output system, display control method, storage medium, and program
JP2005173684A (en) Optical coordinate input device
JP2003122494A (en) Device and method for coordinate input/detection
JP4256555B2 (en) Coordinate input / detection device, electronic blackboard system, coordinate position detection method, and storage medium
JP2017139012A (en) Input device, aerial image interaction system, and input method
JP2001243015A (en) Information inputting/displaying system
JP4423003B2 (en) Coordinate input device, control method therefor, and program
JP2008217819A (en) Information input device, information input method, information input program and storage medium
JP4080136B2 (en) Coordinate input / detection device and storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090610

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090703

R151 Written notification of patent or utility model registration

Ref document number: 4340302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130710

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees