[go: up one dir, main page]

JP4706409B2 - Input display device and input display method - Google Patents

Input display device and input display method Download PDF

Info

Publication number
JP4706409B2
JP4706409B2 JP2005272735A JP2005272735A JP4706409B2 JP 4706409 B2 JP4706409 B2 JP 4706409B2 JP 2005272735 A JP2005272735 A JP 2005272735A JP 2005272735 A JP2005272735 A JP 2005272735A JP 4706409 B2 JP4706409 B2 JP 4706409B2
Authority
JP
Japan
Prior art keywords
image
display
input
dimensional
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005272735A
Other languages
Japanese (ja)
Other versions
JP2007086931A (en
Inventor
勉 原田
匡平 岩本
武 玉山
裕利 藤澤
和範 山口
満 建内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005272735A priority Critical patent/JP4706409B2/en
Publication of JP2007086931A publication Critical patent/JP2007086931A/en
Application granted granted Critical
Publication of JP4706409B2 publication Critical patent/JP4706409B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、例えばEL(Electro Luminescence)ディスプレイなどに適用可能な入力表示装置及び入力表示方法に関し、特に画像の表示と並行して、入力した画像の取り込みが可能な入力表示装置及び入力表示方法に関する。   The present invention relates to an input display device and an input display method applicable to, for example, an EL (Electro Luminescence) display, and more particularly to an input display device and an input display method capable of capturing an input image in parallel with image display. .

従来、3次元の立体像を表示させる技術において、3次元像の座標入力と、3次元像の表示とはそれぞれ別の装置を用いて実現している。例えば、3次元座標入力の技術には、レーザスキャンとCCDカメラによる計測技術、航空写真等で用いるステレオ写真の技術、接触式デジタイザを用いる技術等があり、専用の入力機材を使用する。また、入力された3次元の情報を可視化するためには、別の場所にディスプレイを設置し、2次元ディスプレイに写像した情報として表示する。例えば、3次元像を表現するために、表示のみを行うレンチキュラレンズを用いたディスプレイ、視差バリア式ディスプレイの技術がある。また、撮影と表示のシステムに共通点が多いインテグラルフォトグラフィ、ホログラフィ等を用いた技術がある。   Conventionally, in a technique for displaying a three-dimensional stereoscopic image, coordinate input of the three-dimensional image and display of the three-dimensional image are realized by using different devices. For example, three-dimensional coordinate input techniques include laser scanning and CCD camera measurement techniques, stereo photography techniques used in aerial photography, techniques using a contact digitizer, and the like, and dedicated input equipment is used. Further, in order to visualize the input three-dimensional information, a display is installed in another place and displayed as information mapped on the two-dimensional display. For example, in order to express a three-dimensional image, there are a display and parallax barrier display technology using a lenticular lens that performs only display. In addition, there are technologies using integral photography, holography, and the like, which have a lot in common with imaging and display systems.

また、視点選択を可能とするフルパララックス(full parallax)な画像表示システムとして、例えばIP(Integral Photography)立体画像システムがある。IP技術では、昆虫の複眼のような多数のマイクロレンズを配列させたレンズアレイを介して撮影を行い、複数の小さな被写体の像が結像された写真乾板に対して、写真乾板を挟んで被写体の位置と反対の位置から照明を当てる。そして、撮影時の被写体から写真乾板に向かう光線と同じ軌跡を辿る逆方向の光線を再生することで、その被写体のあった位置に被写体の三次元の像を再現させることができる。このようなIP技術を、例えばデジタルカメラや液晶ディスプレイなどを用いて電子的に実現したIP立体画像システムが提案されている。   As a full parallax image display system that enables viewpoint selection, for example, there is an IP (Integral Photography) stereoscopic image system. In IP technology, an image is taken through a lens array in which a large number of microlenses, such as insect compound eyes, are arranged, and a photographic plate on which a plurality of small subject images are formed is sandwiched by the photographic plate. Illuminate from a position opposite to the position of. Then, by reproducing the light beam in the reverse direction that follows the same locus as the light beam from the subject at the time of shooting toward the photographic plate, a three-dimensional image of the subject can be reproduced at the position where the subject is located. An IP stereoscopic image system that electronically realizes such IP technology using, for example, a digital camera or a liquid crystal display has been proposed.

IP立体画像システムにおいて、撮像と表示の処理はIPの基本的な原理を用いて実現される。IPでは、レンズアレイを通して撮像した情報を、同じくレンズアレイを通して表示する。IP立体画像システムは、基本的には、被写体の撮像を行うレンズアレイが前方に設置されたデジタルカメラと、被写体の像の再生を行う表面にレンズアレイが設置された液晶ディスプレイにより構成される。撮像時と再生時は、同じ光路を逆方向にたどるという光線再生の考え方で、撮像したときの被写体が同じ位置に3次元で実像として観察される。   In the IP stereoscopic image system, the imaging and display processes are realized using the basic principle of IP. In the IP, information captured through the lens array is also displayed through the lens array. The IP stereoscopic image system basically includes a digital camera in which a lens array for imaging a subject is installed in front, and a liquid crystal display in which a lens array is installed on a surface for reproducing an image of the subject. At the time of imaging and reproduction, the subject at the time of imaging is observed as a three-dimensional real image at the same position based on the concept of ray reproduction in which the same optical path is traced in the opposite direction.

ここで、従来の1段階式IPを用いた画像表示システムの例について、図18を参照して説明する。実物体62を撮影すると、図示しない撮像素子を備えた複数のフライアイレンズ61を備えた撮像板60に対して入力光線66が照射される。1つのフライアイレンズ61には複数の撮像素子が備えてあり、倒立した個眼像63を記録する。画像の再生時には、撮像板60を介して再生用照明光64を照射すると再生光線67が観察者65に届き、3次元画像として認識することができる。しかしながら、この1段階式IPでは、観察者65が観察を行う際に実物体62の裏側から見る形、いわばお面の裏側を覗くような形となってしまうため、3次元画像として適切な画像が得られるとは言い難い。   Here, an example of a conventional image display system using a one-stage IP will be described with reference to FIG. When the real object 62 is photographed, an input light beam 66 is applied to an imaging plate 60 including a plurality of fly-eye lenses 61 including an imaging element (not shown). One fly-eye lens 61 includes a plurality of image sensors, and records an inverted single-eye image 63. At the time of image reproduction, when the reproduction illumination light 64 is irradiated through the imaging plate 60, the reproduction light beam 67 reaches the observer 65 and can be recognized as a three-dimensional image. However, with this one-stage IP, the viewer 65 looks from the back side of the real object 62 when observing, in other words, looks like the back side of the surface, so that it is suitable as a three-dimensional image. Is hard to say.

この裏返しの問題を解決するために、再生像をもう一度IPに写しこむようにした2段階式IPを用いた画像表示システムの例について、図19を参照して説明する。2段階式IPを用いたIP立体画像システムでは、2つのIPを用いて3次元物体画像の撮影、表示を行うようにしている。すなわち、撮像板60aとフライアイレンズ61aで構成される第1のIPで実物体62の画像情報を入力光線66aを照射して撮像する。そして、第1のIPで撮影した画像情報を再生する際に第1IP再生用照明光64aを第1IP撮像板60aを介して照射する。第1IP再生光線67bは、撮影される実物体62で焦点を結んだ後、撮像板60bとフライアイレンズ61bで構成される第2のIPに照射して撮像する。そして、第2のIPで撮影した画像情報を再生する際に第2IP再生用照明光64bを第2IP撮像板60bを介して照射する。第2IP再生光線68は、撮影される実物体62で焦点を結んだ後、観察者65に届き、3次元画像として認識することができる。こうして、観察者は、第2のIP再生光線を観察すると裏返しの問題が起きない立体画像を認識することができると考えられる。   An example of an image display system using a two-stage IP in which a reconstructed image is once again copied to the IP in order to solve the problem of flipping will be described with reference to FIG. In an IP stereoscopic image system using a two-stage IP, a three-dimensional object image is captured and displayed using two IPs. That is, the image information of the real object 62 is imaged by irradiating the input light beam 66a with the first IP configured by the imaging plate 60a and the fly-eye lens 61a. Then, when reproducing the image information captured with the first IP, the first IP reproduction illumination light 64a is irradiated through the first IP imaging plate 60a. The first IP reconstructed light beam 67b is focused on the real object 62 to be photographed, and then irradiated to the second IP composed of the imaging plate 60b and the fly-eye lens 61b to capture an image. Then, when reproducing the image information captured with the second IP, the second IP reproduction illumination light 64b is irradiated through the second IP imaging plate 60b. The second IP reproduction light beam 68 is focused on the real object 62 to be photographed, and then reaches the observer 65 and can be recognized as a three-dimensional image. Thus, it is considered that the observer can recognize a stereoscopic image that does not cause the problem of turning over when the second IP reproduction light beam is observed.

特許文献1には、IP立体画像表示システムについての開示がある。
特開2002−296541号公報
Patent Document 1 discloses an IP stereoscopic image display system.
JP 2002-296541 A

従来、3次元入力技術は、既に存在している物体や地形を計測するために用いられており、3次元物体の形状を創作しながら入力するといった用途には向いていない。すなわち、2次元におけるペン入力式タブレットのように、図形を入力しながら視覚的に確認するという技術は3次元空間において存在しなかった。また、インテグラルフォトグラフィ、ホログラフィの技術では、撮影のシステムはフィルムやCCDカメラを用いており、表示のためのシステムとはかなり構成が異なる上、撮影・表示の共通化は行われていなかった。   Conventionally, the three-dimensional input technology has been used to measure an existing object or terrain, and is not suitable for an application of inputting while creating the shape of a three-dimensional object. That is, there is no technology in a three-dimensional space that visually confirms a figure as it is input, like a two-dimensional pen-input tablet. Also, in the integral photography and holography technologies, the filming system uses a film or a CCD camera, and the configuration is quite different from the display system, and there is no common shooting / display. .

例えば、従来の技術を用いて3次元物体情報の創造を行う場合、粘土などを用いて物体像を創作した後、既存の3次元入力技術を用いてこの物体をスキャンし、物体の座標情報等を読取らせなければならない。これは、2次元に置き換えれば、紙に図形を書いた後、スキャナに図形情報を読み取らせるのと同様の操作を行うことであり、ペン入力式タブレット等の入力装置に比べればあくまで代替手段に過ぎないと言える。そればかりか、3次元スキャナなどの非常に大掛りなシステムが必要であるため使い勝手があまりよくない。   For example, when creating three-dimensional object information using conventional technology, after creating an object image using clay or the like, this object is scanned using existing three-dimensional input technology, and the coordinate information of the object, etc. Must be read. This is a two-dimensional replacement. After writing a figure on paper, the scanner performs the same operation as reading the figure information. Compared to an input device such as a pen-input tablet, this is just an alternative. It can be said that it is not too much. Not only that, but a very large system such as a three-dimensional scanner is required, so it is not very convenient.

また、IP立体画像システムを実現するためには、撮影時の被写体からの光線と、再生時の逆方向の光線の軌跡を一致させる必要があるため、デジタルカメラとレンズアレイの位置関係を、ディスプレイとレンズアレイの位置関係として正確に再現することが要求される。従来の写真を目的としたIPではこのような2段階の撮影処理を行うため、レンズの歪みなどの問題が2重に起きてしまい、工作精度上は非常に難しいこと等から、第2のIPの原理どおりには実現されていない。その後、レンズアレイを内蔵したフィルムなど様々な試みがなされているが、工作精度や製造コストの問題もあり、いまだ提案の域を出ていない。   Also, in order to realize the IP stereoscopic image system, it is necessary to match the trajectory of the light beam from the subject at the time of photographing and the light beam in the reverse direction at the time of reproduction. It is required to accurately reproduce the positional relationship between the lens array and the lens array. In the conventional IP for the purpose of photography, such a two-step photographing process is performed, so that problems such as lens distortion occur twice, which is very difficult in terms of work accuracy. It is not realized according to the principle. Since then, various attempts have been made, such as a film incorporating a lens array. However, due to problems with work accuracy and manufacturing costs, the film has not yet been proposed.

従って、このような要求を満たす3次元撮影表示システムを実現するためには、技術的、コスト的な面でかなりの制約を受けてしまう。また、デジタルカメラとレンズアレイからなる撮像系の構成と、ディスプレイとレンズアレイからなる再生系の構成とを別々に用意する必要もあるため、コストがかかるだけでなく、システム構成が比較的大きくなってしまう。   Therefore, in order to realize a three-dimensional imaging display system that satisfies such requirements, there are considerable restrictions in terms of technology and cost. In addition, since it is necessary to prepare a configuration of an imaging system composed of a digital camera and a lens array and a configuration of a reproduction system composed of a display and a lens array, not only costs are increased, but the system configuration becomes relatively large. End up.

本発明はこのような状況に鑑みて成されたものであり、簡単に3次元空間上での入力表示操作を行うことを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to easily perform an input display operation in a three-dimensional space.

本発明は、複数のマイクロレンズを平面配置したレンズアレイ層と、マイクロレンズごとに複数の画素を平面配置し光線の取り込み及び表示を行う画素層とを有するディスプレイを用いて、入力及び表示を行う場合に、ディスプレイの画素層で取り込んだ信号により受光画像を得、受光処理部で得た画像をマイクロレンズごとの個眼像として生成し、マイクロレンズごとの個眼像から多視点2次元画像を生成し、多視点2次元画像より特徴的な形状を抽出し、特徴的な形状と入力画像認識用のテンプレートとを照合し、特徴点を選択し、個眼像から複数の個眼像を選択し、選択した複数の個眼像から特徴点の3次元座標を演算して、ディスプレイの表面近傍における3次元的な動き量を算出する処理を施し、ディスプレイの画素層の画素の表示駆動を行い、入力画像認識用のテンプレートを記憶部に記憶するものである。 The present invention performs input and display using a display having a lens array layer in which a plurality of microlenses are arranged in a plane, and a pixel layer in which a plurality of pixels are arranged in a plane for each microlens to capture and display light rays. In this case, a light-receiving image is obtained from a signal captured by the pixel layer of the display, and an image obtained by the light-receiving processing unit is generated as a single-eye image for each microlens. Generate and extract a characteristic shape from a multi-viewpoint two-dimensional image, collate the characteristic shape with a template for input image recognition, select a feature point, and select multiple single-eye images from a single-eye image and a table of pixels by calculating the 3-dimensional coordinates of the feature points from a plurality of single-eye image selected, subjected to a process for calculating the three-dimensional motion amount near the surface of the display, the display of the pixel layer Driving gastric row, and stores the template for the input image recognition in the storage unit.

このようにしたことで、ディスプレイ上の3次元空間において、入力と表示を同時に行える3次元画像を再現することができるようになった。   As a result, a three-dimensional image that can be input and displayed simultaneously can be reproduced in a three-dimensional space on the display.

本発明によれば、情報の入力と表示が一体化した3次元での立体像を表示可能なディスプレイを用いて、ディスプレイ上で立体像の入力と表示操作を同時に行うことが可能であるため、3次元空間における立体像の操作性を向上させるという効果がある。   According to the present invention, it is possible to simultaneously input and display a stereoscopic image on the display using a display capable of displaying a three-dimensional stereoscopic image in which information input and display are integrated. There is an effect of improving the operability of a three-dimensional image in a three-dimensional space.

以下、本発明の一実施の形態を、図1〜図17を参照して説明する。本実施の形態では、3次元空間上において3次元立体像の入力と表示操作が可能な3次元入力表示装置を例に説明する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In the present embodiment, a three-dimensional input display device capable of inputting and displaying a three-dimensional stereoscopic image in a three-dimensional space will be described as an example.

まず、本例の3次元入力表示装置の外部構成例について、図1を参照して説明する。3次元立体像の入力と表示操作が可能な入出力ディスプレイ1は、昆虫の複眼状のフライアイレンズと称されるマイクロレンズを多数配列させたマイクロレンズアレイと、それぞれのマイクロレンズに対して撮像表示素子を備える。入出力ディスプレイ1は、システム制御する情報処理装置10により、画像の撮像と表示の処理が行われる。入力ペン2aから発せられた入力光線4は、入出力ディスプレイ1のマイクロレンズアレイに照射され、情報が記録される。そして、再び撮像表示素子より発する再生光線5は、ペン先の軌跡3上で収束した後、発散する。このような構成を有する装置を3次元入力表示装置100とする。本例の3次元入力表示装置100は、ユーザが、入出力ディスプレイ1上の空間でペン先を発光させる入力ペン2aより、時系列にペン先の軌跡の座標情報として蓄積させ、蓄積した座標情報をペン先の軌跡3として表示させるアプリケーションを有する。また、この他に複数のアプリケーションを有しており、詳細については後述する。   First, an external configuration example of the three-dimensional input display device of this example will be described with reference to FIG. An input / output display 1 capable of inputting and displaying a three-dimensional stereoscopic image is a microlens array in which a number of microlenses called insect compound-eye fly-eye lenses are arrayed, and images are taken for each microlens. A display element is provided. The input / output display 1 performs image capturing and display processing by an information processing apparatus 10 that controls the system. The input light beam 4 emitted from the input pen 2a is applied to the microlens array of the input / output display 1 to record information. Then, the reproduction light beam 5 emitted from the imaging display element again converges on the locus 3 of the pen tip and then diverges. A device having such a configuration is referred to as a three-dimensional input display device 100. In the three-dimensional input display device 100 of this example, the user accumulates the coordinate information of the locus of the pen tip in time series from the input pen 2a that emits the pen tip in the space on the input / output display 1, and the accumulated coordinate information Is displayed as the locus 3 of the pen tip. In addition, it has a plurality of applications, and details will be described later.

次に、入出力ディスプレイ1の例について、図2を参照して説明する。入出力ディスプレイ1の表面部分にあたるディスプレイ表面1dは、マイクロレンズ層、隔壁層、画素層の3層構造としてある。被写体に対向する入出力ディスプレイ1の表面には、多数のマイクロレンズ1aを平面状に配置してレンズアレイとして構成するマイクロレンズ層を設ける。また、被写体の像が結像する撮像表示画素1cを画素層とし、マイクロレンズ層の間には、それぞれのマイクロレンズで集光された光線と、隣のマイクロレンズで集光された光線とが干渉することのないように隔壁1bが隔壁層として設けてある。   Next, an example of the input / output display 1 will be described with reference to FIG. A display surface 1d corresponding to the surface portion of the input / output display 1 has a three-layer structure of a microlens layer, a partition layer, and a pixel layer. On the surface of the input / output display 1 facing the subject, a microlens layer configured as a lens array is provided by arranging a large number of microlenses 1a in a planar shape. Further, the imaging display pixel 1c on which the subject image is formed is a pixel layer, and between the microlens layers, the light beam condensed by each microlens and the light beam condensed by the adjacent microlens are present. A partition wall 1b is provided as a partition layer so as not to interfere.

このような構成により、入出力ディスプレイ1では、多数のマイクロレンズそれぞれ越しに見た被写体の画像として、個眼像が得られる。なお、入出力ディスプレイパネル1の大きさは自由であり、レンズアレイの密度、パネルの画素密度が高いほど、高い座標検出精度と、高精細な映像が得られる。   With such a configuration, in the input / output display 1, a single-eye image is obtained as an image of a subject viewed through each of a large number of microlenses. The size of the input / output display panel 1 is arbitrary. The higher the lens array density and the panel pixel density, the higher the coordinate detection accuracy and the higher the resolution of the image.

次に、入出力ディスプレイ1に設けられる情報処理装置10の内部構成例について、図3のブロック図を参照して説明する。なお、情報処理装置10は、入出力ディスプレイ1と一体的に形成されるようにしてもよいし、別の筐体として形成されるようにしてもよい。   Next, an internal configuration example of the information processing apparatus 10 provided in the input / output display 1 will be described with reference to the block diagram of FIG. Note that the information processing apparatus 10 may be formed integrally with the input / output display 1 or may be formed as a separate housing.

情報処理装置10の各部、入出力ディスプレイ1の入力表示処理を制御するCPU(Central Processing Unit)13は、読み出し可能なROM(Read Only Memory)11に記憶されているプログラム、又は大容量記憶装置としてのハードディスクドライブ等で構成してある記憶部16から書き込み可能なRAM(Random Access Memory)12にロードされたプログラムに従って各種の処理を実行可能である。また、RAM12は、CPU13が各種の処理を実行する上で必要なデータ、パラメータ等を適宜格納する。   A CPU (Central Processing Unit) 13 that controls each unit of the information processing apparatus 10 and input display processing of the input / output display 1 is a program stored in a readable ROM (Read Only Memory) 11 or a mass storage device. Various processes can be executed in accordance with a program loaded in a RAM (Random Access Memory) 12 which can be written from the storage unit 16 constituted by a hard disk drive or the like. The RAM 12 appropriately stores data, parameters, and the like necessary for the CPU 13 to execute various processes.

ROM11、RAM12、CPU13は、バス25を介して相互に接続してあり、データ伝送を行う。また、バス25には、入出力ディスプレイ1、キーボード、マウス、入力ペン2a等の入力処理を行う入力部14、スピーカ等の出力処理を行う出力部15、記憶部16、図示しない外部端末との通信インタフェースとして通信を行う通信部17とも接続してある。また、必要に応じてドライブ50が、バス25に接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等の取り外し可能な記憶メディア19が適宜装着され、記憶メディア19から読み出されたプログラムが必要に応じて記憶部16に複写、インストールされる。   The ROM 11, RAM 12, and CPU 13 are connected to each other via a bus 25 and perform data transmission. In addition, the bus 25 is connected to the input / output display 1, the keyboard, the mouse, the input pen 2 a and the like input unit 14, the speaker and the like output unit 15, the storage unit 16, and an external terminal (not shown). It is also connected to a communication unit 17 that performs communication as a communication interface. Further, if necessary, a drive 50 is connected to the bus 25, and a removable storage medium 19 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a program read from the storage medium 19 is read. Are copied and installed in the storage unit 16 as necessary.

画像撮像時には、撮像処理を行う受光駆動部21により被写体の撮像を行う。この撮像情報は基本的には1秒間に30枚以上の動画情報とする。受光駆動部21には撮像領域を設定する撮像領域設定部22が構成してあり、撮像を行わせる画素に対して例えば0V近傍の電圧を印加し、その画素により撮像領域を形成する。ここで、撮像動作を行っている被写体の1つの像が結像する所定の数の画素で構成される領域を「撮像領域」という。そして、受光駆動部21は、入出力ディスプレイ1の撮像表示画素のうち、撮像動作を行っている画素からの出力を検出することで、それぞれの画素に対して外部から光が照射されているか否かの照射の有無と、光の量を検出する。受光駆動部21の検出機能による検出結果(画素値)は個眼像生成部23に出力される。   At the time of image capturing, the subject is imaged by the light receiving drive unit 21 that performs image capturing processing. This imaging information is basically 30 or more pieces of moving image information per second. The light receiving drive unit 21 includes an imaging region setting unit 22 that sets an imaging region. A voltage in the vicinity of, for example, 0 V is applied to a pixel to be imaged, and the imaging region is formed by the pixel. Here, an area composed of a predetermined number of pixels on which one image of a subject performing an imaging operation is formed is referred to as an “imaging area”. And the light reception drive part 21 detects the output from the pixel which is performing imaging operation among the imaging display pixels of the input-output display 1, and is whether each pixel is irradiated with the light from the outside The presence or absence of such irradiation and the amount of light are detected. The detection result (pixel value) by the detection function of the light receiving drive unit 21 is output to the single eye image generation unit 23.

受光駆動部21から供給される検出結果に基づいて、各画素の画素値を合成してマイクロレンズごとの像として個眼像を生成する個眼像生成部23により生成された個眼像の画像データは、それぞれの個眼像の画像処理を行う画像処理部40に供給される。   Based on the detection result supplied from the light receiving drive unit 21, a single-eye image generated by the single-eye image generation unit 23 that combines the pixel values of the pixels to generate a single-eye image as an image for each microlens. The data is supplied to an image processing unit 40 that performs image processing of each individual eye image.

例えば、画像処理部40は、撮像された個眼像をそのまま表示した場合、再現される立体像は、その奥行き、すなわち、凹凸が逆転した像になることから、それを正立像に変換する処理を行う。なお、凹凸が逆転した像になるのは、被写体の右側から撮像した像を、左側から観察者が観察することになるからである。画像処理部40で実行されるアプリケーションごとの処理の詳細については後述する。   For example, when the captured single-eye image is displayed as it is, the image processing unit 40 converts the reproduced stereoscopic image into an erect image because its depth, that is, an image with the concavities and convexities reversed. I do. The reason why the image is reversed is that the image observed from the right side of the subject is observed by the observer from the left side. Details of processing for each application executed by the image processing unit 40 will be described later.

画像表示時には、画像処理部40から、個眼像の画像データに基づいて表示動作を行っている画素に個眼像を表示させる表示駆動部31に処理した画像データを供給する。ここで個眼像が表示される領域は、個眼像の撮像が行われた入出力ディスプレイ1の領域に対応する位置の領域となる。ここで、表示動作を行っている被写体の1つの像を表示する所定の数の画素で構成される領域を「表示領域」という。表示駆動部31内の表示領域を設定する表示領域設定部32は、入出力ディスプレイ1の画素の駆動を制御し、表示を行わせる画素に対して正方向の電圧を印加し、その画素により表示領域を形成する。そして、所定のレンズアレイ数分だけ画像の表示を行う。   At the time of image display, the processed image data is supplied from the image processing unit 40 to the display driving unit 31 that displays the single-eye image on the pixel performing the display operation based on the single-eye image data. Here, the area where the single-eye image is displayed is an area at a position corresponding to the area of the input / output display 1 where the single-eye image is captured. Here, an area composed of a predetermined number of pixels for displaying one image of the subject performing the display operation is referred to as a “display area”. A display area setting unit 32 that sets a display area in the display drive unit 31 controls driving of the pixels of the input / output display 1, applies a positive voltage to the pixels to be displayed, and displays by the pixels. Form a region. Then, an image is displayed for the predetermined number of lens arrays.

なお、撮像した画像データを通信部17を介して通信回線により伝送させる場合は、所定の圧縮処理を行って情報量を減少させる。この場合、それぞれの個眼像は非常に似通ったものであることから、例えば、ある位置で取得された基準となる1つの個眼像を中心として、周りの位置で取得された5×5個などの所定の数の個眼像を1つのグループとする。その基準となる個眼像については、JPEG(Joint Photographic Expert Group)方式などで圧縮された1つの画像全体の画像データを送信し、他の24個の個眼像については、基準となる個眼像との差分のデータのみ送信するようにして画像データの圧縮を行う。なお、撮像した画像データ、複数の個眼像、画像認識用のテンプレート等は、伝送時における圧縮処理と同様の処理を行って記憶部16、又は記憶メディア19に保存し、随時取り出すこともできる。   When the captured image data is transmitted via a communication line via the communication unit 17, a predetermined compression process is performed to reduce the amount of information. In this case, since each individual eye image is very similar, for example, 5 × 5 images acquired at surrounding positions around a single eye image serving as a reference acquired at a certain position. A predetermined number of single-eye images such as. For the single eye image serving as the reference, image data of one entire image compressed by JPEG (Joint Photographic Expert Group) method or the like is transmitted, and for the other 24 single eye images, the single eye image serving as the reference. The image data is compressed by transmitting only the difference data from the image. The captured image data, a plurality of single-eye images, a template for image recognition, and the like can be stored in the storage unit 16 or the storage medium 19 by performing the same processing as the compression processing at the time of transmission, and can be taken out at any time. .

次に、入出力ディスプレイ1を構成する撮像表示画素の構成例と入力表示処理の例について、図4〜図6を参照して説明する。図4及び図5は、入出力ディスプレイ1を構成する撮像表示画素1cの構成例を示す。本例の入出力ディスプレイ1は、それぞれの画素にスイッチング手段としてのTFT(Thin Film Transistor)41と、発光素子としてのEL(Electro Luminescence)素子44が設けてあり、自発光型のELディスプレイに適用した例としてある。   Next, a configuration example of the imaging display pixels constituting the input / output display 1 and an example of input display processing will be described with reference to FIGS. 4 and 5 show a configuration example of the imaging display pixel 1c constituting the input / output display 1. FIG. The input / output display 1 of this example is provided with a TFT (Thin Film Transistor) 41 as a switching means and an EL (Electro Luminescence) element 44 as a light emitting element in each pixel, and is applied to a self-luminous EL display. As an example.

まず、撮像表示画素1cの構成例について図4を参照して説明する。撮像表示画素は、TFT41とEL素子44で構成される。TFT41のソース電極Sには、ソース電流を供給するソース線42が接続してあり、TFT41のゲート電極Gにはゲート電流を供給するゲート線43が接続してある。また、TFT41のドレイン電極DにはEL素子44が接続してあり、さらにEL素子44に対向電極45が接続してある。   First, a configuration example of the imaging display pixel 1c will be described with reference to FIG. The imaging display pixel includes a TFT 41 and an EL element 44. A source line 42 that supplies a source current is connected to the source electrode S of the TFT 41, and a gate line 43 that supplies a gate current is connected to the gate electrode G of the TFT 41. An EL element 44 is connected to the drain electrode D of the TFT 41, and a counter electrode 45 is connected to the EL element 44.

このように構成される撮像表示画素1cの画像入力時の処理例について、図4を参照して説明する。TFT41のゲート電極Gに、0V近傍か又は逆方向の電圧が印加された場合、ソース電極Sに電圧が印加されているときでもチャネル中を電流が流れない。この状態で、マイクロレンズにより集光された外部からの入力光線47aがTFT41を照射したとき、TFT41のチャネルの光伝導性により、微量ではあるがドレイン電極Dからソース電極S方向にリーク電流(オフ電流)46aが発生する。また、同様に、EL素子44においてもリーク電流が発生する。このことから、0V近傍か又は逆方向の電圧を印加した画素(TFT41、EL素子44)が発生するリーク電流46aを増幅してその有無を検出することによって、その画素に対して外部から光が照射されているのか否かを識別することが可能になる。また、リーク電流の量によって、光の量も識別することが可能になる。RGBのそれぞれの画素(Rを発光するEL素子44が設けられている画素、Gを発光するEL素子44が設けられている画素、Bを発光するEL素子44が設けられている画素)によりRGBそれぞれの光の有無と量が識別されることになるため、撮像領域を構成する全ての画素の出力を合成することによって、カラーの被写体の個眼像を得ることが可能となる。   A processing example at the time of image input of the imaging display pixel 1c configured as described above will be described with reference to FIG. When a voltage in the vicinity of 0 V or in the reverse direction is applied to the gate electrode G of the TFT 41, no current flows through the channel even when a voltage is applied to the source electrode S. In this state, when the input light beam 47a collected from the outside by the microlens irradiates the TFT 41, a leak current (off) from the drain electrode D to the source electrode S is traced due to the photoconductivity of the channel of the TFT 41. Current) 46a is generated. Similarly, a leak current also occurs in the EL element 44. Therefore, by amplifying the leakage current 46a generated by the pixel (TFT 41, EL element 44) applied with a voltage in the vicinity of 0V or in the reverse direction and detecting the presence or absence, light is externally applied to the pixel. It becomes possible to identify whether or not it is irradiated. Further, the amount of light can be identified by the amount of leakage current. Each RGB pixel (a pixel provided with an EL element 44 that emits R, a pixel provided with an EL element 44 that emits G, and a pixel provided with an EL element 44 that emits B) provides RGB. Since the presence / absence and amount of each light are identified, it is possible to obtain a single-eye image of a color subject by combining the outputs of all the pixels constituting the imaging region.

撮像表示画素1cの画像表示時の処理例について、図5を参照して説明すると、TFT41のゲート電極Gに正方向の電圧(バイアス電圧)が印加されたとき、図5の実線矢印46bで示すように、ソース電極Sに印加された電圧に応じて、アルファモスシリコン又はポリシリコンからなる活性半導体層(チャネル)中を、ソース電極Sからドレイン電極D方向に電流が流れる。TFT41のドレイン電極DにはEL素子44のアノード電極が接続されており、TFT41のチャネル中を電流46bが流れることにより生じるアノード−カソード電極間(ドレイン電極Dが接続されている電極と対向電極45の間)の電位差に応じてEL素子44が発光する。そして、EL素子44からの再生光線47bが入出力ディスプレイ1上の隔壁層、マイクロレンズ層を介して入出力ディスプレイ1の外部に出射され画像の表示が行われる。   A processing example at the time of displaying an image of the imaging display pixel 1c will be described with reference to FIG. 5. When a positive voltage (bias voltage) is applied to the gate electrode G of the TFT 41, it is indicated by a solid line arrow 46b in FIG. Thus, according to the voltage applied to the source electrode S, a current flows in the direction from the source electrode S to the drain electrode D in the active semiconductor layer (channel) made of alpha moss silicon or polysilicon. The anode electrode of the EL element 44 is connected to the drain electrode D of the TFT 41, and the anode-cathode electrode generated when the current 46 b flows through the channel of the TFT 41 (the electrode to which the drain electrode D is connected and the counter electrode 45). The EL element 44 emits light according to the potential difference. Then, the reproduction light beam 47b from the EL element 44 is emitted to the outside of the input / output display 1 through the partition layer and the microlens layer on the input / output display 1, and an image is displayed.

以上から、印加する電圧を制御することにより、1つの画素(TFT41)に表示動作と撮像動作(入力動作)を選択的に行わせることができることが分かる。また、図4及び図5で構成される画素は、例えば0V近傍の電圧が印加された状態で外部から光が照射された場合、TFT11に加えて、EL素子44が発生するリーク電流も検出されるから、外部からの光に対して感度が高いといえる。   From the above, it can be seen that a display operation and an imaging operation (input operation) can be selectively performed by one pixel (TFT 41) by controlling the applied voltage. 4 and 5, for example, when light is applied from the outside in a state where a voltage of about 0 V is applied, a leak current generated by the EL element 44 is also detected in addition to the TFT 11. Therefore, it can be said that the sensitivity to external light is high.

次に、光が照射されている場合と、照射されていない場合のTFT41のドレイン電流Idの値の測定例について、図6を参照して説明する。図6は、図4と図5に示す画素で生じた電流の測定値の例を示す説明図である。縦軸は画素中の電流を表し、横軸はゲート電極Gに印加した電圧を表す。   Next, measurement examples of the value of the drain current Id of the TFT 41 when light is irradiated and when not irradiated will be described with reference to FIG. FIG. 6 is an explanatory diagram illustrating an example of measured values of current generated in the pixels illustrated in FIGS. 4 and 5. The vertical axis represents the current in the pixel, and the horizontal axis represents the voltage applied to the gate electrode G.

計測結果を表す線L1は、正方向の電圧が印加された状態で光が照射されたときに画素から検出される電流(TFT41のチャネル中を流れる電流と、EL素子44中を流れる電流)の値を示しており、線L2は、正方向の電圧が印加された状態で光が照射されていないときに画素で発生された電流の値を示している。線L1,L2により、正方向の電圧が印加されている場合は、外部からの光の有無に関わらず、検出される電流値には差がみられない。   A line L1 representing the measurement result is a current detected from the pixel when a light is applied with a positive voltage applied (current flowing in the channel of the TFT 41 and current flowing in the EL element 44). A line L2 indicates a value of a current generated in the pixel when light is not irradiated in a state where a positive voltage is applied. When a positive voltage is applied by the lines L1 and L2, there is no difference in the detected current value regardless of the presence or absence of light from the outside.

一方、計測結果を表す線L3は、逆方向の電圧が印加されている状態で外部から光が照射されたときに、その画素が発生した電流の値を表しており、線L4は、逆方向の電圧が印加されている状態で外部から光が照射されていないときに、その画素が発生した電流の値を表している。線L3と線L4を比較してわかるように、逆方向の電圧が印加されている場合、外部から光が照射されたときと、照射されていないときとで、その画素が発生する電流に差が生じている。例えば、約−5ボルトの電圧(逆方向の電圧)が印加されている状態において、外部から所定の光量の光が照射された場合、「1E−8(A)」程度の電流(TFTの活性半導体層中において発生した電流と、EL素子が発生した電流)が発生する。   On the other hand, the line L3 representing the measurement result represents the value of the current generated by the pixel when light is irradiated from the outside in a state where a reverse voltage is applied, and the line L4 is the reverse direction. This represents the value of the current generated by the pixel when light is not irradiated from the outside in the state in which the voltage is applied. As can be seen by comparing the line L3 and the line L4, when a reverse voltage is applied, there is a difference in the current generated by the pixel when the light is irradiated from the outside and when the light is not irradiated. Has occurred. For example, when a predetermined amount of light is irradiated from the outside in a state where a voltage of about −5 volts (reverse voltage) is applied, a current of about “1E-8 (A)” (the activity of the TFT) Current generated in the semiconductor layer and current generated by the EL element).

図6においては、外部から光が照射されていない場合であっても、「1E−10(A)」程度の微小な電流が発生していることが線L4により示されているが、これは計測中のノイズによるものである。なお、RGBのうちのいずれの色を発光するEL素子であっても、図6に示すものとほぼ同様の計測結果が得られる。従って、0V近傍の電圧が印加されている状態でも、発生した電流を増幅させることで、この差、すなわち、光が照射されているか否かの検出が可能となる。   In FIG. 6, a line L4 indicates that a minute current of “1E-10 (A)” is generated even when no light is irradiated from the outside. This is due to noise during measurement. In addition, even if it is EL element which light-emits any color among RGB, the measurement result substantially the same as what is shown in FIG. 6 is obtained. Therefore, even when a voltage in the vicinity of 0 V is applied, it is possible to detect this difference, that is, whether or not light is irradiated, by amplifying the generated current.

このことから、意識的に逆方向の電圧を印加することなく、ゲート電圧が0V近傍の値になるように制御することで、ある画素に撮像動作を行わせることができる。そして、ゲート電圧が0V近傍の値になるように制御して撮像動作を行わせることにより、逆方向の電圧を印加してその動作を行わせる場合に較べて、逆方向の電圧の分だけ消費電力を抑えることができる。   Therefore, it is possible to cause a certain pixel to perform an imaging operation by controlling the gate voltage to be a value in the vicinity of 0 V without intentionally applying a reverse voltage. Then, by controlling the gate voltage to be a value near 0V and performing the imaging operation, compared to the case where the operation is performed by applying the reverse voltage, the amount of the reverse voltage is consumed. Power can be reduced.

また、制御する電圧の数が少なくなるため、その制御、さらにはシステム構成が容易になる。すなわち、ゲート電圧が0V近傍の値になるように制御することは、正方向の電圧が印加されないように制御することでもあるから、正方向の電圧が印加されるようにゲート電圧を制御する制御線や電源回路だけをもって実現することができる(逆方向の電圧が印加されるようにゲート電圧を制御する制御線を別に設ける必要がない)。   Further, since the number of voltages to be controlled is reduced, the control and the system configuration are facilitated. In other words, the control to control the gate voltage so that the positive voltage is applied since the control so that the gate voltage becomes a value near 0V is also the control so that the positive voltage is not applied. It can be realized with only a line and a power supply circuit (there is no need to provide a separate control line for controlling the gate voltage so that a reverse voltage is applied).

これにより、入出力ディスプレイ1の駆動基板やシステム基板上から電源回路の構成を簡略化することができ、低消費電力化を実現することができるだけでなく、それらの基板上の限られたスペースの効率的な利用も実現することができる。   As a result, it is possible to simplify the configuration of the power supply circuit from the drive board or system board of the input / output display 1 and realize low power consumption as well as the limited space on those boards. Efficient use can also be realized.

さらに、逆方向の電圧を印加しないようにすることにより、逆方向の電圧を印加したときに生じることのあるTFT41やEL素子44の破壊を回避することができる。例えば、チャネル長(L長)を長くすることでTFT41の耐電圧性を高めることができるが、この場合、オン時(導通時)の電流が下がってしまい、十分な電流を確保するためには、チャネル幅(W長)を大きくする必要がある。この結果、TFT41を流れる電流値を変えることなく耐電圧性を高めるためには、1つのTFT41のサイズを大きくする必要があり、各画素のサイズが小さい高精細なディスプレイの各画素に、そのTFT41を配置することが困難となる。   Further, by not applying the reverse voltage, it is possible to avoid the destruction of the TFT 41 and the EL element 44 that may occur when the reverse voltage is applied. For example, the withstand voltage of the TFT 41 can be improved by increasing the channel length (L length), but in this case, the current at the time of on (conduction) decreases, and in order to secure a sufficient current The channel width (W length) needs to be increased. As a result, in order to increase the withstand voltage without changing the current value flowing through the TFT 41, it is necessary to increase the size of one TFT 41, and to each pixel of a high-definition display with a small size of each pixel, the TFT 41 It becomes difficult to arrange.

従って、逆方向の電圧をなくすことで、TFT41やEL素子44の耐圧設計が容易になり、かつ、TFT41やEL素子44そのもののサイズを小さくすることができ、これにより、高精細なディスプレイを実現することが可能になる。   Therefore, by eliminating the reverse voltage, the withstand voltage design of the TFT 41 and EL element 44 can be facilitated, and the size of the TFT 41 and EL element 44 itself can be reduced, thereby realizing a high-definition display. It becomes possible to do.

以上のように、入出力ディスプレイ1を構成する各画素に少なくともTFT41が設けられている場合、0V近傍か、それより逆方向の電圧を印加することによって、画素を用いて撮像を行うことが可能になる。   As described above, when at least the TFT 41 is provided in each pixel constituting the input / output display 1, it is possible to perform imaging using the pixel by applying a voltage in the vicinity of 0V or in the opposite direction. become.

例えば、入出力ディスプレイ1の全ての画素に撮像動作を行わせることによって、マイクロレンズの数だけ(撮像領域の数だけ)、それぞれの位置を視点としたときの被写体の像が得られる。   For example, by causing all of the pixels of the input / output display 1 to perform an imaging operation, an image of the subject can be obtained with the number of microlenses (the number of imaging regions) and the respective positions as viewpoints.

次に、入出力ディスプレイ1の一領域の表示例について、図7を参照して説明する。図7は、図2の隔壁1bにより囲まれる撮像表示画素1cが複数個で構成する1つの領域の例を示す平面図である。この1つの領域は、例えば、15×15個の撮像表示画素1c(RGBの3つのサブ画素を1組とした画素(15×3×15個のサブ画素))から構成される。このように、15×15個の撮像表示画素1cから構成される1つの領域の前方(被写体側)に1つのマイクロレンズ1aが設けられているため、この15×15個の撮像表示画素1cの領域に、光軸を中心として180度回転した被写体50の像が結像する。   Next, a display example of one area of the input / output display 1 will be described with reference to FIG. FIG. 7 is a plan view showing an example of one region formed by a plurality of imaging display pixels 1c surrounded by the partition wall 1b of FIG. This one area is composed of, for example, 15 × 15 imaging display pixels 1c (pixels each including three RGB sub-pixels (15 × 3 × 15 sub-pixels)). As described above, since one microlens 1a is provided in front of one area composed of 15 × 15 imaging display pixels 1c (subject side), the 15 × 15 imaging display pixels 1c An image of the subject 50 rotated 180 degrees around the optical axis is formed in the region.

このように、入出力ディスプレイ1においては、表示だけでなく、撮像、すなわちマイクロレンズ1aにより集光された光の検出もそれぞれの撮像表示画素1cにより行われる。なお、図7では、1つの個眼像を15×15個の画素を用いて撮像するとしたが、画素はこれに限定されるものではなく、これ以上の画素数で撮像が行われるようにしてもよい。また、1つのマイクロレンズ1aに対して割り当てられる撮像表示画素1cの数を多くするほど、解像度の高い被写体の像を得ることができる。   As described above, in the input / output display 1, not only display but also imaging, that is, detection of light collected by the microlens 1a is performed by each imaging display pixel 1c. In FIG. 7, one single-eye image is captured using 15 × 15 pixels. However, the pixels are not limited to this, and imaging is performed with a larger number of pixels. Also good. Further, as the number of imaging display pixels 1c assigned to one microlens 1a is increased, a higher-resolution subject image can be obtained.

次に、入出力ディスプレイ1の撮像動作と表示動作とが実行される状態について図8を参照して説明する。図8は、各画素の動作の例について示す説明図である。   Next, a state in which the imaging operation and the display operation of the input / output display 1 are executed will be described with reference to FIG. FIG. 8 is an explanatory diagram showing an example of the operation of each pixel.

本例の入出力ディスプレイ1においては、第Y1行目から第Y1−y1行目までの画素全体により表示動作が行われ、第Y2行目から第Y2−y2行目までの画素全体により撮像動作が行われる。ここで、表示動作、撮像動作を行わせる対象の行をそれぞれ表示動作行1e、撮像動作行1fとする。表示動作行1e、撮像動作行1fが、1フレーム毎に、第Y行目、第Y+1行目、第Y+2行目、・・・といったように入出力ディスプレイ1の上から下に順次切り替えられる。そして、切り替えられた対象行が、入出力ディスプレイ1の下端の行に達したら、上端の行から再びその切り替え処理を繰り返す。 In the input / output display 1 of this example, the display operation is performed by the entire pixels from the Y 1st row to the Y 1 -y 1st row, and from the Y 2nd row to the Y 2 -y 2nd row. The imaging operation is performed by all the pixels. Here, it is assumed that the target rows on which the display operation and the imaging operation are performed are a display operation row 1e and an imaging operation row 1f, respectively. The display operation line 1e and the imaging operation line 1f are sequentially switched from the top to the bottom of the input / output display 1, such as the Yth line, the Y + 1th line, the Y + 2th line,. When the switched target row reaches the lowermost row of the input / output display 1, the switching process is repeated again from the uppermost row.

つまり、1フレーム内において、撮像動作行1fに含まれる画素全体により撮像動作が行われると同時に、撮像動作を行っている画素と異なる表示動作行1eに含まれる画素全体により表示動作が行われるように、各画素の動作が制御される。こうすることにより、所定のフレーム数の表示(撮像)期間を見た場合、入出力ディスプレイ1を構成する全ての撮像表示画素1cにより撮像と表示が行われることになる。   That is, in one frame, the imaging operation is performed by the entire pixels included in the imaging operation row 1f, and at the same time, the display operation is performed by the entire pixels included in the display operation row 1e different from the pixels performing the imaging operation. In addition, the operation of each pixel is controlled. Thus, when a display (imaging) period of a predetermined number of frames is seen, imaging and display are performed by all the imaging display pixels 1c constituting the input / output display 1.

これにより、マイクロレンズ1aの数だけ、それぞれの位置を視点としたときの被写体の像が得られる。また、マイクロレンズ1aの数だけ、個眼像を表示し、立体像の再現が行われるようになる。   As a result, as many microlens 1a as the number of microlenses 1a can be obtained, and an image of the subject can be obtained with each position as a viewpoint. In addition, a single-eye image is displayed by the number of microlenses 1a, and a three-dimensional image is reproduced.

ここで、例えば入出力ディスプレイ1の上端から下端までを、例えば30Hz,60Hz等の周期で表示動作行1eと撮像動作行1fを切り替えるようにする。撮像動作行1fの撮像表示画素は画像を表示しないが、走査周期が短いため、撮像動作する画素の存在をユーザに認識させることがない。このようにして、入出力ディスプレイ1により、被写体の撮像と、撮像した画像に基づく立体像の再現が行われる。   Here, for example, the display operation line 1e and the imaging operation line 1f are switched from the upper end to the lower end of the input / output display 1 at a cycle of, for example, 30 Hz and 60 Hz. The imaging display pixels in the imaging operation row 1f do not display an image, but since the scanning cycle is short, the presence of pixels that perform imaging operations is not recognized by the user. In this manner, the input / output display 1 captures a subject and reproduces a stereoscopic image based on the captured image.

次に、情報処理装置10の撮像と表示の処理について図9及び図10のフローチャートを参照して説明する。なお、図9の撮像処理と、図10の表示処理は並列的に行われる。まず、情報処理装置10の撮像処理について、図9のフローチャートを参照して説明する。   Next, imaging and display processing of the information processing apparatus 10 will be described with reference to the flowcharts of FIGS. 9 and 10. Note that the imaging process of FIG. 9 and the display process of FIG. 10 are performed in parallel. First, imaging processing of the information processing apparatus 10 will be described with reference to a flowchart of FIG.

受光駆動部21の撮像領域設定部22は、撮像動作を行わせる入出力ディスプレイ1の撮像表示画素1cに対して、例えば0V近傍の電圧を印加し、撮像領域を設定する(ステップS1)。そして、受光駆動部21は被写体の撮像を行う(ステップS2)。すなわち、入出力ディスプレイ1の画素のうち、撮像動作を行っている撮像表示画素1cからの出力を検出し、その画素に対して外部から光が照射されているか否か、および光の量を検出する。検出結果である画素値は個眼像生成部23に出力される。   The imaging region setting unit 22 of the light receiving drive unit 21 applies a voltage, for example, in the vicinity of 0 V to the imaging display pixel 1c of the input / output display 1 that performs the imaging operation, and sets the imaging region (step S1). Then, the light receiving drive unit 21 images the subject (step S2). That is, the output from the imaging display pixel 1c performing the imaging operation among the pixels of the input / output display 1 is detected, and whether or not the light is irradiated from the outside and the amount of the light is detected. To do. The pixel value that is the detection result is output to the single image generator 23.

個眼像生成部23は、受光駆動部21から供給されてくる検出結果に基づいて個眼像を生成する(ステップS3)。生成された個眼像の画像データは画像処理部40に出力される。画像処理部40は、個眼像生成部23から供給されてくる画像データに基づいて、それぞれの個眼像に対して所定の画像処理を行う(ステップS4)。   The single-eye image generation unit 23 generates a single-eye image based on the detection result supplied from the light receiving drive unit 21 (step S3). The generated single-eye image data is output to the image processing unit 40. The image processing unit 40 performs predetermined image processing on each single-eye image based on the image data supplied from the single-eye image generation unit 23 (step S4).

以上の処理を繰り返し、撮像領域を構成する画素が順次切り替えることで、入出力ディスプレイ1上の複数の点を視点とした被写体の個眼像が得られる。   By repeating the above processing and sequentially switching the pixels constituting the imaging region, a single eye image of a subject with a plurality of points on the input / output display 1 as viewpoints can be obtained.

次に、立体像を再現する情報処理装置10の表示処理について、図10のフローチャートを参照して説明する。   Next, display processing of the information processing apparatus 10 that reproduces a stereoscopic image will be described with reference to the flowchart of FIG.

まず、表示領域設定部32は、表示動作を行わせる入出力ディスプレイ1の撮像表示画素1cに対して正方向の電圧を印加し、表示領域を設定する(ステップS11)。表示領域は、図9で設定される撮像領域と異なる位置に設定される。表示駆動部31は、バッファとしてのRAM12に記憶されている画像データに基づいて、表示領域を構成する画素に個眼像を表示させる(ステップS12)。画像データを取り出す際は、RAM12以外に、記憶部16、取り外し可能な記憶メディア19、又は通信部17を介して通信回線から取得した画像を再現することも可能である。   First, the display area setting unit 32 applies a voltage in the positive direction to the imaging display pixel 1c of the input / output display 1 that performs the display operation, and sets the display area (step S11). The display area is set at a position different from the imaging area set in FIG. Based on the image data stored in the RAM 12 as a buffer, the display driving unit 31 displays a single eye image on the pixels constituting the display area (step S12). When extracting the image data, it is possible to reproduce an image acquired from the communication line via the storage unit 16, the removable storage medium 19, or the communication unit 17 in addition to the RAM 12.

以上の処理を繰り返し、入出力ディスプレイ1の表示領域を構成する撮像表示画素1cを順次切り替えて、撮像した被写体の立体画像が再現される。   The above processing is repeated, and the imaging display pixels 1c constituting the display area of the input / output display 1 are sequentially switched to reproduce the captured stereoscopic image of the subject.

次に、本例の入出力ディスプレイ1で操作可能な3種類のアプリケーションの例について、図11〜図17を参照して説明する。本例では、3次元ポインタ、3次元描画、立体CG(Computer Graphics)図形操作のアプリケーションについて説明する。本例の3次元入力表示装置100では、目的とするアプリケーションにより、必要な処理が異なる。   Next, examples of three types of applications that can be operated on the input / output display 1 of this example will be described with reference to FIGS. In this example, an application for a three-dimensional pointer, three-dimensional drawing, and stereoscopic CG (Computer Graphics) graphic operation will be described. In the three-dimensional input display device 100 of this example, necessary processing differs depending on the target application.

まず、3次元ポインタのアプリケーションについて、図11を参照して説明する。図11より、3次元ポインタを用いる際には、先端から発光するペン状の入力部として入力ペン2aを用いて入出力ディスプレイ1上の空間に描画した3次元画像を入出力ディスプレイ1で撮像し、撮像した画像を入力画像取得部40aで取り込む。なお、図11において、撮像と表示に関わる入出力ディスプレイ1と画像処理部40間の処理ブロックは、図3で既に説明したため、処理ブロックの記載を省略する。   First, a three-dimensional pointer application will be described with reference to FIG. As shown in FIG. 11, when using the three-dimensional pointer, the input / output display 1 captures a three-dimensional image drawn in the space on the input / output display 1 using the input pen 2a as a pen-shaped input unit that emits light from the tip. The captured image is captured by the input image acquisition unit 40a. In FIG. 11, since the processing blocks between the input / output display 1 and the image processing unit 40 related to imaging and display have already been described with reference to FIG. 3, description of the processing blocks is omitted.

そして、撮像した入力画像から光源の3次元座標を求める処理を行う。ところで、取り込んだ3次元画像から3次元座標を求める際、マイクロレンズの光軸ずれ、光軸倒れ、レンズ歪み等が正確な座標算出を妨げる要因となるため事前に補正を行う必要がある。このため、初期設定として入力画像取得部40aで取得した入力画像を、RAM12のレンズ歪みテーブルに補正値として格納する。そして、3次元座標の演算を行う3次元座標演算部40cでレンズ歪みテーブルの補正値を用いて座標演算を行う。なお、レンズ歪みテーブルを記憶部16に格納して補正値を随時読み出すようにすることもできる。レンズ歪みテーブルを一度作成しておくと、光源の3次元座標を、複数の個眼像から得られた画像により三角測量の原理で求めることができる。   And the process which calculates | requires the three-dimensional coordinate of a light source from the imaged input image is performed. By the way, when obtaining the three-dimensional coordinates from the captured three-dimensional image, it is necessary to perform correction in advance because the optical axis shift of the micro lens, the optical axis tilt, the lens distortion, and the like impede accurate coordinate calculation. Therefore, the input image acquired by the input image acquisition unit 40a as an initial setting is stored as a correction value in the lens distortion table of the RAM 12. Then, the coordinate calculation is performed using the correction value of the lens distortion table in the three-dimensional coordinate calculation unit 40c that calculates the three-dimensional coordinates. The lens distortion table can be stored in the storage unit 16 so that the correction value can be read out as needed. Once the lens distortion table is created, the three-dimensional coordinates of the light source can be determined by the principle of triangulation using images obtained from a plurality of single-eye images.

そして、入力画像のコントラスト強調処理、時間方向での画像重ね合わせ処理を行う出力画像加工部40dで所定の画像処理を行う。このような画像処理を施した後、3次元ポインタ、3次元描画像を生成する画像出力部40eから入出力ディスプレイ1に画像を供給して入出力ディスプレイ1上に画像を再現させる。出力画像に関しては、基本的にレンズの光軸ずれ(ばらつき)、光軸倒れ、レンズ歪みなどを考慮する必要はない。これは、入力時の光路と、表示時の光路が同じであれば、入力に用いた光源とまさに同じ場所に、表示による仮想光源(実像)が生成されるためである。   Then, predetermined image processing is performed by the output image processing unit 40d that performs contrast enhancement processing of the input image and image overlay processing in the time direction. After performing such image processing, an image is supplied to the input / output display 1 from the image output unit 40e that generates a three-dimensional pointer and a three-dimensional drawing image, and the image is reproduced on the input / output display 1. With respect to the output image, basically, there is no need to consider the optical axis shift (variation) of the lens, the optical axis tilt, the lens distortion, and the like. This is because, if the optical path at the time of input and the optical path at the time of display are the same, a virtual light source (real image) by display is generated at the same location as the light source used for input.

図1で示した3次元ポインタは、入力情報(撮像情報)を表示するアプリケーションである。発光する入力ペン2aは必ずしも1つでなくとも良く、複数のペンを用いてもよい。出力画像は入力画像をそのまま表示しても良いが、コントラストを上げたり、入力光の色を変えたりして出力することで入力座標の確認が容易にできる。   The three-dimensional pointer shown in FIG. 1 is an application that displays input information (imaging information). The number of input pens 2a that emit light is not necessarily one, and a plurality of pens may be used. The input image may be displayed as it is as the output image, but the input coordinates can be easily confirmed by increasing the contrast or changing the color of the input light.

通常のIPではフィルムなどを用いるため、現像処理のためにレンズとフィルムの位置関係が固定できないが、本例のレンズアレイと入出力ディスプレイパネル1の位置関係は常に固定である。このため、一度光軸ずれなどの計測を行えば、3次元入力表示装置100の固有値として使用することが可能であり、再計測を行う必要はない。また、計測には入出力ディスプレイ1の撮像機能を利用することが可能であり、しかも計測結果は、表示画像生成時にも利用できる。   Since a normal IP uses a film or the like, the positional relationship between the lens and the film cannot be fixed for development processing, but the positional relationship between the lens array of this example and the input / output display panel 1 is always fixed. For this reason, once an optical axis deviation or the like is measured, it can be used as an eigenvalue of the three-dimensional input display device 100, and there is no need to perform remeasurement. In addition, the imaging function of the input / output display 1 can be used for measurement, and the measurement result can also be used when generating a display image.

次に、3次元描画のアプリケーションについて、図11及び図12を参照して説明する。本例の3次元描画のアプリケーションは、3次元ポインタの技術に加えて入力情報を時間方向に重ねて表示すると共に、3次元空間上に表示させたアイコン等で2次元ディスプレイで行うような描画が可能である。本例では、図12に複数の色を選択可能な色パレットアイコン2bと、ペン先の軌跡3を消去可能な消しゴムアイコン2cを、入出力ディスプレイ1上にGUI(Graphical User Interface)表示させている.   Next, a three-dimensional drawing application will be described with reference to FIGS. In addition to the 3D pointer technique, the 3D rendering application of this example displays input information superimposed in the time direction, and at the same time draws on a 2D display with icons displayed in the 3D space. Is possible. In this example, a color palette icon 2b capable of selecting a plurality of colors and an eraser icon 2c capable of erasing the pen tip locus 3 are displayed on the input / output display 1 as a GUI (Graphical User Interface) in FIG. .

3次元ポインタの技術については、図11で説明したように、先端から発散光を放出するペン状の入力部として入力ペン2aで入出力ディスプレイ1上の空間に描画した3次元画像を入出力ディスプレイ1で撮像し、撮像した画像を取り込む入力画像取得部40aに画像を供給する。3次元描画のアプリケーションでは、先端から発散光を出す入力ペン2aで入力するのが最も簡単であるが、先端が認識しやすいものであれば、必ずしも発光するものでなくとも良い。3次元ポインタの撮像表示技術については、既に説明したため、詳細を省略する。   As for the technique of the three-dimensional pointer, as described with reference to FIG. 11, a three-dimensional image drawn in the space on the input / output display 1 by the input pen 2a as a pen-like input unit that emits divergent light from the tip is input / output display. The image is supplied to the input image acquisition unit 40a that captures the captured image and captures the captured image. In a three-dimensional drawing application, it is easiest to input with the input pen 2a that emits divergent light from the tip. However, as long as the tip can be easily recognized, it does not necessarily emit light. Since the three-dimensional pointer imaging display technique has already been described, the details thereof will be omitted.

アイコンのGUI表示処理において、3次元ポインタの撮像処理と同様に、撮像した画像を入力画像取得部40aで取り込み、撮像画像をレンズ歪みテーブル演算部40bに供給して、レンズ歪みテーブルに補正値を格納する。そして、3次元座標演算部40cでレンズ歪みテーブルの補正値を用いて座標演算を行う。   In the icon GUI display process, the captured image is captured by the input image acquisition unit 40a, and the captured image is supplied to the lens distortion table calculation unit 40b, as in the three-dimensional pointer imaging process, and the correction value is stored in the lens distortion table. Store. Then, the three-dimensional coordinate calculation unit 40c performs coordinate calculation using the correction value of the lens distortion table.

3次元座標の演算後に所定のアイコンを入出力ディスプレイ1上にGUI表示させるため、GUI処理を行うGUI処理部40jに演算データを供給する。ここで、ユーザがアイコンを操作した場合におけるアイコン選択、アイコン移動等の処理をコマンドと称し、移動量等の変化量を操作量と称する。得られた3次元座標より、GUI処理部40jは、アイコン等を3次元表示させるためのGUI処理を行い、アイコンのコマンド・操作量を決定するコマンド・操作量決定部40lに処理データを供給する。   In order to display a predetermined icon on the input / output display 1 after the calculation of the three-dimensional coordinates, the calculation data is supplied to the GUI processing unit 40j that performs the GUI processing. Here, processing such as icon selection and icon movement when the user operates an icon is referred to as a command, and a change amount such as a movement amount is referred to as an operation amount. From the obtained three-dimensional coordinates, the GUI processing unit 40j performs GUI processing for displaying an icon or the like three-dimensionally, and supplies processing data to a command / operation amount determination unit 40l that determines an icon command / operation amount. .

コマンド・操作量決定部40lでコマンド、所定時間の前後における操作量等の各種パラメータを決定した後、3次元CGの数値処理を行う3次元CG生成部40mにデータを供給し、3次元CGの数値データを生成する。生成した数値データは、各レンズの個眼像に対応するCGデータを生成する各レンズ用個眼像CG生成部にデータ供給して、画像再生を行うマイクロレンズごとの個眼像に対してCGデータを生成し、レンズ歪みテーブル演算部40bに個眼像CGデータを供給する。レンズ歪みテーブル演算部40bでは、RAM12のレンズ歪みテーブルより補正値を読み出して個眼像CGデータに対する補正を行う。そして、CG画像の出力を制御するCG画像出力部40oに補正済みの個眼像CGデータを供給し、CG画像として入出力ディスプレイ1上にアイコン等の立体画像を表示させる。   The command / operation amount determination unit 40l determines various parameters such as commands and operation amounts before and after a predetermined time, and then supplies data to the three-dimensional CG generation unit 40m that performs numerical processing of the three-dimensional CG. Generate numeric data. The generated numerical data is supplied to the single-eye image CG generation unit for each lens that generates CG data corresponding to the single-eye image of each lens, and the CG is obtained for the single-eye image for each microlens that performs image reproduction. Data is generated, and single-eye image CG data is supplied to the lens distortion table calculation unit 40b. The lens distortion table calculation unit 40b reads the correction value from the lens distortion table in the RAM 12 and corrects the single-eye image CG data. Then, the corrected single-eye image CG data is supplied to the CG image output unit 40o that controls the output of the CG image, and a stereoscopic image such as an icon is displayed on the input / output display 1 as the CG image.

このようにして描画で必要となる消しゴム、全消去、色の変更等のアイコンを、3次元表示空間上にGUI表示させて配置する。さらに使いやすくするために、複数の形態の異なるペンを用意し、描画色や消しゴムの機能を割り付けておくと、より自然なツールとして利用可能である。これは、入力に撮像情報を用いるからこそ可能であり、3次元デジタイザでは、座標以外の情報は入力することができない。また、異なる種類のペンを識別する処理には、発光する色を変える処理、撮像情報の処理が必要となるペン先の形を変える処理等がある。   In this way, icons such as eraser, all erasure, and color change necessary for drawing are arranged on the three-dimensional display space with GUI display. In order to make it easier to use, a plurality of different types of pens are prepared, and the drawing color and eraser functions are assigned, so that it can be used as a more natural tool. This is possible because imaging information is used for input, and information other than coordinates cannot be input by a three-dimensional digitizer. In addition, processing for identifying different types of pens includes processing for changing the color of light emission, processing for changing the shape of the pen tip that requires processing of imaging information, and the like.

ここで、IPの入力画像に自然画を利用することで、例えば手の形などを識別し、指先の座標を検出、演算することも可能である。以下に画像認識のためのIP特有の処理について、図13及び図14を参照して説明する。   Here, by using a natural image for the IP input image, for example, the shape of the hand can be identified, and the coordinates of the fingertip can be detected and calculated. Hereinafter, IP-specific processing for image recognition will be described with reference to FIGS.

始めに、多視点での2次元画像生成処理の例について図13を参照して説明する。図13(a)は、ブロック状の被写体51を撮影した例である。図13(b)は、複数の個眼像によるIP画像の例である。本例では、個眼像を20個×15個用いて撮像した例としてある。図13(c)は、多視点の2次元画像の例である。本例では、実際に簡単な物体の個眼像情報から、正面とその他8視点の2次元画像を合成した例としてある。   First, an example of two-dimensional image generation processing from multiple viewpoints will be described with reference to FIG. FIG. 13A shows an example in which a block-shaped subject 51 is photographed. FIG. 13B is an example of an IP image using a plurality of single-eye images. In this example, 20 × 15 single-eye images are captured. FIG. 13C is an example of a multi-view two-dimensional image. In this example, the two-dimensional images of the front and the other eight viewpoints are synthesized from single-eye image information of an actually simple object.

本例の3次元入力表示装置100では、比較的レンズアレイに近いところに被写体がある場合、レンズの画角にもよるが、各個眼像に被写体の全景が入りきらないことが多くなってしまう。そのため、各個眼像のセンタ画素の情報から、正面視点の2次元画像を作り出す。さらに、各個眼像のセンタから一定距離離れた画素の情報を用いて、代表的な視点の2次元画像を作り出す。このようにして多視点の2次元画像を得ることができる。   In the three-dimensional input display device 100 of this example, when the subject is relatively close to the lens array, the entire view of the subject often does not fit in each single-eye image, depending on the angle of view of the lens. . Therefore, a two-dimensional image of the front viewpoint is created from the information of the center pixel of each individual eye image. Furthermore, a two-dimensional image of a representative viewpoint is created using information on pixels that are a fixed distance away from the center of each individual image. In this way, a multi-view two-dimensional image can be obtained.

次に、自然画認識と特徴点座標検出を行う処理の例について、図14を参照して説明する。ここで、「自然画」とは、人間の手などの実体が存在する物を表す。また、「特徴点」とは、手で対象物を指し示した場合における指先のような特徴的な部分を表す。   Next, an example of processing for performing natural image recognition and feature point coordinate detection will be described with reference to FIG. Here, the “natural image” represents an object having an entity such as a human hand. The “feature point” represents a characteristic part such as a fingertip when the object is pointed by hand.

まず、撮像処理を開始し、被写体が撮像されたIP画像を取得する(ステップS20)。本例のIP画像50aは、人差し指を立てた人間の右手を被写体としており、被写体の上下反転画像が撮像される。次に、得られたIP画像50aから多視点2次元画像50cを生成する(ステップS21)。そして、多視点2次元画像50cより、特徴量を抽出する(ステップS22)。本例では、特徴量として右手の形状を抽出する。   First, imaging processing is started, and an IP image in which a subject is imaged is acquired (step S20). The IP image 50a of this example uses a human right hand with an index finger raised as a subject, and a vertically inverted image of the subject is captured. Next, a multi-viewpoint two-dimensional image 50c is generated from the obtained IP image 50a (step S21). Then, feature quantities are extracted from the multi-viewpoint two-dimensional image 50c (step S22). In this example, the shape of the right hand is extracted as the feature amount.

多視点2次元画像50cと、受容すべき操作(手、ツールの形)のテンプレート画像50dもしくは特徴量とのマッチングをとり(ステップS23)、図形・ジェスチャ認識処理を行う(ステップS24)ことで操作の種類、内容を特定する。このマッチングには2次元画像で行われている技術を流用すればよい。   Matching the multi-viewpoint two-dimensional image 50c with the template image 50d or feature amount of the operation (hand, tool shape) to be accepted (step S23), and performing graphic / gesture recognition processing (step S24) Identify the type and content. For this matching, a technique performed on a two-dimensional image may be used.

次に認識された操作で、必要とされる3次元座標を計算し、各視点の2次元座標から、目的とする特徴点を選択する(ステップS25)。本例では、3次元座標を計算した指先を表す特徴点画像50eより特徴点50′eを指先として選択してある。そして、特徴点を写しこんでいる個眼像を、生成された2次元画像を元に複数選択する(ステップS26)。本例では、IP画像50aより選択個眼像50bを選択したものとする。   Next, the required three-dimensional coordinates are calculated by the recognized operation, and target feature points are selected from the two-dimensional coordinates of each viewpoint (step S25). In this example, the feature point 50′e is selected as the fingertip from the feature point image 50e representing the fingertip whose three-dimensional coordinates are calculated. Then, a plurality of single-eye images reflecting the feature points are selected based on the generated two-dimensional image (step S26). In this example, it is assumed that the selected single-eye image 50b is selected from the IP image 50a.

次に、それぞれの個眼像の中でさらに特徴点を検出する(ステップS27)。本例では、個眼像内特徴点画像50fより、複数の個眼像から特徴点50′fとして指先を検出している。そして、各個眼像の特徴点の座標から、目的とする3次元座標を計算する(ステップS28)。3次元座標の計算結果より、操作量画像50gに示すように入出力ディスプレイ1上にある実物体(指先)のコマンド(操作)と操作量を決定することができる(ステップS29)。   Next, further feature points are detected in each individual eye image (step S27). In this example, the fingertip is detected as a feature point 50′f from a plurality of single-eye images from the single-eye image feature point image 50f. Then, target three-dimensional coordinates are calculated from the coordinates of the feature points of each individual eye image (step S28). From the calculation result of the three-dimensional coordinates, the command (operation) and the operation amount of the real object (fingertip) on the input / output display 1 can be determined as shown in the operation amount image 50g (step S29).

これらの処理は、画像マッチング(特徴量マッチング)、特徴点検出に既存の2次元画像処理で行われている技術を用いるようにしたものである。また、最初に各個眼像の全ての特徴点を検出し、被写体の3次元情報を再構成した後に、マッチングを取ることも可能である。   In these processes, techniques used in existing two-dimensional image processing are used for image matching (feature amount matching) and feature point detection. It is also possible to first detect all feature points of each individual image and reconstruct the three-dimensional information of the subject, and then perform matching.

次に、立体CG図形操作のアプリケーションについて、図11及び図15〜図17を参照して説明する。まず、図15を参照してアプリケーションの処理ブロックの構成例について説明する。本例の立体CG図形操作のアプリケーションは、入力座標に応じて変化する立体表示情報を再現する。例えば、球体などのオブジェクトを3次元表示しておき、手でそれを移動、回転、変形、分割、結合等の操作を行うことが可能である。このアプリケーションでは、入力される画像(操作者の手の画像)から図形情報、コマンド情報を解釈し、それに応じた出力用の画像はコンピュータグラフィックスによって生成する。   Next, a 3D CG graphic operation application will be described with reference to FIGS. 11 and 15 to 17. First, a configuration example of an application processing block will be described with reference to FIG. The application of the stereoscopic CG figure operation of this example reproduces stereoscopic display information that changes according to the input coordinates. For example, it is possible to display an object such as a sphere three-dimensionally and perform operations such as moving, rotating, transforming, dividing, and combining the object by hand. In this application, graphic information and command information are interpreted from an input image (an operator's hand image), and an output image corresponding to the information is generated by computer graphics.

まず、入出力ディスプレイ1上に仮想表示させた四輪自動車形状の外観を有する3次元立体像2dに対する操作処理例について図15を参照して説明する。ユーザは実物体である左手2eと右手2fで移動等の操作を行う例を示している。   First, an example of an operation process for a three-dimensional stereoscopic image 2d having an appearance of a four-wheeled vehicle virtually displayed on the input / output display 1 will be described with reference to FIG. In the example, the user performs an operation such as movement with the left hand 2e and the right hand 2f which are real objects.

図11より、入出力ディスプレイ1上で撮像したユーザの左手2eと右手2fの撮像画像を入力画像取得部40aで取得する。そして、レンズ歪みテーブル演算部40bでレンズ歪みの補正値を演算し、多視点2次元画像生成部40fでユーザの左手2eと右手2fの多視点2次元画像を生成する。同時に、3次元座標演算部40cで演算した3次元座標と多視点2次元画像を、本例の撮像画像が左手と右手の自然画であることを認識する自然画認識部40gに供給する。自然画認識部40gでは、撮像画像とテンプレート画像とのマッチングを行う画像マッチング部40hでのマッチング処理を行い、マッチング画像の特徴点を特徴点抽出部40iで抽出する処理を行う。   From FIG. 11, captured images of the user's left hand 2e and right hand 2f captured on the input / output display 1 are acquired by the input image acquisition unit 40a. The lens distortion table calculation unit 40b calculates a lens distortion correction value, and the multi-view two-dimensional image generation unit 40f generates a multi-view two-dimensional image of the user's left hand 2e and right hand 2f. At the same time, the three-dimensional coordinates calculated by the three-dimensional coordinate calculation unit 40c and the multi-viewpoint two-dimensional image are supplied to the natural image recognition unit 40g that recognizes that the captured image of this example is a natural image of the left hand and the right hand. The natural image recognition unit 40g performs a matching process in the image matching unit 40h that performs matching between the captured image and the template image, and performs a process of extracting a feature point of the matching image by the feature point extraction unit 40i.

その結果を受けて、ユーザの操作を解釈するジェスチャ解釈部40kにてジェスチャ解釈を行った後、コマンド・操作量決定部40lでユーザのコマンドと操作量を決定する。以降の3次元CG作成処理は既に説明した3次元描画の処理と同様であるため、詳細を省略する。また、図16、図17の立体像に対する操作についても図15で説明した処理と同様の処理であるため、説明を省略する。   In response to the result, the gesture interpretation unit 40k that interprets the user's operation interprets the gesture, and then the command / operation amount determination unit 40l determines the user's command and operation amount. Subsequent three-dimensional CG creation processing is the same as the three-dimensional drawing processing already described, and thus the details are omitted. Also, the operations on the stereoscopic images in FIGS. 16 and 17 are the same as the processes described in FIG.

次に、入出力ディスプレイ1上に仮想表示させた亜鈴状の外観を有する3次元立体像2gに対する操作処理例について、図16を参照して説明する。ユーザは実体物である左手2eと右手2fで変形させる操作例を示している。なお、図16の立体像に対する操作については立体CG図形操作で説明した処理と同様の処理であるため、説明を省略する。   Next, an example of operation processing for the three-dimensional stereoscopic image 2g having a dumbbell-like appearance virtually displayed on the input / output display 1 will be described with reference to FIG. The user shows an operation example in which the left hand 2e and the right hand 2f, which are entities, are deformed. Note that the operation on the stereoscopic image in FIG. 16 is the same as the processing described in the stereoscopic CG graphic operation, and thus the description thereof is omitted.

手で操作するときの、操作の種類は予め認識できるコマンドとして準備しておく。例えば手のひらでオブジェクトを押すような動作は「移動」。手のひらでオブジェクトをこするような動作は「回転」。指先をオブジェクトに垂直に押し付けるのは「変形」、同様につまむような操作も「変形(引っ張り出す)」。両手でオブジェクトをつまみ、引っ張る動作は「分割」、2つのオブジェクトを2つの手のひらで押して合わせる動作は「結合」などのようにする。   The type of operation when operating by hand is prepared in advance as a recognizable command. For example, the action of pushing an object with a palm is “move”. The action of rubbing an object with the palm of your hand is "rotation". “Deformation” means that the fingertip is pressed perpendicularly to the object, and the operation of pinching similarly is also “deformation (pull out)”. The action of pinching and pulling an object with both hands is “dividing”, and the action of pushing two objects with two palms together is “joining”.

さらに、入出力ディスプレイ1上に仮想表示させた円筒状の外観を有する3次元立体像2hに対する操作処理例について図17を参照して説明する。ユーザは実体物であるキリ2iで立体像2hに穴をあけたり、カッタ2jで立体像2hを切ったりするような操作を行う例を示している。なお、図17の立体像に対する操作については立体CG図形操作で説明した処理と同様の処理であるため、説明を省略する。   Furthermore, an example of an operation process for a three-dimensional stereoscopic image 2h having a cylindrical appearance virtually displayed on the input / output display 1 will be described with reference to FIG. In the example, the user performs an operation such as making a hole in the stereoscopic image 2h with the drill 2i as an entity or cutting the stereoscopic image 2h with the cutter 2j. Note that the operation on the stereoscopic image in FIG. 17 is the same as the processing described in the stereoscopic CG graphic operation, and thus the description thereof is omitted.

この場合、手に関する情報だけではなく、いくつかの画像認識しやすい形状のツールを登録しておく。それらのツールを撮像情報から認識することにより、操作の種類を増やすことができる。本例では、カッタの形状をしたツール(カッタそのものでも良いが、撮像情報から認識しやすいように色をつけたり、形状を単純化させたりした方が、画像認識がより確実になる)を用いて、「直線的な分割」を行う。また、定規の形状をしたツールで「面取り」を行ったり、キリの形状をしたツールで「穴あけ」などの変形操作を行ったりする。   In this case, not only information about the hand but also some tools with shapes that are easy to recognize images are registered. By recognizing these tools from the imaging information, the types of operations can be increased. In this example, using a cutter-shaped tool (the cutter itself may be used, but the image recognition is more reliable if a color is added or the shape is simplified so that it can be easily recognized from the imaging information). , “Linear division” is performed. Also, “chamfering” is performed with a ruler-shaped tool, and deformation operations such as “drilling” are performed with a drill-shaped tool.

このようにすることで、3次元空間上での入力表示操作を行うことができるようになった。   In this way, it is possible to perform an input display operation in a three-dimensional space.

本実施の形態によれば、入力した座標(図形)をそのまま表示に反映すれば良いため、第1のIPのみを利用する。このような1段階のみのIPによる入力表示技術は、コンピュータグラフィック技術の進歩により品質が向上している。また、再生像の裏返しの問題は最初から存在せず、レンズ歪の問題なども1段階分だけで済むため、装置を簡単に構成することができるという効果がある。   According to the present embodiment, the input coordinates (figure) need only be reflected on the display as it is, so only the first IP is used. The quality of such an input display technology based on IP of only one stage has been improved by the advancement of computer graphic technology. In addition, there is no problem of turning over the reproduced image from the beginning, and there is an effect that the apparatus can be easily configured because the problem of lens distortion and the like need only be one stage.

また、小規模から大規模まで、簡単なシステムで3次元入力表示装置を構成できる。単なる形状入力という用途だけでなく、オブジェクトの変形といった編集作業も実現できる。また、ジェスチャ認識の精度が上がれば、より自然なオブジェクト操作ができるようになり、3次元物体の編集、操作が容易になるという効果がある。   In addition, a three-dimensional input display device can be configured with a simple system from a small scale to a large scale. Not only simple shape input, but also editing work such as object deformation can be realized. In addition, if the accuracy of gesture recognition is improved, more natural object operation can be performed, and there is an effect that editing and operation of a three-dimensional object are facilitated.

また、従来用いられた2次元入力タブレットよりも優れた点として、情報入力が3次元の画像情報として得られるため、複数点の入力や、手の形や面積による操作を実現することが可能である。このため、様々な入出力インタフェースとしての機能を持たせることができるという効果がある。   In addition, as a point superior to the conventionally used two-dimensional input tablet, information input is obtained as three-dimensional image information, so that it is possible to realize input of a plurality of points and operation by hand shape and area. is there. Therefore, there is an effect that functions as various input / output interfaces can be provided.

また、3次元空間上で入力と表示を1台の装置で行うことが可能である。このため、材料コスト、製造コスト面で非常に有利となる効果がある。また、リアルタイムで座標入力に対する立体表示を行い、操作する側へフィードバックできるという効果がある。本実施の形態において、立体表示時の際であっても観察のための特殊な眼鏡を必要とせず、両眼視差だけでなく、上下左右への運動視差も表現される。   In addition, it is possible to input and display in a three-dimensional space with a single device. For this reason, there exists an effect which becomes very advantageous in terms of material cost and manufacturing cost. In addition, there is an effect that a stereoscopic display with respect to coordinate input can be performed in real time and fed back to the operating side. In the present embodiment, special glasses for observation are not required even during stereoscopic display, and not only binocular parallax but also vertical and horizontal motion parallax is expressed.

また、3次元座標入力装置としては非常に小さくできるため、手軽な3次元スキャナとしての用途も可能となる。また、2台の3次元入力表示装置をそれぞれ双方向通信させることで電話通信等に適用することができ、遠隔地においても互いの話者の立体画像を表示させることも可能となる。   Further, since it can be very small as a three-dimensional coordinate input device, it can be used as a simple three-dimensional scanner. In addition, the two three-dimensional input display devices can be applied to telephone communication or the like by two-way communication with each other, and a stereoscopic image of each other's speakers can be displayed even in a remote place.

また、レンズアレイと入出力ディスプレイ1間の位置関係が常に固定であるため、レンズの歪み情報などは3次元入力表示装置自体の固有値として保有することができる。この場合、一度歪み情報等を計測すれば以降の処理では常に歪み情報を利用可能であり、かつ表示時における補正処理にも同じ値を利用できるため、2段階式IPを用いた画像表示システムに比べて撮像、表示の厳密な画像調整を行う必要がないという効果がある。   In addition, since the positional relationship between the lens array and the input / output display 1 is always fixed, lens distortion information and the like can be held as eigenvalues of the three-dimensional input display device itself. In this case, once distortion information or the like is measured, distortion information can always be used in the subsequent processing, and the same value can be used for correction processing at the time of display. Therefore, the image display system using the two-stage IP is used. In comparison, there is an effect that it is not necessary to perform strict image adjustment for imaging and display.

また、入力、表示処理において、共に光学的性質を利用し、同じ光路を利用するため、レンズ性能への要求が厳密でなくても所定の機能を実現できる。このため、撮像、表示する際のマイクロレンズを安価に製造することが可能であり、コストを減少させるという効果がある。   In addition, since the input and display processes both use optical properties and use the same optical path, a predetermined function can be realized even if the lens performance is not strictly required. For this reason, it is possible to manufacture a microlens for imaging and displaying at low cost, and there is an effect of reducing the cost.

なお、上述した実施の形態において、利用可能なアプリケーションを3種類例示したが、出力は一度入力した画像を処理して、新たな表示画像を作り出してユーザへ見せることも可能であり、様々なアプリケーションを利用できる。例えば、光ペン入力をそのまま表示させる、指を認識させる、自然画で入力させる等がある。   In the above-described embodiment, three types of applications that can be used are illustrated. However, it is possible to output an image that has been input once to create a new display image and show it to the user. Can be used. For example, the optical pen input is displayed as it is, the finger is recognized, the natural image is input, and the like.

また、上述した実施の形態において、撮像表示素子にTFT41が各画素に設けられるとしたが、外部からの光を受光することに応じてリーク電流を発生し、かつ、そのオン/オフにより画素の動作を切り替えることができるものであれば、どのようなトランジスタが設けられるようにしてもよい。   In the above-described embodiment, the TFT 41 is provided in each pixel in the imaging display element. However, a leak current is generated in response to receiving light from the outside, and the pixel is turned on / off. Any transistor may be provided as long as the operation can be switched.

また、上述した一連のアプリケーション処理は、ハードウエアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   The series of application processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.

また、芸術分野、ゲーム等のエンタテインメント分野でも応用が考えられる。3次元のCG描画に加え、アーティストのジェスチャにより、描画情報の変化を定義しておくことにより、手軽に3次元画像を得ることができ、創造性の幅が広がるという効果がある。また、博物館等における展示物の表示にも用いるようにしてもよい。   Applications are also possible in the entertainment field such as the art field and games. In addition to 3D CG drawing, by defining changes in drawing information by artist gestures, 3D images can be easily obtained, and the range of creativity is widened. Moreover, you may make it use also for the display of the exhibit in a museum etc.

また、コンピュータの中や、ネットワーク中の膨大な情報を、3次元空間中に配置し、その中から情報を取り出したり、操作したりすることも可能である。こうすることで、より多量の情報を効率よく扱うことができるという効果がある。   It is also possible to arrange a large amount of information in a computer or a network in a three-dimensional space, and take out or manipulate information from the three-dimensional space. By doing this, there is an effect that a larger amount of information can be handled efficiently.

本発明の一実施の形態における3次元入力表示装置の外部構成例を示した構成図である。It is the block diagram which showed the example of an external structure of the three-dimensional input display apparatus in one embodiment of this invention. 本発明の一実施の形態における入出力ディスプレイの例を示した説明図である。It is explanatory drawing which showed the example of the input-output display in one embodiment of this invention. 本発明の一実施の形態における3次元入力表示装置の内部構成例を示した構成図である。It is the block diagram which showed the internal structural example of the three-dimensional input display apparatus in one embodiment of this invention. 本発明の一実施の形態における撮像表示画素の構成例を示した説明図である。It is explanatory drawing which showed the structural example of the imaging display pixel in one embodiment of this invention. 本発明の一実施の形態における撮像表示画素の構成例を示した説明図である。It is explanatory drawing which showed the structural example of the imaging display pixel in one embodiment of this invention. 本発明の一実施の形態におけるゲート電圧とドレイン電流の関係例を示した説明図である。It is explanatory drawing which showed the example of a relationship between the gate voltage and drain current in one embodiment of this invention. 本発明の一実施の形態における入出力ディスプレイの一領域の表示例を示した説明図である。It is explanatory drawing which showed the example of a display of the one area | region of the input-output display in one embodiment of this invention. 本発明の一実施の形態における入出力ディスプレイの撮像表示処理の例を示した説明図である。It is explanatory drawing which showed the example of the imaging display process of the input-output display in one embodiment of this invention. 本発明の一実施の形態における撮像処理の例を示したフローチャートである。It is the flowchart which showed the example of the imaging process in one embodiment of this invention. 本発明の一実施の形態における表示処理の例を示したフローチャートである。It is the flowchart which showed the example of the display process in one embodiment of this invention. 本発明の一実施の形態における画像処理部の撮像表示処理の例を示した構成図である。It is the block diagram which showed the example of the imaging display process of the image process part in one embodiment of this invention. 本発明の一実施の形態における3次元描画の例を示した説明図である。It is explanatory drawing which showed the example of the three-dimensional drawing in one embodiment of this invention. 本発明の一実施の形態における3次元立体像の操作例を示した説明図である。It is explanatory drawing which showed the example of operation of the three-dimensional solid image in one embodiment of this invention. 本発明の一実施の形態における3次元立体像の操作(引っ張る)例を示した説明図である。It is explanatory drawing which showed the example of operation (pulling) of the three-dimensional solid image in one embodiment of this invention. 本発明の一実施の形態における3次元立体像の操作(実体ツール使用)例を示した説明図である。It is explanatory drawing which showed the example (operation of a real tool) of the three-dimensional solid image in one embodiment of this invention. 本発明の一実施の形態における多視点2次元画像の生成例を示した説明図である。It is explanatory drawing which showed the example of a production | generation of the multiview two-dimensional image in one embodiment of this invention. 本発明の一実施の形態における自然画認識及び特徴点座標検出処理の例を示したフローチャートである。It is the flowchart which showed the example of the natural image recognition in one embodiment of this invention, and a feature point coordinate detection process. 従来の1段階式IPを用いた画像表示システムの例を示した構成図である。It is the block diagram which showed the example of the image display system using the conventional one step type IP. 従来の2段階式IPを用いた画像表示システムの例を示した構成図である。It is the block diagram which showed the example of the image display system using the conventional 2 step type IP.

符号の説明Explanation of symbols

1…入出力ディスプレイ、1a…マイクロレンズ、1b…隔壁、1c…撮像表示画素、1d…ディスプレイ表面、1e…表示動作行、1f…撮像動作行、2a…入力ペン、2b…色パレット、2c…消しゴム、2d,2g,2h…3次元立体像、2e…左手、2f…右手、2i…キリ、2j…ナイフ、3…ペン先の軌跡、4…入力光線、5…再生光線、10…情報処理装置、11…ROM、12…RAM、13…CPU、14…入力部、15…出力部、16…記憶部、17…通信部、18…ドライブ、19…記憶メディア、21…受光駆動部、22…撮像領域設定部、23…個眼像生成部、25…バス、31…表示駆動部、32…表示領域設定部、40…画像処理部、41…TFT、42…ソース線、43…ゲート線、44…EL素子、45…対向電極、46a,46b…電流、47a…入力光線、47b…再生光線、50,51…被写体、60,60a,60b…撮像板、61,61a,61b…フライアイレンズ、62…実物体、63…各個眼像、64,64a,64b…再生用照明光、65…観察者、66,66a…入力光線、67…再生光線、67b…第1IP再生光線、68…第2IP再生光線、100…3次元入力表示装置   DESCRIPTION OF SYMBOLS 1 ... Input / output display, 1a ... Micro lens, 1b ... Partition, 1c ... Imaging display pixel, 1d ... Display surface, 1e ... Display operation line, 1f ... Imaging operation line, 2a ... Input pen, 2b ... Color palette, 2c ... Eraser, 2d, 2g, 2h ... 3D solid image, 2e ... left hand, 2f ... right hand, 2i ... drill, 2j ... knife, 3 ... pen locus, 4 ... input beam, 5 ... reproduction beam, 10 ... information processing Device: 11 ... ROM, 12 ... RAM, 13 ... CPU, 14 ... input unit, 15 ... output unit, 16 ... storage unit, 17 ... communication unit, 18 ... drive, 19 ... storage medium, 21 ... light receiving drive unit, 22 ... Imaging area setting section, 23 ... Single eye image generation section, 25 ... Bus, 31 ... Display drive section, 32 ... Display area setting section, 40 ... Image processing section, 41 ... TFT, 42 ... Source line, 43 ... Gate line 44 EL elements 45 Counter electrode, 46a, 46b ... current, 47a ... input beam, 47b ... reproduction beam, 50, 51 ... subject, 60, 60a, 60b ... imaging plate, 61, 61a, 61b ... fly-eye lens, 62 ... real object, 63 ... Each single-eye image, 64, 64a, 64b ... reproduction illumination light, 65 ... observer, 66,66a ... input ray, 67 ... reproduction ray, 67b ... first IP reproduction ray, 68 ... second IP reproduction ray, 100 ... 3 Dimensional input display device

Claims (4)

複数のマイクロレンズを平面配置したレンズアレイ層と、前記マイクロレンズごとに複数の画素を平面配置し光線の取り込み及び表示を行う画素層とを有するディスプレイと、
前記ディスプレイの画素層で取り込んだ信号により受光画像を得る受光処理部と、
前記受光処理部で得た画像を前記マイクロレンズごとの個眼像として生成する個眼像生成部と、
前記マイクロレンズごとの個眼像から多視点2次元画像を生成し、前記多視点2次元画像より特徴的な形状を抽出し、前記特徴的な形状と入力画像認識用のテンプレートとを照合し、特徴点を選択し、前記個眼像から複数の個眼像を選択し、選択した前記複数の個眼像から前記特徴点の3次元座標を演算して、前記ディスプレイの表面近傍における3次元的な動き量を算出する処理を施す入力画像処理部と、
前記ディスプレイの画素層の画素の表示駆動を行う表示駆動部と
前記入力画像認識用のテンプレートを記憶する記憶部と、を備え
入力表示装置。
A display having a lens array layer in which a plurality of microlenses are arranged in a plane, and a pixel layer in which a plurality of pixels are arranged in a plane for each microlens to capture and display light rays;
A light receiving processing unit that obtains a light receiving image by a signal captured by the pixel layer of the display;
A single-eye image generating unit that generates an image obtained by the light-receiving processing unit as a single-eye image for each microlens;
Generating a multi-viewpoint two-dimensional image from a single-eye image for each microlens, extracting a characteristic shape from the multi-viewpoint two-dimensional image, collating the characteristic shape with an input image recognition template, A feature point is selected, a plurality of single-eye images are selected from the single-eye images, a three-dimensional coordinate of the feature points is calculated from the selected single-eye images, and a three-dimensional image near the surface of the display is calculated. An input image processing unit that performs a process of calculating the amount of movement ,
A display driver that performs display driving of pixels in the pixel layer of the display ;
A storage unit for storing a template for the input image recognition, input display device Ru comprising a.
請求項記載の入力表示装置において、
前記記憶部は、前記マイクロレンズごとに歪み補正するためのレンズ歪みテーブルを記憶し、
前記入力画像処理部の所定の処理は、前記入力画像に対する3次元座標の演算を行う際に前記レンズ歪みテーブルを用いて数値補正す
入力表示装置。
The input display device according to claim 1 ,
The storage unit stores a lens distortion table for correcting distortion for each microlens,
Wherein the predetermined processing of the input image processing section, value correcting using the lens distortion table when performing the calculation of the three-dimensional coordinates for the input image input display device.
請求項1又は2記載の入力表示装置において、
前記入力画像処理部の所定の処理は、入力部により入力された画像情報を時系列で累積し、前記時系列で蓄積した画像情報を前記ディスプレイに表示させ
入力表示装置。
The input display device according to claim 1 or 2 ,
Wherein the predetermined processing of the input image processing section accumulates the image information input by the input unit in time series, the time-series at the input display Ru accumulated image information is displayed on the display.
複数のマイクロレンズを平面配置したレンズアレイ層と、前記マイクロレンズごとに複数の画素を平面配置し光線の取り込み及び表示を行う画素層とを有するディスプレイを用いて、入力及び表示を行う入力表示方法において、
前記ディスプレイの画素層で取り込んだ信号により受光画像を得、
前記受光画像を前記マイクロレンズごとの個眼像として生成し、
前記マイクロレンズごとの個眼像から多視点2次元画像を生成し、前記多視点2次元画像より特徴的な形状を抽出し、前記特徴的な形状と入力画像認識用のテンプレートとを照合し、特徴点を選択し、前記個眼像から複数の個眼像を選択し、選択した前記複数の個眼像から前記特徴点の3次元座標を演算して、前記ディスプレイの表面近傍における3次元的な動き量を算出する処理を施
前記ディスプレイの画素層の画素による表示駆動を行い、
前記入力画像認識用のテンプレートを記憶部に記憶する
入力表示方法。
Input display method for performing input and display using a display having a lens array layer in which a plurality of microlenses are arranged in a plane, and a pixel layer in which a plurality of pixels are arranged in a plane for each microlens to capture and display light rays In
Obtain a received light image by the signal captured in the pixel layer of the display,
The light reception image is generated as a single eye image for each microlens,
Generating a multi-viewpoint two-dimensional image from a single-eye image for each microlens, extracting a characteristic shape from the multi-viewpoint two-dimensional image, collating the characteristic shape with an input image recognition template, A feature point is selected, a plurality of single-eye images are selected from the single-eye images, a three-dimensional coordinate of the feature points is calculated from the selected single-eye images, and a three-dimensional image near the surface of the display is calculated. and facilities processing for calculating a movement amount,
There row display driving by the pixel of the pixel layer of the display,
An input display method for storing the input image recognition template in a storage unit .
JP2005272735A 2005-09-20 2005-09-20 Input display device and input display method Expired - Fee Related JP4706409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005272735A JP4706409B2 (en) 2005-09-20 2005-09-20 Input display device and input display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005272735A JP4706409B2 (en) 2005-09-20 2005-09-20 Input display device and input display method

Publications (2)

Publication Number Publication Date
JP2007086931A JP2007086931A (en) 2007-04-05
JP4706409B2 true JP4706409B2 (en) 2011-06-22

Family

ID=37973881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005272735A Expired - Fee Related JP4706409B2 (en) 2005-09-20 2005-09-20 Input display device and input display method

Country Status (1)

Country Link
JP (1) JP4706409B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007042984A1 (en) * 2007-09-10 2009-03-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device for optical navigation
JP5246490B2 (en) 2008-08-29 2013-07-24 ソニー株式会社 I / O device
JP5071308B2 (en) * 2008-08-29 2012-11-14 ソニー株式会社 I / O device
KR101632311B1 (en) 2010-12-30 2016-06-22 삼성전자주식회사 Panel type camera, optical touch screen and display apparatus employing the same
JP5670255B2 (en) 2011-05-27 2015-02-18 京セラ株式会社 Display device
JP5774387B2 (en) 2011-06-28 2015-09-09 京セラ株式会社 Display device
JP5864144B2 (en) * 2011-06-28 2016-02-17 京セラ株式会社 Display device
JP5742870B2 (en) * 2013-04-17 2015-07-01 カシオ計算機株式会社 Electronic equipment and programs
JP6126195B2 (en) * 2015-12-24 2017-05-10 京セラ株式会社 Display device
TWI754899B (en) * 2020-02-27 2022-02-11 幻景啟動股份有限公司 Floating image display apparatus, interactive method and system for the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157708A (en) * 2002-11-06 2004-06-03 Fuji Electric Holdings Co Ltd Coordinate input device
JP2005141102A (en) * 2003-11-07 2005-06-02 Pioneer Electronic Corp Stereoscopic two-dimensional image display device and its method
JP2005202153A (en) * 2004-01-15 2005-07-28 Dainippon Printing Co Ltd Display device and display system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157708A (en) * 2002-11-06 2004-06-03 Fuji Electric Holdings Co Ltd Coordinate input device
JP2005141102A (en) * 2003-11-07 2005-06-02 Pioneer Electronic Corp Stereoscopic two-dimensional image display device and its method
JP2005202153A (en) * 2004-01-15 2005-07-28 Dainippon Printing Co Ltd Display device and display system

Also Published As

Publication number Publication date
JP2007086931A (en) 2007-04-05

Similar Documents

Publication Publication Date Title
CN102438164B (en) Image processing apparatus, image processing method and computer program
CN108573524B (en) Interactive real-time free stereo display method based on rendering pipeline
JP4434890B2 (en) Image composition method and apparatus
US8884876B2 (en) Spatially-aware projection pen interface
EP3189495B1 (en) Method and apparatus for efficient depth image transformation
RU2524834C2 (en) Autostereoscopic rendering and display apparatus
US20190130648A1 (en) Systems and methods for enabling display of virtual information during mixed reality experiences
WO2012132201A1 (en) Information processing apparatus, image display apparatus, and information processing method
US9703400B2 (en) Virtual plane in a stylus based stereoscopic display system
KR20110009002A (en) Stereoscopic Image Interlocking System
JP4706409B2 (en) Input display device and input display method
KR101096617B1 (en) Spatial Multi-interaction Based 3D Stereoscopic Interactive Vision System and Its Method
JPWO2007013215A1 (en) Image display device
CN103168316A (en) User interface control device, user interface control method, computer program, and integrated circuit
JP2010263599A (en) Digital video capture device with 3D video display and touch control function
CN102783162A (en) Image capture device
JP4834424B2 (en) Information processing apparatus, information processing method, and program
CN108573521B (en) Real-time interactive naked-eye 3D display method based on CUDA parallel computing framework
CN102819385A (en) Information processing device, information processing method and program
US10321126B2 (en) User input device camera
CN102708577A (en) Method for synthesizing multi-view-point three-dimensional picture
CN102685527A (en) Image processing apparatus and method, and program
CN102469333A (en) Information processing apparatus, stereoscopic display method, and program
CN104349157A (en) 3D display device and method thereof
KR101982396B1 (en) System for space touch

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110228

LAPS Cancellation because of no payment of annual fees