[go: up one dir, main page]

JP2015204487A - projection system - Google Patents

projection system Download PDF

Info

Publication number
JP2015204487A
JP2015204487A JP2014081936A JP2014081936A JP2015204487A JP 2015204487 A JP2015204487 A JP 2015204487A JP 2014081936 A JP2014081936 A JP 2014081936A JP 2014081936 A JP2014081936 A JP 2014081936A JP 2015204487 A JP2015204487 A JP 2015204487A
Authority
JP
Japan
Prior art keywords
projection
unit
image
projected
units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014081936A
Other languages
Japanese (ja)
Inventor
泰啓 本多
Yasuhiro Honda
泰啓 本多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014081936A priority Critical patent/JP2015204487A/en
Publication of JP2015204487A publication Critical patent/JP2015204487A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an integral projection image on a projected object without generating a gap in a seam of video images projected by a plurality of projection sections even in the case where the projected object moves.SOLUTION: A projection system 1 includes: a plurality of projection sections 2 each for projecting a video image on the projected object; a projection area change section 3 for changing projection areas of the video images projected by the plurality of projection sections 2, respectively; a position detection sensor 4 for detecting a position of the projected object; and a control section 21 which recognizes positions of the plurality of projection sections 2, derives a relative position of the projected object to each of the plurality of projection sections 2 from the recognized positions of the plurality of projection sections 2 and the position of the projected object detected by the position detection sensor 4, and controls the projection area change section 3. The control section 21 changes the projection areas of the video images, respectively, by controlling the projection area change section 3 in such a manner that the video images projected by the plurality of projection sections 2 are overlapped on the projected object at least partially in the case where the relative position changes.

Description

本発明は、被投影体に複数の映像を投影する投影システムに関するものである。   The present invention relates to a projection system that projects a plurality of images onto a projection target.

従来から、スクリーンに映像を投影する投影装置(プロジェクタ)として、例えば特許文献1および2に開示されたものがある。特許文献1では、対象物(例えばパーソナルコンピュータ)の映像をスクリーンに投影する際に、プロジェクタからスクリーンまでの距離を取得し、対象物の大きさも考慮して投影映像のズーム倍率を設定することで、対象物の映像を所定の大きさで(例えば実物大で)スクリーンに投影することが可能となっている。   Conventionally, as a projection device (projector) that projects an image on a screen, for example, there are those disclosed in Patent Documents 1 and 2. In Patent Document 1, when projecting an image of an object (for example, a personal computer) onto a screen, the distance from the projector to the screen is acquired, and the zoom magnification of the projected image is set in consideration of the size of the object. It is possible to project an image of an object on a screen with a predetermined size (for example, full size).

また、特許文献2では、スクリーン等の被投影体に投影した映像を撮像手段で撮像した画像から、スクリーンと撮像手段との距離を算出し、その距離データから、被投影体に対応する平面を推定し、上記距離データと上記平面に関する情報とに基づいて、投影する映像の補正情報を算出することで、映像の投影中に、被投影体とプロジェクタとの位置関係が変化した場合でも、映像の投影動作を中断することなく、投影映像の補正(例えば台形歪みの補正)ができるようにしている。   In Patent Document 2, the distance between the screen and the imaging means is calculated from an image obtained by imaging the image projected on the projection object such as a screen by the imaging means, and the plane corresponding to the projection object is calculated from the distance data. Even if the positional relationship between the projection object and the projector changes during the projection of the video by estimating and calculating correction information of the video to be projected based on the distance data and the information regarding the plane, the video The projection image can be corrected (for example, trapezoidal distortion can be corrected) without interrupting the projection operation.

一方、近年では、プロジェクタ等を用いて現実と仮想現実とを融合させる技術が、特にエンタテインメント分野で広がりつつある。そして、建造物などの立体構造物に映像を投影して、平面スクリーンでは得られない立体感や臨場感を得られるような、いわゆるプロジェクションマッピングと呼ばれる映像表現や、現実の空間にある物体にコンピュータで生成した仮想の映像を重ねることで、ユーザーに様々な付加情報や映像シミュレーション体験を提供するような拡張現実感(AR:Augmented Reality)および複合現実感(MR:Mixed Reality)といった技術が注目されている。このような技術の実現においては、様々に変化する現実空間の状況に応じて、リアルタイムに仮想映像を物体に重ねることが必要となっている。   On the other hand, in recent years, a technique for integrating reality and virtual reality using a projector or the like is spreading especially in the entertainment field. Projection of images onto 3D structures such as buildings can produce a 3D effect and realism that cannot be obtained with a flat screen, so-called projection mapping, or a computer on an object in real space. Technologies such as Augmented Reality (AR) and Mixed Reality (MR) that provide users with various additional information and video simulation experiences by superimposing virtual images generated in ing. In order to realize such a technique, it is necessary to superimpose a virtual image on an object in real time in accordance with the situation of a real space that changes variously.

このような背景のもと、被投影体に対して、複数のプロジェクタで異なる方向から複数の映像を投影してプロジェクションマッピングを行いたいという要望が出てきている。   Under such a background, there has been a demand for projection mapping to be performed by projecting a plurality of images from different directions with a plurality of projectors on a projection target.

複数のプロジェクタで一体的な投影像を生成するいわゆるマルチプロジェクションにおいては、投影される各映像の繋ぎ目に隙間が存在すると、そこが黒い帯状に抜けてしまうため、非常に見苦しい状態となる。プロジェクションマッピングにおいては、静止した被投影体上で複数の映像を隙間なく繋がるように投影することがなされている。これは、事前に決定した被投影体の設置位置に対して、各映像を投影しながら各映像の端(エッジ部)が若干重なるように投影位置を調整することによって行われる。このとき、各映像の繋ぎ目は、エッジ部の映像の輝度を調整するエッジブレンディング処理により、目立たなくなっている。   In a so-called multi-projection in which a plurality of projectors generate an integrated projection image, if there is a gap at the joint of each projected image, the gap will come out in a black belt shape, which is very unsightly. In projection mapping, a plurality of images are projected on a stationary projection body so as to be connected without gaps. This is performed by adjusting the projection position so that the end (edge part) of each video slightly overlaps while projecting each video with respect to the installation position of the projection target determined in advance. At this time, the joints of the respective images are not noticeable by the edge blending process for adjusting the luminance of the image of the edge portion.

特開2008−233462号公報(請求項1、段落〔0008〕、〔0049〕、〔0054〕、〔0057〕、図3(b)等参照)JP 2008-233462 A (refer to claim 1, paragraphs [0008], [0049], [0054], [0057], FIG. 3 (b), etc.) 特開2013−42411号公報(請求項1、段落〔0007〕〜〔0009〕、〔0149〕、図13等参照)JP 2013-42411 A (refer to claim 1, paragraphs [0007] to [0009], [0149], FIG. 13, etc.)

ところが、複数のプロジェクタを用いて被投影体に複数の映像を投影する場合、被投影体が移動すると、被投影体上での各映像の投影領域が変化するため、被投影体の位置によっては各映像が重ならなくなり、投影された各映像の繋ぎ目に隙間が生ずる。   However, when projecting a plurality of images onto a projection object using a plurality of projectors, if the projection object moves, the projection area of each image on the projection object changes, so depending on the position of the projection object The images do not overlap, and a gap is formed at the joint between the projected images.

なお、上述した特許文献1および2の技術は、基本的に、平面のスクリーンに対して1台のプロジェクタで映像を投影することを前提としたものであり、移動する立体物に対して、複数のプロジェクタで異なる方向からリアルタイムで各映像を投影するような状況は想定されていない。   Note that the techniques of Patent Documents 1 and 2 described above are basically based on the premise that an image is projected by a single projector on a flat screen. It is not assumed that each projector projects each video in real time from different directions.

本発明は、上記の問題点を解決するためになされたもので、その目的は、被投影体が移動した場合でも、複数の投影部によって投影される各映像の繋ぎ目に隙間を生じさせずに、一体的な投影像を被投影体上で生成することができる投影システムを提供することにある。   The present invention has been made to solve the above-described problems, and its purpose is to prevent a gap from being generated at the joint between the images projected by the plurality of projection units even when the projection target moves. Another object of the present invention is to provide a projection system capable of generating an integral projection image on a projection object.

本発明の一側面に係る投影システムは、被投影体に映像を投影する複数の投影部と、前記複数の投影部によって投影される各映像の投影領域をそれぞれ変更する投影領域変更部と、前記被投影体の位置を検出する位置検出部と、前記複数の投影部のそれぞれの位置を認識し、認識した前記複数の投影部の位置と、前記位置検出部にて検出された前記被投影体の位置とから、前記複数の投影部のそれぞれに対する前記被投影体の相対位置を導出して、前記投影領域変更部を制御する制御部とを備え、前記制御部は、前記相対位置が変化したときに、前記複数の投影部によって投影される各映像の少なくとも一部が前記被投影体上で重なるように、前記投影領域変更部を制御して各映像の投影領域をそれぞれ変更させる。   A projection system according to one aspect of the present invention includes a plurality of projection units that project an image on a projection target, a projection region change unit that changes a projection region of each image projected by the plurality of projection units, A position detection unit for detecting a position of the projection target; a position of each of the plurality of projection units; a position of the recognized plurality of projection units; and the projection target detected by the position detection unit A control unit for deriving a relative position of the projection object with respect to each of the plurality of projection units from the position and controlling the projection region changing unit, and the control unit changes the relative position In some cases, the projection region changing unit is controlled to change the projection region of each image so that at least a part of each image projected by the plurality of projection units overlaps on the projection target.

位置検出部によって被投影体の位置が検出されると、制御部は、認識した複数の投影部の位置と被投影体の位置とから、複数の投影部のそれぞれに対する被投影体の相対位置を導出する。そして、制御部は、被投影体の移動によって上記相対位置が変化したときに、各映像の少なくとも一部が被投影体上で重なるように、投影領域変更部を制御して各映像の投影領域をそれぞれ変更させる。これにより、被投影体が移動した場合でも、複数の投影部によって投影される各映像の繋ぎ目に隙間が生じない、一体的な投影像を被投影体上で生成することができる。   When the position of the projection target is detected by the position detection unit, the control unit determines the relative position of the projection target with respect to each of the plurality of projection units from the recognized positions of the plurality of projection units and the position of the projection target. To derive. Then, the control unit controls the projection area changing unit so that at least a part of each image overlaps on the projection object when the relative position changes due to the movement of the projection object, and the projection area of each image To change each. As a result, even when the projection object moves, an integrated projection image can be generated on the projection object with no gap between the images projected by the plurality of projection units.

上記の投影システムは、前記被投影体の形状情報を記憶する記憶部をさらに備え、前記制御部は、前記相対位置の情報と、前記記憶部に記憶された前記被投影体の形状情報とに基づいて各映像の投影領域を決定し、決定後の位置に各投影領域をそれぞれ変更するように前記投影領域変更部を制御してもよい。   The projection system further includes a storage unit that stores shape information of the projection object, and the control unit includes the information on the relative position and the shape information of the projection object stored in the storage unit. The projection area changing unit may be controlled so as to determine a projection area of each video based on the projection area and change each projection area to a position after the determination.

制御部は、上記の相対位置情報および記憶部に記憶された被投影体の形状情報に基づいて、被投影体の形状に応じた最適な投影領域を決定することができる。したがって、投影領域変更部が、決定後の位置に各投影領域をそれぞれ変更することにより、投影部による被投影体の形状に応じた正確な投影が可能となる。   The control unit can determine an optimal projection area according to the shape of the projection target based on the relative position information and the shape information of the projection target stored in the storage unit. Therefore, the projection area changing unit changes each projection area to the position after determination, thereby enabling accurate projection according to the shape of the projection target by the projection unit.

上記の投影システムは、前記被投影体の形状情報を入力するための入力部をさらに備え、前記制御部は、前記相対位置の情報と、前記入力部によって入力された前記被投影体の形状情報とに基づいて各映像の投影領域を決定し、決定後の位置に各投影領域をそれぞれ変更するように前記投影領域変更部を制御してもよい。   The projection system further includes an input unit for inputting shape information of the projection target, and the control unit is configured to input the information on the relative position and the shape information of the projection target input by the input unit. Based on the above, the projection area of each video may be determined, and the projection area changing unit may be controlled to change each projection area to the position after the determination.

制御部は、上記の相対位置情報および入力部によって入力された被投影体の形状情報に基づいて、被投影体の形状に応じた最適な投影領域を決定することができる。したがって、投影領域変更部が、決定後の位置に各投影領域をそれぞれ変更することにより、投影部による被投影体の形状に応じた正確な投影が可能となる。   The control unit can determine an optimum projection area corresponding to the shape of the projection target based on the relative position information and the shape information of the projection target input by the input unit. Therefore, the projection area changing unit changes each projection area to the position after determination, thereby enabling accurate projection according to the shape of the projection target by the projection unit.

前記投影領域変更部は、前記複数の投影部の投影光の光軸の向きおよび光学倍率の少なくとも一方を変化させることにより、各映像の投影領域をそれぞれ変更してもよい。   The projection area changing unit may change the projection area of each image by changing at least one of an optical axis direction and an optical magnification of projection light of the plurality of projection units.

各映像の投影領域を光学的に変更することにより、投影される各映像の明るさや解像度を維持することができ、高品位な映像の投影が可能となる。   By optically changing the projection area of each video, the brightness and resolution of each projected video can be maintained, and high-quality video can be projected.

前記投影領域変更部は、前記複数の投影部によって投影される各映像のデータを加工することにより、各映像の投影領域をそれぞれ変更してもよい。   The projection area changing unit may change the projection area of each video by processing data of each video projected by the plurality of projection units.

この場合、各映像の投影領域を変更するにあたって可動部が不要であるため、機械的な故障を低減して装置の信頼性を高めることができるとともに、システムコストを低減することができる。   In this case, since a movable part is not required for changing the projection area of each image, mechanical failure can be reduced and the reliability of the apparatus can be increased, and the system cost can be reduced.

上記の構成によれば、被投影体が移動した場合でも、複数の投影部によって投影される各映像の繋ぎ目に隙間が生じない、一体的な投影像を被投影体上で生成することができる。   According to the above configuration, even when the projection object moves, it is possible to generate an integrated projection image on the projection object that does not cause a gap between the images projected by the plurality of projection units. it can.

本発明の実施の形態に係る投影システムの概略の構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a projection system according to an embodiment of the present invention. 参考例1における各映像の投影の様子を模式的に示す説明図である。It is explanatory drawing which shows typically the mode of the projection of each image | video in the reference example 1. FIG. 実施例1における各映像の投影の様子を模式的に示す説明図である。It is explanatory drawing which shows typically the mode of the projection of each image | video in Example 1. FIG. 実施例1における投影領域の変更の様子を詳細に示す説明図である。It is explanatory drawing which shows the mode of the change of the projection area | region in Example 1 in detail. 参考例2における各映像の投影の様子を模式的に示す説明図である。It is explanatory drawing which shows typically the mode of the projection of each image | video in the reference example 2. FIG. 実施例2における各映像の投影の様子を模式的に示す説明図である。It is explanatory drawing which shows typically the mode of the projection of each image | video in Example 2. FIG. 直方体形状の被投影体に複数の映像を投影する様子を模式的に示す説明図である。It is explanatory drawing which shows typically a mode that a some image | video is projected on the to-be-projected object of a rectangular parallelepiped shape.

本発明の実施の一形態について、図面に基づいて説明すれば、以下の通りである。   An embodiment of the present invention will be described below with reference to the drawings.

〔投影システムの構成〕
図1は、本実施形態の投影システム1の概略の構成を示すブロック図である。投影システム1は、被投影体に複数の映像を投影するものであり、複数の投影部2と、複数の投影領域変更部3と、位置検出センサ4と、投影制御器5とを有している。
[Configuration of projection system]
FIG. 1 is a block diagram showing a schematic configuration of a projection system 1 of the present embodiment. The projection system 1 projects a plurality of images on a projection target, and includes a plurality of projection units 2, a plurality of projection region changing units 3, a position detection sensor 4, and a projection controller 5. Yes.

投影部2は、被投影体に映像を投影するものである。ここでは例として、投影部2が2つ設けられている場合を示すが、3つ以上設けられてもよい(投影部2の台数は必要に応じて増設できる)。なお、各投影部2を互いに区別する場合には、投影部2a、2b、2c、・・・のように記載する。各投影部2は、光源、光変調素子(例えば液晶パネル)、投影レンズ(ズームレンズを含む)、その他の光学部品を有するプロジェクタで構成されている。   The projection unit 2 projects an image on a projection target. Here, a case where two projection units 2 are provided is shown as an example, but three or more projection units 2 may be provided (the number of projection units 2 can be increased as necessary). In addition, when distinguishing each projection part 2 from each other, it describes like projection part 2a, 2b, 2c, .... Each projection unit 2 includes a projector having a light source, a light modulation element (for example, a liquid crystal panel), a projection lens (including a zoom lens), and other optical components.

投影領域変更部3は、複数の投影部2によって投影される各映像の投影領域をそれぞれ変更するものであり、各投影部2に対応して設けられている。なお、複数の投影領域変更部3を互いに区別する場合には、投影領域変更部3a、3b、3c、・・・のように記載する。各投影領域変更部3は、ズーム駆動機構11と、パン・チルト駆動機構12と、画像処理部13と、I/F14とを有している。   The projection area changing unit 3 changes the projection area of each image projected by the plurality of projection units 2, and is provided corresponding to each projection unit 2. In addition, when distinguishing the some projection area change part 3 from each other, it describes like projection area change part 3a, 3b, 3c, .... Each projection area changing unit 3 includes a zoom driving mechanism 11, a pan / tilt driving mechanism 12, an image processing unit 13, and an I / F 14.

ズーム駆動機構11は、投影部2の投影レンズに含まれるズームレンズを光軸方向に移動させることにより、光学倍率を変化させ(投影映像の拡大/縮小を行い)、これによって映像の投影領域を変更する。パン・チルト駆動機構12は、パン・チルト雲台で構成されており、投影部2の投影光の光軸(投影光の光束の中心光線)の向きをパン方向(左右方向)およびチルト方向(上下方向)に変更することで、映像の投影領域を変更する。画像処理部13は、投影部2によって投影される映像のデータを画像処理によって加工することにより、映像の投影領域を変更する。なお、加工対象となる映像のデータは、図示しないコンテンツ記憶部に記憶されているものとする。I/F14は、投影制御器5からの制御信号を受信するためのインターフェースである。すなわち、ズーム駆動機構11、パン・チルト駆動機構12および画像処理部13の各動作は、I/F14を介して入力される投影制御器5(特に後述する制御部21)からの制御信号に基づいて制御される。   The zoom drive mechanism 11 moves the zoom lens included in the projection lens of the projection unit 2 in the direction of the optical axis, thereby changing the optical magnification (enlarging / reducing the projected image), thereby changing the projection region of the image. change. The pan / tilt drive mechanism 12 includes a pan / tilt head, and the direction of the optical axis of the projection light (the central ray of the light beam of the projection light) of the projection unit 2 is set to the pan direction (left-right direction) and the tilt direction ( The projection area of the video is changed by changing the vertical direction. The image processing unit 13 changes the projection area of the video by processing the video data projected by the projection unit 2 by image processing. Note that video data to be processed is stored in a content storage unit (not shown). The I / F 14 is an interface for receiving a control signal from the projection controller 5. That is, the operations of the zoom drive mechanism 11, the pan / tilt drive mechanism 12, and the image processing unit 13 are based on control signals from the projection controller 5 (particularly, a control unit 21 described later) input via the I / F 14. Controlled.

以上のことから、投影領域変更部3は、投影制御器5(制御部21)からの指示に基づいて、複数の投影部2の投影光の光軸の向きおよび光学倍率の少なくとも一方を変化させることにより、各映像の投影領域を変更するものであるとも言えるし、複数の投影部2によって投影される各映像のデータを加工することにより、各映像の投影領域を変更するものであるとも言える。   From the above, the projection area changing unit 3 changes at least one of the direction of the optical axis and the optical magnification of the projection light of the plurality of projection units 2 based on an instruction from the projection controller 5 (control unit 21). Thus, it can be said that the projection area of each video is changed, and it can also be said that the projection area of each video is changed by processing the data of each video projected by the plurality of projection units 2. .

なお、投影領域変更部3は、ズーム駆動機構11、パン・チルト駆動機構12、画像処理部13の全てを備えていなくてもよい。例えば、投影領域変更部3は、画像処理部13を備えずに、ズーム駆動機構11およびパン・チルト駆動機構12を備え、これらによって投影領域を変更してもよい。また、投影領域変更部3は、ズーム駆動機構11およびパン・チルト駆動機構12を備えずに、画像処理部13を備え、画像処理のみによって投影領域を変更してもよい。後者の場合、画像処理部13は、複数の投影部2に共通して設けられてもよく、この場合は、投影領域変更部3を複数の投影部2に共通する単一のもので構成することができる。   The projection area changing unit 3 may not include all of the zoom drive mechanism 11, the pan / tilt drive mechanism 12, and the image processing unit 13. For example, the projection area changing unit 3 may include the zoom driving mechanism 11 and the pan / tilt driving mechanism 12 without including the image processing unit 13, and may change the projection area using these. The projection area changing unit 3 may include the image processing unit 13 without the zoom driving mechanism 11 and the pan / tilt driving mechanism 12, and change the projection area only by image processing. In the latter case, the image processing unit 13 may be provided in common for the plurality of projection units 2, and in this case, the projection area changing unit 3 is configured as a single unit common to the plurality of projection units 2. be able to.

位置検出センサ4は、被投影体の位置を検出するものであり、例えばパターン投影やTOF(time of flight)により3次元の位置情報を得るIR(infrared)カメラで構成されるが、その他、レーザーレーダー、超音波センサ、デジタルカメラなどで構成されてもよい。   The position detection sensor 4 detects the position of the projection object, and is composed of, for example, an IR (infrared) camera that obtains three-dimensional position information by pattern projection or TOF (time of flight). You may comprise a radar, an ultrasonic sensor, a digital camera, etc.

投影制御器5は、投影領域変更部3による投影領域の変更を制御するものであり、制御部21と、入力部22と、記憶部23と、I/F24とを有している。   The projection controller 5 controls the change of the projection area by the projection area changing unit 3, and includes a control unit 21, an input unit 22, a storage unit 23, and an I / F 24.

制御部21は、複数の投影部2のそれぞれの位置を認識し、認識した複数の投影部2の位置と、位置検出センサ4にて検出された被投影体の位置とから、複数の投影部2のそれぞれに対する被投影体の相対位置を導出して、投影領域変更部3を制御する。このような制御部21は、CPU(Central Processing Unit)などの演算部で構成されている。   The control unit 21 recognizes the positions of the plurality of projection units 2, and determines the plurality of projection units from the recognized positions of the plurality of projection units 2 and the position of the projection target detected by the position detection sensor 4. The relative position of the projection object with respect to each of 2 is derived, and the projection region changing unit 3 is controlled. Such a control part 21 is comprised by calculating parts, such as CPU (Central Processing Unit).

ここで、各投影部2の位置は、予め入力部22によって入力されて記憶部23に記憶されていてもよい。この場合、制御部21は、記憶部23を参照することで各投影部2の位置を認識することができる。また、各投影部2の位置を認識する位置認識部を別途設けておき、制御部21が位置認識部から信号に基づいて各投影部2の位置を認識するようにしてもよい。この場合は、各投影部2が移動しながら投影する場合でも対応できる(位置認識ができる)。   Here, the position of each projection unit 2 may be input in advance by the input unit 22 and stored in the storage unit 23. In this case, the control unit 21 can recognize the position of each projection unit 2 by referring to the storage unit 23. Alternatively, a position recognition unit that recognizes the position of each projection unit 2 may be provided separately, and the control unit 21 may recognize the position of each projection unit 2 based on a signal from the position recognition unit. In this case, even if each projection unit 2 projects while moving, it can be handled (position recognition is possible).

位置検出センサ4の位置は固定されているため、制御部21は、各投影部2の位置を認識することにより、各投影部2と位置検出センサ4との相対的な位置関係を把握することができる。位置検出センサ4にて被投影体の位置が検出されると、位置検出センサ4と被投影体との距離がわかるので、制御部21は、各投影部2、位置検出センサ4、被投影体の相対的な位置関係を把握することができる。したがって、制御部21は、各投影部2のそれぞれと被投影体との相対位置を把握することができる。   Since the position of the position detection sensor 4 is fixed, the control unit 21 recognizes the position of each projection unit 2 to grasp the relative positional relationship between each projection unit 2 and the position detection sensor 4. Can do. When the position of the projection object is detected by the position detection sensor 4, the distance between the position detection sensor 4 and the projection object can be known, so that the control unit 21 can control each projection unit 2, the position detection sensor 4, and the projection object. Can be grasped. Therefore, the control part 21 can grasp | ascertain the relative position of each of each projection part 2, and a to-be-projected body.

制御部21は、上記の相対位置が変化したときに、複数の投影部2によって投影される各映像の少なくとも一部が被投影体上で重なるように各映像の投影領域をそれぞれ変更するための指示(制御信号)を、I/F24を介して投影領域変更部3に与える。この指示に基づき、投影領域変更部3は、各映像の投影領域をそれぞれ変更することになる。なお、各映像の投影領域の変更の詳細については後述する。   The control unit 21 is configured to change the projection area of each image so that at least a part of each image projected by the plurality of projection units 2 overlaps the projection target when the relative position changes. An instruction (control signal) is given to the projection region changing unit 3 via the I / F 24. Based on this instruction, the projection area changing unit 3 changes the projection area of each image. The details of changing the projection area of each video will be described later.

ここで、各映像の少なくとも一部が重なるとは、各映像の一部が重なる場合と、各映像の全てが重なる場合の両方を含む。後者の場合、投影映像の輝度を増大させることができる(例えば各映像の輝度の2倍にすることができる)。また、各映像の全てを重ねることで、右目用の映像と左目用の映像とを重ねて立体的な映像を鑑賞させる3D鑑賞用の投影も可能となる。   Here, at least a part of each video overlaps includes both a case where a part of each video overlaps and a case where all the videos overlap. In the latter case, the brightness of the projected image can be increased (for example, the brightness of each image can be doubled). In addition, by superimposing all the images, it is possible to perform projection for 3D viewing in which a right-eye image and a left-eye image are overlaid so that a stereoscopic image can be viewed.

入力部22は、各投影部2の位置情報や、被投影体の形状情報をはじめ、各種の情報を入力するために設けられており、キーボードやマウスなどの操作部で構成されている。入力部22によって入力された内容は、図示しない表示部で確認することができる。なお、入力部22は、タッチパネルで構成されてもよく、この場合は上記の表示部を兼ねることもできる。   The input unit 22 is provided for inputting various types of information including position information of each projection unit 2 and shape information of the projection target, and includes an operation unit such as a keyboard and a mouse. The content input by the input unit 22 can be confirmed on a display unit (not shown). In addition, the input part 22 may be comprised with the touchscreen, and can also serve as said display part in this case.

記憶部23は、入力部22によって入力された情報(例えば被投影体の形状情報)、各投影部2と被投影体との相対位置情報などを記憶する。I/F24は、制御部21から投影領域変更部3に対して制御信号を送信するためのインターフェースである。   The storage unit 23 stores information (for example, shape information of the projection object) input by the input unit 22, information on the relative position between each projection unit 2 and the projection object, and the like. The I / F 24 is an interface for transmitting a control signal from the control unit 21 to the projection area changing unit 3.

〔各映像の投影領域の変更について〕
次に、本実施形態における、被投影体の移動に伴う各映像の投影領域の変更の詳細について、実施例として説明する。なお、実施例との比較のため、従来のマルチプロジェクションによる投影を参考例として併せて説明する。なお、以下では、被投影体の形状を円柱とし、この円柱の側面(曲面)に複数の映像を投影する場合を考えるが、被投影体の形状はこの円柱に限定されるわけではなく、他の形状であってもよい。
[Change of projection area of each image]
Next, details of the change of the projection area of each video accompanying the movement of the projection object in the present embodiment will be described as an example. For comparison with the embodiment, a conventional multi-projection projection will be described as a reference example. In the following, it is assumed that the shape of the projection object is a cylinder and a plurality of images are projected on the side surface (curved surface) of this cylinder, but the shape of the projection object is not limited to this cylinder, The shape may also be

(参考例1)
図2は、参考例1における各映像の投影の様子を模式的に示している。参考例1は、2つの投影部2a・2bを用いて、移動する被投影体Pに対して各映像M1・M2を投影する例を示している。
(Reference Example 1)
FIG. 2 schematically shows how each image is projected in Reference Example 1. The reference example 1 shows an example in which the images M1 and M2 are projected onto the moving projection object P using the two projection units 2a and 2b.

被投影体Pの移動前においては、2つの投影部2a・2bにより、異なる方向から、立体物である被投影体Pに各映像M1・M2を投影している。そして、投影された各映像M1・M2は、エッジ部で若干重なっており、一体的な映像として投影されている。   Prior to the movement of the projection object P, the two projection units 2a and 2b project the images M1 and M2 onto the projection object P that is a three-dimensional object from different directions. The projected images M1 and M2 are slightly overlapped at the edge portion, and are projected as an integrated image.

この状態から、被投影体Pがシステム側に、つまり、各投影部2に近づく方向(以下、前方と記載する)に移動すると、各投影部2の投影方向が異なるため、2つの映像M1・M2が被投影体P上で離れる方向に移動することになる。また、各投影部2からの投影光は、広がりをもって拡大投影されているため、被投影体Pが前方に移動することにより、投影された各映像M1・M2の投影面積は小さくなる。これらの原因により、被投影体P上で、投影される2つの映像M1・M2の間に隙間Sができてしまい、非常に見苦しい状態となってしまう。   From this state, when the projection target P moves to the system side, that is, in a direction approaching each projection unit 2 (hereinafter referred to as the front), the projection direction of each projection unit 2 is different, and thus the two images M1. M2 moves in a direction away from the projection target P. Further, since the projection light from each projection unit 2 is enlarged and projected with a spread, the projection area of each of the projected images M1 and M2 is reduced when the projection target P moves forward. Due to these causes, a gap S is formed between the two projected images M1 and M2 on the projection target P, which is very unsightly.

(実施例1)
図3は、実施例1における各映像の投影の様子を模式的に示している。実施例1では、各投影部2a・2bと被投影体Pとの相対位置関係を把握するために、位置検出センサ4(距離センサ)が設けられており、被投影体Pの位置(位置検出センサ4と被投影体Pとの距離)を測定できるようになっている。また、この例では、各投影部2a・2bおよび位置検出センサ4の位置は、投影制御器5に予め入力されており、これらの位置は動かないものする。したがって、位置検出センサ4の測定結果から、投影制御器5(制御部21)は、各投影部2a・2bと被投影体Pとの相対位置関係を把握できることになる。
(Example 1)
FIG. 3 schematically shows how each image is projected in the first embodiment. In the first embodiment, a position detection sensor 4 (distance sensor) is provided in order to grasp the relative positional relationship between the projection units 2a and 2b and the projection target P, and the position (position detection) of the projection target P is provided. The distance between the sensor 4 and the projection object P) can be measured. In this example, the positions of the projection units 2a and 2b and the position detection sensor 4 are input to the projection controller 5 in advance, and these positions do not move. Therefore, from the measurement result of the position detection sensor 4, the projection controller 5 (control unit 21) can grasp the relative positional relationship between the projection units 2 a and 2 b and the projection target P.

また、各投影部2a・2bによって投影される各映像M1・M2の投影領域は、それぞれ前述した投影領域変更部3a・3bによって変更可能となっている。ここでは、投影領域変更部3a・3bは、ズーム駆動機構11(図1参照)およびパン・チルト駆動機構12(図1参照)を備えており、各投影部2a・2bの投影光の光軸の向きおよび光学倍率を変化させることにより、各映像M1・M2の投影領域をそれぞれ変更することが可能となっている。   In addition, the projection areas of the images M1 and M2 projected by the projection units 2a and 2b can be changed by the above-described projection area changing units 3a and 3b, respectively. Here, the projection area changing units 3a and 3b include a zoom drive mechanism 11 (see FIG. 1) and a pan / tilt drive mechanism 12 (see FIG. 1), and the optical axes of the projection lights of the projection units 2a and 2b. By changing the direction and the optical magnification, it is possible to change the projection areas of the respective images M1 and M2.

被投影体Pの移動前においては、参考例1と同様に、2つの投影部2a・2bにより、異なる方向から、立体物である被投影体Pに各映像M1・M2を投影している。そして、投影された各映像M1・M2は、エッジ部で若干重なっており、一体的な映像として投影されている。   Before the movement of the projection object P, similarly to the reference example 1, the two projection units 2a and 2b project the images M1 and M2 from the different directions onto the projection object P that is a three-dimensional object. The projected images M1 and M2 are slightly overlapped at the edge portion, and are projected as an integrated image.

この状態から、被投影体Pが前方に移動すると、投影制御器5は、位置検出センサ4での検出結果(距離情報)を受けて、各投影部2a・2bと移動する被投影体Pとの相対位置関係を把握し、これに基づいて、各映像M1・M2の少なくとも一部が被投影体P上で重なるように、各映像M1・M2の投影領域を変更するための制御信号を投影領域変更部3a・3bに与える。投影領域変更部3a・3bは、上記制御信号に基づいて各映像M1・M2の投影領域を変更する。これにより、移動後の被投影体P上において、投影される映像M1・M2のエッジ部が重なった状態が維持され、投影される2つの映像M1・M2の間に隙間が生じることが回避される。   When the projection object P moves forward from this state, the projection controller 5 receives the detection result (distance information) from the position detection sensor 4, and the projection object 2a and 2b moving with the projection parts 2a and 2b. Based on this, a control signal for changing the projection area of each of the images M1 and M2 is projected so that at least a part of each of the images M1 and M2 overlaps the projection target P. This is given to the area changing units 3a and 3b. The projection area changing units 3a and 3b change the projection areas of the videos M1 and M2 based on the control signal. Thereby, the state where the edge portions of the projected images M1 and M2 are overlapped is maintained on the projection target P after the movement, and it is avoided that a gap is generated between the two projected images M1 and M2. The

図4は、実施例1における投影領域の変更の様子を詳細に示している。なお、被投影体Pおよび各投影部2a・2bは、実際には立体的に(立体空間内に)配置されるものであるが、ここでは説明を単純化するため、ある平面上での位置関係に基づいて説明する。   FIG. 4 shows in detail how the projection area is changed in the first embodiment. Note that the projection target P and the projection units 2a and 2b are actually arranged in a three-dimensional manner (in a three-dimensional space). However, in order to simplify the description, the positions on a certain plane are described here. This will be described based on the relationship.

被投影体Pの移動前において、各投影部2a・2bの投影光の光軸(中心軸)は、各投影部2a・2bを結ぶ軸を基準として、角度θ1(°)およびθ2(°)の角度に設定されて、互いに異なる方向から被投影体Pに投影光を投影している。また、各投影部2a・2bの投影光は、それぞれの光軸を中心としてα1(°)およびα2(°)の画角で広がって投影映像を形成している。このとき、被投影体Pは、位置検出センサ4から距離D(m)の位置にあり、この被投影体P上で、投影される各映像のエッジ部が若干重なっている。位置検出センサ4は、各投影部2a・2bの中間に位置しているものとする。   Before movement of the projection target P, the optical axes (center axes) of the projection light of the projection units 2a and 2b are based on the axes connecting the projection units 2a and 2b as angles θ1 (°) and θ2 (°). The projection light is projected onto the projection target P from different directions. Further, the projection light of each projection unit 2a and 2b spreads at angles of view of α1 (°) and α2 (°) around the respective optical axes to form a projected image. At this time, the projection object P is located at a distance D (m) from the position detection sensor 4, and the edge portions of the projected images on the projection object P are slightly overlapped. The position detection sensor 4 is assumed to be located in the middle between the projection units 2a and 2b.

この状態から、被投影体Pが前方に移動し、位置検出センサ4から距離D’(m)の位置に被投影体Pが位置すると(D>D’)、投影領域変更部3aのズーム駆動機構11により、投影部2aの投影光の画角は、α1からα1’(°)に変更され、投影領域変更部3bのズーム駆動機構11により、投影部2bの投影光の画角は、α2からα2’(°)に変更される。ただし、α1’>α1であり、α2’>α2である。また、投影領域変更部3aのパン・チルト駆動機構12により、投影部2aの投影光の光軸の角度は、θ1からθ1’(°)に変更され、投影領域変更部3bのパン・チルト駆動機構12により、投影部2bの投影光の光軸の角度は、θ2からθ2’(°)に変更される。ただし、θ1’<θ1であり、θ2’<θ2である。これにより、被投影体Pの移動後においても、被投影体P上で、投影される各映像のエッジ部が重なる状態が維持される。なお、それぞれの角度の目標値(α1’、α2’、θ1’、θ2’)は、位置検出センサ4にて距離D’が検出されれば、幾何計算によって容易に求められる。   From this state, when the projection object P moves forward and the projection object P is positioned at a distance D ′ (m) from the position detection sensor 4 (D> D ′), the zoom driving of the projection area changing unit 3a is performed. The angle of view of the projection light of the projection unit 2a is changed from α1 to α1 ′ (°) by the mechanism 11, and the angle of view of the projection light of the projection unit 2b is α2 by the zoom drive mechanism 11 of the projection region change unit 3b. To α2 ′ (°). However, α1 ′> α1 and α2 ′> α2. Further, the angle of the optical axis of the projection light of the projection unit 2a is changed from θ1 to θ1 ′ (°) by the pan / tilt drive mechanism 12 of the projection region change unit 3a, and the pan / tilt drive of the projection region change unit 3b is performed. The mechanism 12 changes the angle of the optical axis of the projection light of the projection unit 2b from θ2 to θ2 ′ (°). However, θ1 ′ <θ1 and θ2 ′ <θ2. Thereby, even after the projection target P is moved, the state where the edge portions of the projected images overlap on the projection target P is maintained. Note that the target values (α1 ′, α2 ′, θ1 ′, θ2 ′) of the respective angles can be easily obtained by geometric calculation if the distance D ′ is detected by the position detection sensor 4.

(参考例2)
図5は、参考例2における各映像の投影の様子を模式的に示している。参考例2は、3つの投影部2a・2b・2cを用いて、移動する被投影体Pに対して各映像M1・M2・M3を投影する例を示している。
(Reference Example 2)
FIG. 5 schematically shows how each image is projected in Reference Example 2. The reference example 2 shows an example in which each of the images M1, M2, and M3 is projected onto the moving projection object P using the three projection units 2a, 2b, and 2c.

被投影体Pの移動前においては、3つの投影部2a・2b・2cにより、異なる方向から、立体物である被投影体Pに各映像M1・M2・M3を投影している。そして、投影された各映像M1・M2・M3は、それぞれのエッジ部で若干重なっており、一体的な映像として投影されている。   Prior to the movement of the projection target P, the three images M1, M2, and M3 are projected onto the projection target P, which is a three-dimensional object, by the three projection units 2a, 2b, and 2c from different directions. The projected images M1, M2, and M3 are slightly overlapped at the respective edge portions, and are projected as an integrated image.

この状態から、投影部2a・2b・2cが並ぶ方向と平行な一方向(以下、右方向と記載する)に被投影体Pが移動すると、各投影部2の投影方向が異なるため、被投影体P上で各映像M1・M2・M3のそれぞれが異なる形状に変化する。このため、図5の例では、中央の映像M2と右側の映像M3との間に隙間Sができてしまい、非常に見苦しい状態となってしまう。   From this state, when the projection target P moves in one direction parallel to the direction in which the projection units 2a, 2b, and 2c are arranged (hereinafter referred to as the right direction), the projection direction of each projection unit 2 is different, and thus the projection target On the body P, the images M1, M2, and M3 change into different shapes. For this reason, in the example of FIG. 5, a gap S is formed between the center image M2 and the right image M3, which is very unsightly.

(実施例2)
図6は、実施例2における各映像の投影の様子を模式的に示している。実施例2では、各投影部2a・2b・2cと被投影体Pとの相対位置関係を把握するために、位置検出センサ4として距離画像センサが用いられている。距離画像センサは、一種のデジタルカメラであり、撮像した画像の各ピクセル毎に、被投影体までの距離データを取得できる。この距離の測定原理としては、ステレオカメラ方式や前述のTOF方式等が知られている。この距離画像センサにより、被投影体Pの3次元位置を測定することができる。
(Example 2)
FIG. 6 schematically shows how each image is projected in the second embodiment. In the second embodiment, a distance image sensor is used as the position detection sensor 4 in order to grasp the relative positional relationship between the projection units 2a, 2b, and 2c and the projection target P. The distance image sensor is a kind of digital camera, and can acquire distance data to a projection object for each pixel of a captured image. As the distance measurement principle, a stereo camera system, the above-described TOF system, and the like are known. With this distance image sensor, the three-dimensional position of the projection object P can be measured.

また、実施例2では、各投影部2a・2b・2cおよび位置検出センサ4の位置は、投影制御器5に予め入力されており、これらの位置は動かないものする。したがって、位置検出センサ4の測定結果から、投影制御器5(制御部21)は、各投影部2a・2b・2cと被投影体Pとの相対位置関係を把握できることになる。   In the second embodiment, the positions of the projection units 2a, 2b, 2c and the position detection sensor 4 are input to the projection controller 5 in advance, and these positions do not move. Therefore, from the measurement result of the position detection sensor 4, the projection controller 5 (control unit 21) can grasp the relative positional relationship between the projection units 2 a, 2 b, and 2 c and the projection target P.

また、各投影部2a・2b・2cによって投影される各映像M1・M2・M3の投影領域は、それぞれ投影領域変更部3a・3b・3cによって変更可能となっている。   Further, the projection areas of the images M1, M2, and M3 projected by the projection units 2a, 2b, and 2c can be changed by the projection area changing units 3a, 3b, and 3c, respectively.

被投影体Pの移動前においては、参考例2と同様に、3つの投影部2a・2b・2cにより、異なる方向から、立体物である被投影体Pに各映像M1・M2・M3を投影している。そして、投影された各映像M1・M2・M3は、それぞれのエッジ部で若干重なっており、一体的な映像として投影されている。   Prior to the movement of the projection target P, each of the images M1, M2, and M3 is projected onto the projection target P that is a three-dimensional object from different directions by the three projection units 2a, 2b, and 2c, as in Reference Example 2. doing. The projected images M1, M2, and M3 are slightly overlapped at the respective edge portions, and are projected as an integrated image.

この状態から、被投影体Pが右方向に移動すると、投影制御器5は、位置検出センサ4での検出結果(位置情報)を受けて、各投影部2a・2b・2cと移動する被投影体Pとの相対位置関係を把握し、これに基づいて、各映像M1・M2の少なくとも一部が被投影体P上で重なり、かつ、各映像M2・M3の少なくとも一部が被投影体P上で重なるように、各映像M1・M2・M3の投影領域を変更するための制御信号を投影領域変更部3a・3b・3cに与える。投影領域変更部3a・3b・3cは、上記制御信号に基づいて各映像M1・M2・M3の投影領域を変更する。これにより、移動後の被投影体P上において、投影される映像M1・M2・M3のエッジ部が重なった状態が維持され、投影される2つの映像M1・M2の間、および2つの映像M2・M3の間に隙間が生じることが回避される。なお、被投影体Pの移動に伴う投影領域の変更は、実施例1と同様に、各投影部2の投影光の光軸の角度および画角の変更で行うことができる。   From this state, when the projection object P moves in the right direction, the projection controller 5 receives the detection result (position information) from the position detection sensor 4 and moves to each projection unit 2a, 2b, 2c. The relative positional relationship with the body P is grasped, and based on this, at least a part of each of the images M1 and M2 overlaps on the projection P, and at least a part of each of the images M2 and M3 is projected P Control signals for changing the projection areas of the respective images M1, M2, and M3 are given to the projection area changing units 3a, 3b, and 3c so as to overlap with each other. The projection area changing units 3a, 3b, and 3c change the projection areas of the videos M1, M2, and M3 based on the control signal. Thereby, the state where the edge portions of the projected images M1, M2, and M3 overlap each other is maintained on the projection target P after the movement, and between the two projected images M1 and M2 and between the two projected images M2. -A gap is avoided between M3. In addition, the change of the projection area accompanying the movement of the projection target P can be performed by changing the angle of the optical axis and the angle of view of the projection light of each projection unit 2 as in the first embodiment.

以上のように、被投影体Pが移動して、各投影部2と被投影体Pとの相対位置が変化したとき、投影制御器5(制御部21)は、各投影部2によって投影される各映像の少なくとも一部が被投影体P上で重なるように、投影領域変更部3を制御して各映像の投影領域をそれぞれ変更させる。これにより、被投影体Pが移動した場合でも、各映像M1・M2の繋ぎ目に隙間が生じない、一体的な投影像を被投影体P上で生成することができる。   As described above, when the projection target P moves and the relative positions of the projection units 2 and the projection target P change, the projection controller 5 (control unit 21) projects the projections by the projection units 2. The projection area changing unit 3 is controlled to change the projection area of each image so that at least a part of each image overlaps on the projection target P. Thereby, even when the projection target P moves, an integrated projection image can be generated on the projection target P without any gap between the joints of the videos M1 and M2.

また、本実施形態では、ズーム投影レンズを搭載した投影部2を使用し、投影領域変更部3のズーム駆動機構11によってレンズの焦点距離を変えることでレンズの画角を変え(投影映像の拡大率を変化させ)、パン・チルト駆動機構12により、投影部2の投影光の光軸の向きを変化させている。このように、投影領域変更部3が各投影部2の投影光の光軸の向きおよび光学倍率を変化させて、各映像の投影領域を光学的に変更することにより、例えば後述する電子シフト方式によって投影領域を変更する場合に比べて、投影される各映像の明るさや解像度を投影領域の変更の前後で維持することができ、高品位な映像の投影が可能となる。なお、このような効果は、投影領域変更部3が各投影部2の投影光の光軸の向きおよび光学倍率のどちらか一方を変化させて投影領域を変更する場合でも得ることができる。   In the present embodiment, the projection unit 2 equipped with a zoom projection lens is used, and the angle of view of the lens is changed by changing the focal length of the lens by the zoom drive mechanism 11 of the projection region changing unit 3 (enlarging the projected image). The direction of the optical axis of the projection light of the projection unit 2 is changed by the pan / tilt driving mechanism 12. As described above, the projection region changing unit 3 changes the projection region of each image optically by changing the direction of the optical axis and the optical magnification of the projection light of each projection unit 2, for example, an electronic shift method described later. Compared with the case where the projection area is changed, the brightness and resolution of each projected image can be maintained before and after the change of the projection area, and a high-quality image can be projected. Such an effect can be obtained even when the projection region changing unit 3 changes the projection region by changing either the direction of the optical axis of the projection light of each projection unit 2 or the optical magnification.

なお、本実施形態では、投影光の光軸の向きをパン・チルト駆動機構12によって変更する例について説明したが、鏡筒シフト機構やレンズシフト機構によって投影領域を変更してもよい。鏡筒シフト機構は、投影レンズを保持する鏡筒を光軸に垂直な方向にシフトさせることにより、投影領域をシフトさせるものである。レンズシフト機構は、複数の投影レンズのうち、少なくとも1枚のレンズを光軸に垂直な方向にシフトさせることにより、投影領域をシフトさせるもの(単レンズシフト機構、レンズ群シフト機構)である。   In this embodiment, the example in which the direction of the optical axis of the projection light is changed by the pan / tilt drive mechanism 12 has been described. However, the projection area may be changed by a lens barrel shift mechanism or a lens shift mechanism. The lens barrel shift mechanism shifts the projection region by shifting the lens barrel holding the projection lens in a direction perpendicular to the optical axis. The lens shift mechanism is a mechanism that shifts a projection region by shifting at least one lens among a plurality of projection lenses in a direction perpendicular to the optical axis (single lens shift mechanism, lens group shift mechanism).

また、パン・チルト駆動機構12等によって投影部2を物理的に動かす以外にも、画像処理部13(図1参照)での画像処理によって投影領域を電子的に変更してもよい。例えば、各投影部2によって投影される映像のデータを加工して、全投影領域の中の一部を映像領域として使用し、他の領域には映像を表示しない(投影光無し=黒にする)ようにして、投影部2を動かさずに映像領域を全投影領域の中でシフトさせることでも、実質的に光軸の角度を変えることができる。このような方式は、電子シフト方式と呼ばれる。電子シフト方式では、光軸の可動範囲に相当する全投影領域が必要となるため、物理的な手段で投影領域を変更する場合と比較して、投影映像の明るさや解像度が劣ることになるが、可動部を減らして機械的な故障を低減できるため、信頼性を高めることができるとともに、システムコストを低減することができる。   In addition to physically moving the projection unit 2 by the pan / tilt drive mechanism 12 or the like, the projection region may be electronically changed by image processing in the image processing unit 13 (see FIG. 1). For example, the video data projected by each projection unit 2 is processed, a part of the entire projection area is used as the video area, and no video is displayed in other areas (no projection light = black). In this manner, the angle of the optical axis can be substantially changed by shifting the image area in the entire projection area without moving the projection unit 2. Such a method is called an electronic shift method. In the electronic shift method, since the entire projection area corresponding to the movable range of the optical axis is required, the brightness and resolution of the projected image are inferior compared with the case where the projection area is changed by physical means. Since the mechanical failure can be reduced by reducing the movable parts, the reliability can be improved and the system cost can be reduced.

また、本実施形態では、ズーム駆動機構11によって投影映像の光学倍率を変化させる例について説明したが、投影映像の光学倍率を変化させる方法としては、画像処理部13での画像処理によって光学倍率を変更する電子ズーム方式を用いることもできる。電子ズーム方式とは、投影映像のデータを加工して、全投影領域の中の一部を映像領域として使用し、他の領域には表示しない(投影光無し=黒にする)ようにして、投影部2を動かさずに映像領域を全投影領域の中で拡大/縮小する方法である。このような電子ズーム方式によっても、実質的に投影映像の拡大率を変えることができる。電子ズーム方式では、投影映像の最大拡大率に相当する全投影領域が必要となるため、物理的な手段で拡大率を変更する場合と比較して、投影映像の明るさや解像度が劣ることになるが、可動部を減らして信頼性を高めるとともに、システムコストを低減することができる。   In this embodiment, the example in which the optical magnification of the projected video is changed by the zoom drive mechanism 11 has been described. However, as a method of changing the optical magnification of the projected video, the optical magnification is set by image processing in the image processing unit 13. A changing electronic zoom method can also be used. With the electronic zoom method, the projection video data is processed so that a part of the entire projection area is used as the video area and is not displayed in other areas (no projection light = black). This is a method of enlarging / reducing the video area in the entire projection area without moving the projection unit 2. Even with such an electronic zoom method, the magnification of the projected image can be substantially changed. In the electronic zoom method, since the entire projection area corresponding to the maximum magnification of the projected image is required, the brightness and resolution of the projected image are inferior compared with the case where the magnification is changed by physical means. However, it is possible to increase the reliability by reducing the movable parts and reduce the system cost.

〔被投影体の形状を加味した投影領域の変更について〕
図7は、直方体形状の被投影体Pに対して3つの映像M1・M2・M3をエッジ部分が重なるように投影する様子を模式的に示している。例えば、直方体形状の被投影体P上において、2つの映像M1・M2の重なり幅として所定の幅Aを確保したいとき、この重なり幅Aを実現するための、各投影部2a・2bによる各映像M1・M2の投影方向(投影光の光軸の向き)および光学倍率は、図6で示した円柱形状の被投影体P上に各映像M1・M2を投影する場合とは若干異なる。
[About changing the projection area that takes into account the shape of the projection object]
FIG. 7 schematically shows a state in which three images M1, M2, and M3 are projected onto a rectangular parallelepiped projection target P so that the edge portions overlap each other. For example, when it is desired to secure a predetermined width A as the overlapping width of the two images M1 and M2 on the rectangular parallelepiped projection target P, each image by the projection units 2a and 2b for realizing the overlapping width A is provided. The projection direction (the direction of the optical axis of the projection light) and the optical magnification of M1 and M2 are slightly different from the case of projecting each image M1 and M2 on the cylindrical projection target P shown in FIG.

そこで、投影制御器5の制御部21は、各投影部2のそれぞれと被投影体Pとの相対位置の情報と、記憶部23に記憶された被投影体Pの形状情報とに基づく幾何計算によって、各映像の投影領域を決定し、決定後の位置に各投影領域をそれぞれ変更するための指示(例えば投影方向および光学倍率に関する指示)を投影領域変更部3に与えて投影領域変更部3を制御し、各投影領域を変更させてもよい。   Therefore, the control unit 21 of the projection controller 5 performs geometric calculation based on the information on the relative position between each projection unit 2 and the projection target P and the shape information of the projection target P stored in the storage unit 23. To determine the projection area of each image, and give an instruction to change each projection area to the position after the determination (for example, an instruction regarding the projection direction and optical magnification) to the projection area changing unit 3. May be controlled to change each projection region.

投影領域変更部3は、制御部21の上記指示を受けて、投影方向および光学倍率を変更し、各映像の投影領域を変更するため、各投影部2は、被投影体Pの形状に応じた適切な位置(例えば所定の重なり幅Aで各映像のエッジ部分を重ねることができる位置)に各映像を投影することが可能となる。よって、被投影体Pの形状に応じた正確な投影(精度の高い投影)が可能となる。   In response to the instruction from the control unit 21, the projection region changing unit 3 changes the projection direction and optical magnification, and changes the projection region of each image. Therefore, each projection unit 2 corresponds to the shape of the projection target P. It is possible to project each image at an appropriate position (for example, a position where the edge portion of each image can be overlapped with a predetermined overlap width A). Therefore, accurate projection (highly accurate projection) according to the shape of the projection target P is possible.

上記の被投影体Pの形状情報は、記憶部23に予め記憶されていなくてもよく、入力部22によってその都度入力されてもよい。この場合、投影制御器5の制御部21は、各投影部2のそれぞれと被投影体Pとの相対位置の情報と、入力部22によって入力された被投影体Pの形状情報とに基づいて各映像の投影領域を決定し、決定後の位置に各投影領域をそれぞれ変更するための指示を投影領域変更部3に与えて投影領域変更部3を制御し、各投影領域を変更させることで、上記と同様の効果を得ることができる。   The shape information of the projection target P may not be stored in the storage unit 23 in advance, and may be input by the input unit 22 each time. In this case, the control unit 21 of the projection controller 5 is based on the information on the relative positions of each projection unit 2 and the projection target P and the shape information of the projection target P input by the input unit 22. By determining the projection area of each image, giving an instruction to change each projection area to the position after the determination, the projection area changing unit 3 is controlled to change the projection area. The same effects as described above can be obtained.

本発明は、移動する被投影体に複数の映像を投影するシステムに利用可能である。   The present invention can be used in a system that projects a plurality of images onto a moving projection object.

1 投影システム
2 投影部
2a 投影部
2b 投影部
2c 投影部
3 投影領域変更部
3a 投影領域変更部
3b 投影領域変更部
3c 投影領域変更部
4 位置検出センサ(位置検出部)
21 制御部
22 入力部
23 記憶部
DESCRIPTION OF SYMBOLS 1 Projection system 2 Projection part 2a Projection part 2b Projection part 2c Projection part 3 Projection area change part 3a Projection area change part 3b Projection area change part 3c Projection area change part 4 Position detection sensor (position detection part)
21 control unit 22 input unit 23 storage unit

Claims (5)

被投影体に映像を投影する複数の投影部と、
前記複数の投影部によって投影される各映像の投影領域をそれぞれ変更する投影領域変更部と、
前記被投影体の位置を検出する位置検出部と、
前記複数の投影部のそれぞれの位置を認識し、認識した前記複数の投影部の位置と、前記位置検出部にて検出された前記被投影体の位置とから、前記複数の投影部のそれぞれに対する前記被投影体の相対位置を導出して、前記投影領域変更部を制御する制御部とを備え、
前記制御部は、前記相対位置が変化したときに、前記複数の投影部によって投影される各映像の少なくとも一部が前記被投影体上で重なるように、前記投影領域変更部を制御して各映像の投影領域をそれぞれ変更させることを特徴とする投影システム。
A plurality of projection units for projecting images on a projection target;
A projection area changing section for changing the projection area of each image projected by the plurality of projection sections;
A position detector for detecting the position of the projection object;
Recognizing the respective positions of the plurality of projection units, and from the recognized positions of the plurality of projection units and the position of the projection object detected by the position detection unit, for each of the plurality of projection units A control unit for deriving a relative position of the projection object and controlling the projection region changing unit;
The control unit controls the projection area changing unit so that at least a part of each image projected by the plurality of projection units overlaps on the projection object when the relative position changes. A projection system characterized in that each projection area of an image is changed.
前記被投影体の形状情報を記憶する記憶部をさらに備え、
前記制御部は、前記相対位置の情報と、前記記憶部に記憶された前記被投影体の形状情報とに基づいて各映像の投影領域を決定し、決定後の位置に各投影領域をそれぞれ変更するように前記投影領域変更部を制御することを特徴とする請求項1に記載の投影システム。
A storage unit for storing shape information of the projection object;
The control unit determines a projection area of each image based on the information on the relative position and the shape information of the projection object stored in the storage unit, and changes each projection area to the position after the determination. The projection system according to claim 1, wherein the projection area changing unit is controlled to do so.
前記被投影体の形状情報を入力するための入力部をさらに備え、
前記制御部は、前記相対位置の情報と、前記入力部によって入力された前記被投影体の形状情報とに基づいて各映像の投影領域を決定し、決定後の位置に各投影領域をそれぞれ変更するように前記投影領域変更部を制御することを特徴とする請求項1に記載の投影システム。
An input unit for inputting shape information of the projection object;
The control unit determines a projection area of each image based on the information on the relative position and the shape information of the projection object input by the input unit, and changes each projection area to a position after the determination. The projection system according to claim 1, wherein the projection area changing unit is controlled to do so.
前記投影領域変更部は、前記複数の投影部の投影光の光軸の向きおよび光学倍率の少なくとも一方を変化させることにより、各映像の投影領域をそれぞれ変更することを特徴とする請求項1から3のいずれかに記載の投影システム。   The projection area changing unit changes the projection area of each image by changing at least one of an optical axis direction and an optical magnification of projection light of the plurality of projection units. 4. The projection system according to any one of 3. 前記投影領域変更部は、前記複数の投影部によって投影される各映像のデータを加工することにより、各映像の投影領域をそれぞれ変更することを特徴とする請求項1から3のいずれかに記載の投影システム。   4. The projection area changing unit changes the projection area of each image by processing data of each image projected by the plurality of projection units. 5. Projection system.
JP2014081936A 2014-04-11 2014-04-11 projection system Pending JP2015204487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014081936A JP2015204487A (en) 2014-04-11 2014-04-11 projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014081936A JP2015204487A (en) 2014-04-11 2014-04-11 projection system

Publications (1)

Publication Number Publication Date
JP2015204487A true JP2015204487A (en) 2015-11-16

Family

ID=54597723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014081936A Pending JP2015204487A (en) 2014-04-11 2014-04-11 projection system

Country Status (1)

Country Link
JP (1) JP2015204487A (en)

Similar Documents

Publication Publication Date Title
JP6249248B2 (en) Projection device
US20220174264A1 (en) Stereoscopic image display apparatus with alignment function and method of displaying stereoscopic image using the same
CN104977785B (en) Combined type is visible with invisible optical projection system
JP5401940B2 (en) Projection optical system zoom ratio measurement method, projection image correction method using the zoom ratio measurement method, and projector for executing the correction method
US10194125B2 (en) Projection apparatus
US20120212485A1 (en) Apparatus, method, and program for displaying stereoscopic images
JPH10174127A (en) Method and device for three-dimensional display
US9253470B2 (en) 3D camera
WO2013046886A1 (en) Imaging device for three-dimensional image and image display method for focus state confirmation
WO2018233275A1 (en) Naked-eye 3d display method, device and terminal equipment
CN107301005A (en) Method for determining touch position and touch projection system using same
JP2007318754A (en) Virtual environment experience display device
JP2017163532A (en) Projection apparatus
WO2013124901A1 (en) Optical-projection-type display apparatus, portable terminal, and program
WO2018154634A1 (en) Projection display device, method for controlling projection display device, and program
JP3741136B2 (en) Obstacle adaptive projection display
JP6307706B2 (en) Projection device
JP4199641B2 (en) Projector device
CN105323575A (en) Video display system, three-dimensional video pointing device and video display device
JP6700935B2 (en) Imaging device, control method thereof, and control program
JP2015145894A (en) Projection type display device
CN115695767A (en) Electronic device and method for calibrating parallax optics
TWI486052B (en) Three-dimensional image processing device and three-dimensional image processing method
JP2009122895A (en) Method and equipment for displaying pseudo three-dimensional image of three-dimensional object corresponding to movement of viewer&#39;s point of view
KR101550606B1 (en) Curved display apparatus for vehicle