[go: up one dir, main page]

JP2016012854A - Projection system - Google Patents

Projection system Download PDF

Info

Publication number
JP2016012854A
JP2016012854A JP2014134179A JP2014134179A JP2016012854A JP 2016012854 A JP2016012854 A JP 2016012854A JP 2014134179 A JP2014134179 A JP 2014134179A JP 2014134179 A JP2014134179 A JP 2014134179A JP 2016012854 A JP2016012854 A JP 2016012854A
Authority
JP
Japan
Prior art keywords
projector
irradiation point
control unit
projection system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014134179A
Other languages
Japanese (ja)
Inventor
菁野 馬
Jing Ma
菁野 馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014134179A priority Critical patent/JP2016012854A/en
Publication of JP2016012854A publication Critical patent/JP2016012854A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projection system with which a presenter can make presentation that a viewer who pays attention to a sub-screen can easily understand.SOLUTION: A projection system includes: a first projector having a camera photographing a projected image in a main screen and an irradiation point by a laser pointer; a control section which detects the irradiation point in response to the photographed image and performs projective transformation of a coordinate of the irradiation point; and a second projector for generating the pointer by using an OSD function in response to the projectively transformed coordinate.

Description

本発明は、プロジェクションシステムに関する。   The present invention relates to a projection system.

発表者が、多数の視聴者に対してプレゼンテーションを行う際に、2台以上のプロジェクタを用いて、複数のスクリーンに画像等を投影するプロジェクションシステムが知られている。この際、発表者は、視聴者が理解し易いように、説明箇所をレーザーポインタ等で指し示し、照射点をメインスクリーンに表示させている。   2. Description of the Related Art A projection system that projects images and the like on a plurality of screens using two or more projectors when a presenter makes a presentation to a large number of viewers is known. At this time, the presenter points the explanation portion with a laser pointer or the like and displays the irradiation point on the main screen so that the viewer can easily understand.

リモコンのキー操作に応じて、ポインタ像をメインスクリーンに表示させ、通信回線を介して、複数の別設表示装置にコマンドを受信させることで、ポインタ像をサブスクリーンにも表示させるプロジェクタが開示されている(例えば、特許文献1参照)。   A projector is disclosed in which a pointer image is displayed on a main screen in response to a key operation of a remote control, and a plurality of separate display devices receive commands via a communication line to display the pointer image on a sub screen. (For example, refer to Patent Document 1).

しかしながら、従来のプロジェクションシステムにおいて、メインスクリーンに表示させている照射点を、リアルタイムでサブスクリーンにも表示させることは、困難であった。   However, in the conventional projection system, it is difficult to display the irradiation point displayed on the main screen on the sub screen in real time.

特許文献1に記載のプロジェクタは、サブスクリーンに表示させているポインタ像を、自身で生成することができないため、メインスクリーンとサブスクリーンとの間で、ポインタ像を表示させる際に、タイムラグが生じる懸念がある。   Since the projector described in Patent Document 1 cannot generate the pointer image displayed on the sub-screen by itself, a time lag occurs when the pointer image is displayed between the main screen and the sub-screen. There are concerns.

本発明は、上記の課題に鑑みてなされたものであり、発表者が、サブスクリーンに注目する視聴者にも、理解し易いプレゼンテーションを行うことが可能なプロジェクションシステムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a projection system in which a presenter can make an easy-to-understand presentation even for a viewer who pays attention to a sub-screen. .

本実施の形態のプロジェクションシステムは、メインスクリーンにおける投影画像及びレーザポインタによる照射点を撮影するカメラを備える第1のプロジェクタと、撮影画像に基づいて、照射点を検出し、該照射点の座標を射影変換する制御部と、射影変換された座標に基づいて、OSD機能を用いてポインタを生成する第2のプロジェクタと、を有することを要件とする。   The projection system of the present embodiment detects a projection point based on a first projector provided with a camera that captures a projection image on a main screen and an irradiation point by a laser pointer, and coordinates of the irradiation point. It is a requirement to have a control unit that performs projective conversion and a second projector that generates a pointer using the OSD function based on the coordinates subjected to the projective conversion.

本実施の形態によれば、発表者が、サブスクリーンに注目する視聴者にも、理解し易いプレゼンテーションを行うことが可能なプロジェクションシステムを提供することができる。   According to the present embodiment, it is possible to provide a projection system in which a presenter can make an easy-to-understand presentation for a viewer who pays attention to a sub-screen.

本実施の形態に係るプロジェクションシステムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the projection system which concerns on this Embodiment. 本実施の形態に係る単板式DLPプロジェクタの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the single plate type | mold DLP projector which concerns on this Embodiment. 本実施の形態に係るプロジェクションシステムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the projection system which concerns on this Embodiment. 本実施の形態に係るプロジェクションシステムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the projection system which concerns on this Embodiment. 本実施の形態に係る射影変換係数演算のための射影変換用パターンの一例を示す図である。It is a figure which shows an example of the pattern for projective transformation for the projective transformation coefficient calculation which concerns on this Embodiment. 本実施の形態に係るカラーホイールの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the color wheel which concerns on this Embodiment. 本実施の形態に係るカメラの撮影タイミングの一例を示す図である。It is a figure which shows an example of the imaging | photography timing of the camera which concerns on this Embodiment. 本実施の形態に係る制御フローチャートである。3 is a control flowchart according to the present embodiment. 本実施の形態に係る制御フローチャートである。3 is a control flowchart according to the present embodiment. 本実施の形態に係る制御フローチャートである。3 is a control flowchart according to the present embodiment.

<プロジェクションシステムの構成>
図1は、本実施形態に係るプロジェクションシステムの概略構成の一例である。
<Configuration of projection system>
FIG. 1 is an example of a schematic configuration of a projection system according to the present embodiment.

図1に示すように、プロジェクションシステム3100は、プロジェクタ(第1のプロジェクタ)10、プロジェクタ(第2のプロジェクタ)20、制御部(外部制御PC(personal computer))30、メインスクリーン110、サブスクリーン120、等を含む。プロジェクタ10に対応してメインスクリーン110が設けられ、プロジェクタ20に対応してサブスクリーン120が設けられる。   As shown in FIG. 1, a projection system 3100 includes a projector (first projector) 10, a projector (second projector) 20, a control unit (external control PC (personal computer)) 30, a main screen 110, and a sub-screen 120. , Etc. A main screen 110 is provided corresponding to the projector 10, and a sub-screen 120 is provided corresponding to the projector 20.

制御部30とプロジェクタ10及びプロジェクタ20とは、通信ネットワーク40を介して接続される。通信ネットワーク40は、相互通信可能なネットワークであれば、特に限定されるものではなく、例えば、LAN、WAN等が挙げられ、無線又は有線であっても良いし、専用回線であっても良い。   The control unit 30 is connected to the projector 10 and the projector 20 via the communication network 40. The communication network 40 is not particularly limited as long as it is a network that can communicate with each other, and examples thereof include a LAN and a WAN. The communication network 40 may be wireless or wired, or may be a dedicated line.

プロジェクタ10、20は、公知の単板式DLP(Digital Light Processing)プロジェクタ(登録商標)である。図2に示すように、単板式DLPプロジェクタにおいて、光源から発光する光は、カラーホイールを透過し、ライトトンネル、リレーレンズ、シリンダミラー、凹面ミラーを経て、DMD(Digital Micromirror Device)に集光する。DMDにて生成された画像は、投射レンズを経て、スクリーンに投射される。   The projectors 10 and 20 are well-known single-plate DLP (Digital Light Processing) projectors (registered trademark). As shown in FIG. 2, in a single-plate DLP projector, light emitted from a light source passes through a color wheel, and is condensed on a DMD (Digital Micromirror Device) through a light tunnel, a relay lens, a cylinder mirror, and a concave mirror. . An image generated by DMD is projected onto a screen through a projection lens.

プロジェクタ10は、制御部30から出力される画像信号(投影画像信号、等)に基づいて、画像、文字等をメインスクリーン110に拡大投影する。この際、発表者3200は、視聴者3300が理解し易いように、投影画像をレーザポインタ100で指し示し、照射点50をメインスクリーンに表示させる。   The projector 10 enlarges and projects an image, characters, and the like on the main screen 110 based on an image signal (projected image signal, etc.) output from the control unit 30. At this time, the presenter 3200 points the projection image with the laser pointer 100 so that the viewer 3300 can easily understand, and displays the irradiation point 50 on the main screen.

プロジェクタ10は、カメラ200を備えており、カメラ200は、メインスクリーン110における投影画像及びレーザポインタ100による照射点50を撮影する。投影画像としては、例えば、発表者3200のPCに保存されるプレゼン資料、射影変換係数演算のための射影変換用パターン、等が挙げられる。プロジェクタ10は、該撮影画像を、通信ネットワーク40を介して制御部30へと転送する。   The projector 10 includes a camera 200, and the camera 200 captures a projected image on the main screen 110 and an irradiation point 50 by the laser pointer 100. Examples of the projected image include a presentation material stored in the PC of the presenter 3200, a projection conversion pattern for calculating a projection conversion coefficient, and the like. The projector 10 transfers the captured image to the control unit 30 via the communication network 40.

なお、カメラ200は、プロジェクタ10の外部に設置されていても良いが、この場合、視聴者3300の視界を遮らない位置に、設置されることが好ましい。   Note that the camera 200 may be installed outside the projector 10, but in this case, the camera 200 is preferably installed at a position that does not block the view of the viewer 3300.

プロジェクタ20は、制御部30から出力される画像信号(投影画像信号、等)に基づいて、画像、文字等をサブスクリーン120に拡大投影する。又、プロジェクタ20は、制御部30(或いはプロジェクタ10でも良い)から転送される信号(射影変換された座標)に基づいて、OSD(On-Screen-Display)機能を用いてポインタを生成する。例えば、プロジェクタ20は、射影変換された座標における周辺画素の色を、識別し易い明るい色に変更し、ポインタを生成する。更に、プロジェクタ20は、該ポインタをサブスクリーン120に投影する。なお、ポインタとは、メインスクリーン110に表示させている照射点50と対応させて、サブスクリーン120に表示させる照射点を指す。   The projector 20 enlarges and projects an image, characters, and the like on the sub-screen 120 based on the image signal (projection image signal, etc.) output from the control unit 30. Further, the projector 20 generates a pointer by using an OSD (On-Screen-Display) function based on a signal (projection-transformed coordinates) transferred from the control unit 30 (or the projector 10). For example, the projector 20 changes the color of surrounding pixels in the projective transformed coordinates to a bright color that is easy to identify, and generates a pointer. Further, the projector 20 projects the pointer on the sub screen 120. The pointer refers to an irradiation point to be displayed on the sub screen 120 in correspondence with the irradiation point 50 displayed on the main screen 110.

制御部30は、発表者3200、視聴者3300の外部制御PC(personal computer)、ビデオ出力機器、等であり、画像信号を、通信ネットワーク40を介して、プロジェクタ10及びプロジェクタ20へと出力する。又、制御部30は、プロジェクタ10から転送される撮影画像に基づいて、照射点50を検出し、照射点の座標(例えば、座標(x',y'))を抽出する。その後、制御部30は、照射点の座標を、射影変換用パターンを利用して射影変換し、射影変換された座標(例えば、座標(x,y))を、通信ネットワーク40を介してプロジェクタ20の内蔵メモリ(例えば、HDD(Hard disk drive)、等)へと転送する。   The control unit 30 is a presenter 3200, an external control PC (personal computer) of the viewer 3300, a video output device, and the like, and outputs an image signal to the projector 10 and the projector 20 via the communication network 40. Further, the control unit 30 detects the irradiation point 50 based on the captured image transferred from the projector 10 and extracts the coordinates of the irradiation point (for example, coordinates (x ′, y ′)). Thereafter, the control unit 30 performs projective transformation on the coordinates of the irradiation point using the projection transformation pattern, and the projected coordinate (for example, coordinates (x, y)) is transmitted via the communication network 40 to the projector 20. To a built-in memory (for example, a hard disk drive (HDD)).

更に、制御部30は、プロジェクタ10から出力される同期信号に基づいて、カメラ200が照射点50を撮影するタイミングを制御する。同期信号は、プロジェクタ10に備えらる複数色のセグメントを有するカラーホイールが回転するタイミングを示す信号、例えば、光源から発光する光がカラーホイールを透過する際に、同期信号センサと対応する位置に存在するセグメントの色、等を示す信号である。制御部30は、カラーホイールが照射点50の色(例えば、赤)が際立つセグメント色(例えば、緑、青、シアン)で回転している期間と、カメラ200が照射点50を撮影する期間とを、同期させる。   Further, the control unit 30 controls the timing at which the camera 200 captures the irradiation point 50 based on the synchronization signal output from the projector 10. The synchronization signal is a signal indicating the timing at which the color wheel having a plurality of color segments provided in the projector 10 rotates, for example, when light emitted from the light source passes through the color wheel, at a position corresponding to the synchronization signal sensor. This is a signal indicating the color of an existing segment. The control unit 30 includes a period in which the color wheel rotates in a segment color (for example, green, blue, cyan) in which the color (for example, red) of the irradiation point 50 stands out, and a period in which the camera 200 captures the irradiation point 50. Synchronize.

即ち、制御部30は、プロジェクタ10から、同期信号が出力される期間に、撮影画像に基づいて、照射点50を検出することで、照射点50の色彩情報(RGB何れかのチャンネル信号)を特異的に検出することができる。これにより、制御部30は、高精度な照射点の検出を行うことが可能になる。   That is, the control unit 30 detects the irradiation point 50 based on the photographed image during the period in which the synchronization signal is output from the projector 10, so that the color information of the irradiation point 50 (any RGB channel signal) is obtained. It can be specifically detected. Thereby, the control unit 30 can detect the irradiation point with high accuracy.

なお、制御部30は、射影変換された座標を、通信ネットワーク40を介してプロジェクタ10へと転送することも可能である。この場合、プロジェクタ10は、該座標を、無線LAN経由で、プロジェクタ20へと、更に転送する。   Note that the control unit 30 can also transfer the projection-transformed coordinates to the projector 10 via the communication network 40. In this case, the projector 10 further transfers the coordinates to the projector 20 via the wireless LAN.

本実施形態に係るプロジェクションシステム3100によれば、プロジェクタ10に備えられるカメラ200により撮影された撮影画像に基づいて、制御部30が、照射点の座標を演算し、該座標に基づいて、プロジェクタ20が、ポインタを生成する。これにより、プロジェクションシステム3100は、メインスクリーン110に表示させている照射点を、リアルタイムでサブスクリーン120にも表示させることができる。従って、発表者は、多数の視聴者に対してプレゼンテーションを行う際に、プロジェクションシステム3100を利用することで、サブスクリーンに注目する視聴者にも、理解し易いプレゼンテーションを行うことができる。   According to the projection system 3100 according to the present embodiment, the control unit 30 calculates the coordinates of the irradiation point based on the photographed image photographed by the camera 200 provided in the projector 10, and the projector 20 based on the coordinates. Generates a pointer. Thereby, the projection system 3100 can display the irradiation point displayed on the main screen 110 also on the sub screen 120 in real time. Therefore, the presenter can use the projection system 3100 when giving presentations to a large number of viewers, and can make a presentation that is easy to understand even for viewers who pay attention to the sub-screen.

<プロジェクションシステムのハードウェア構成>
図2及び図3は、本実施形態に係るプロジェクションシステム3100のハードウェア構成の一例である。
<Hardware configuration of projection system>
2 and 3 are examples of the hardware configuration of the projection system 3100 according to this embodiment.

図2に示すように、プロジェクタ10は、DLP光学系11、DLP用画像処理部12、内蔵メモリ、等を備えている。又、プロジェクタ20は、DLP光学系21、DLP用画像処理部22、内蔵メモリ、等を備えている。   As shown in FIG. 2, the projector 10 includes a DLP optical system 11, a DLP image processing unit 12, a built-in memory, and the like. The projector 20 also includes a DLP optical system 21, a DLP image processing unit 22, a built-in memory, and the like.

プロジェクタ10は、同期信号を、制御部30へと出力する。制御部30は、適切なタイミングで、投影画像及び照射点50を撮影して該照射点50を検出し、該照射点50の座標を演算して、プロジェクタ20へと出力する。プロジェクタ20は、OSD機能を用いてポインタを生成し、サブスクリーン120に投影する。   Projector 10 outputs a synchronization signal to control unit 30. The control unit 30 captures the projection image and the irradiation point 50 at an appropriate timing, detects the irradiation point 50, calculates the coordinates of the irradiation point 50, and outputs it to the projector 20. The projector 20 generates a pointer using the OSD function and projects it on the sub-screen 120.

図3を用いて、プロジェクションシステム3100のハードウェア構成について、より詳細に説明する。図3に示すように、プロジェクタ10は、画像信号入力処理部13、画像処理部14、デバイス駆動制御部15、DMD16、光源17、同期信号出力部18、カラーホイール300a、等を備えている。又、プロジェクタ20は、画像信号入力処理部23、OSDポインタ生成部24、デバイス駆動制御部25、DMD26、光源27、同期信号出力部28、カラーホイール300b、等を備えている。又、制御部30は、撮影制御部31、カメラモジュール32、照射点検出部33、座標演算部34、座標転送部35、等を備えている。   The hardware configuration of the projection system 3100 will be described in more detail with reference to FIG. As shown in FIG. 3, the projector 10 includes an image signal input processing unit 13, an image processing unit 14, a device drive control unit 15, a DMD 16, a light source 17, a synchronization signal output unit 18, a color wheel 300a, and the like. The projector 20 also includes an image signal input processing unit 23, an OSD pointer generation unit 24, a device drive control unit 25, a DMD 26, a light source 27, a synchronization signal output unit 28, a color wheel 300b, and the like. The control unit 30 includes an imaging control unit 31, a camera module 32, an irradiation point detection unit 33, a coordinate calculation unit 34, a coordinate transfer unit 35, and the like.

プロジェクタ10及びプロジェクタ20には、HDMI(登録商標)(High-Definition Multimedia Interface:高精細度マルチメディアインターフェース)等のデジタル信号、VGA(Video Graphics Array)、コンポーネント信号等のアナログの信号、が入力される。   Digital signals such as HDMI (registered trademark) (High-Definition Multimedia Interface) and analog signals such as VGA (Video Graphics Array) and component signals are input to the projector 10 and the projector 20. The

画像信号入力処理部13(画像信号入力処理部23)は、入力信号に対して、適切な処理を施し、処理が施された後の信号を、画像処理部14(OSDポインタ生成部24)へと出力する。例えば、入力信号がデジタル信号の場合、画像信号入力処理部13(画像信号入力処理部23)は、入力信号を、ビット数に応じて、画像処理部14が規定するビットフォーマットに変換し、画像処理部14(OSDポインタ生成部24)へと出力する。又、例えば、入力信号がアナログ信号の場合、画像信号入力処理部13(画像信号入力処理部23)は、アナログ信号に対して、DAC処理を施し、RGB信号、YPbPr信号、等のフォーマット信号を、画像処理部14(OSDポインタ生成部24)へと出力する。   The image signal input processing unit 13 (image signal input processing unit 23) performs appropriate processing on the input signal, and sends the processed signal to the image processing unit 14 (OSD pointer generation unit 24). Is output. For example, when the input signal is a digital signal, the image signal input processing unit 13 (image signal input processing unit 23) converts the input signal into a bit format defined by the image processing unit 14 according to the number of bits, and The data is output to the processing unit 14 (OSD pointer generation unit 24). Further, for example, when the input signal is an analog signal, the image signal input processing unit 13 (image signal input processing unit 23) performs a DAC process on the analog signal and outputs a format signal such as an RGB signal or a YPbPr signal. And output to the image processing unit 14 (OSD pointer generation unit 24).

画像処理部14は、駆動系の特性に応じて、デジタル画像処理を行い、生成した信号を、デバイス駆動制御部15へと出力する。例えば、コントラスト、明るさ、彩度、色相、RGBゲイン、シャープネス、拡大縮小、等のスケーラー機能を示す信号を生成し、該信号を、デバイス駆動制御部15へと出力する。又、例えば、画像処理部14は、任意に指定した、或いは任意に登録したレイアウトの画像信号を生成し、該信号を、デバイス駆動制御部15へと出力する。   The image processing unit 14 performs digital image processing according to the characteristics of the drive system, and outputs the generated signal to the device drive control unit 15. For example, a signal indicating a scaler function such as contrast, brightness, saturation, hue, RGB gain, sharpness, and enlargement / reduction is generated, and the signal is output to the device drive control unit 15. In addition, for example, the image processing unit 14 generates an image signal of an arbitrarily designated or arbitrarily registered layout, and outputs the signal to the device drive control unit 15.

OSDポインタ生成部24は、射影変換された座標に基づいて、OSD機能を用いてポインタを生成し、生成したポインタを、デバイス駆動制御部25へと出力する。   The OSD pointer generation unit 24 generates a pointer using the OSD function based on the projection-transformed coordinates, and outputs the generated pointer to the device drive control unit 25.

デバイス駆動制御部15(デバイス駆動制御部25)は、カラーホイール300、DMD、光源、等の駆動条件を決定し、制御信号を、カラーホイール300a(カラーホイール300b)、DMD16(DMD26)、光源17(光源27)、同期信号出力部18(同期信号出力部28)へと出力する。   The device drive control unit 15 (device drive control unit 25) determines drive conditions such as the color wheel 300, DMD, and light source, and sends control signals to the color wheel 300a (color wheel 300b), DMD 16 (DMD 26), and light source 17. (Light source 27) and output to the synchronization signal output unit 18 (synchronization signal output unit 28).

撮影制御部31は、同期信号に基づいて、カメラ200が照射点50を撮影するタイミングを制御するための制御信号を、カメラモジュール32へと出力する。又、撮影制御部31は、画像加工処理が施された信号に対して、シェーディング補正、ベイヤー変換、色補正、等を施し、RGB信号を、カメラモジュール32へと出力する。   The imaging control unit 31 outputs to the camera module 32 a control signal for controlling the timing at which the camera 200 captures the irradiation point 50 based on the synchronization signal. In addition, the imaging control unit 31 performs shading correction, Bayer conversion, color correction, and the like on the signal subjected to the image processing, and outputs an RGB signal to the camera module 32.

照射点検出部33は、撮影画像に基づいて、レーザポインタ100による照射点50を検出して照射点50の座標を抽出し、該座標を、座標演算部34へと出力する。   The irradiation point detection unit 33 detects the irradiation point 50 by the laser pointer 100 based on the photographed image, extracts the coordinates of the irradiation point 50, and outputs the coordinates to the coordinate calculation unit 34.

座標演算部34は、射影変換用パターン(図4参照)に基づいて、射影変換係数Hを演算し、照射点50の座標を射影変換し、該座標を、座標転送部35へと出力する。   The coordinate calculation unit 34 calculates a projection conversion coefficient H based on the projection conversion pattern (see FIG. 4), performs projective conversion of the coordinates of the irradiation point 50, and outputs the coordinates to the coordinate transfer unit 35.

座標転送部35は、射影変換された座標を、OSDポインタ生成部24へと転送する。該座標は、プロジェクタ20に備えられるOSDメモリ、等に一時保存される。   The coordinate transfer unit 35 transfers the projection-transformed coordinates to the OSD pointer generation unit 24. The coordinates are temporarily stored in an OSD memory provided in the projector 20 or the like.

<カメラの撮影タイミング>
図6に、カラーホイール300の概略構成の一例を示し、図7に、カラーホイール300のセグメント色と、カメラ200の撮影タイミングとの関係を示す。
<Camera shooting timing>
FIG. 6 shows an example of a schematic configuration of the color wheel 300, and FIG. 7 shows a relationship between the segment color of the color wheel 300 and the shooting timing of the camera 200.

図6に示すように、カラーホイール300は、7つのセグメントを有し、セグメントの色の順番は、赤、マゼンダ、黄、緑、青、シアン、白の順番である。なお、カラーホイールのセグメント数、色順番、等は、プロジェクタによって異なるため、特に限定されるものではない。   As shown in FIG. 6, the color wheel 300 has seven segments, and the order of the segment colors is red, magenta, yellow, green, blue, cyan, and white. Note that the number of color wheel segments, the color order, and the like are not particularly limited because they differ depending on the projector.

例えば、図7に示すように、レーザポインタ100からメインスクリーン110へと照射されるレーザ光(照射点)の色が、赤色の場合、カメラ200の撮影タイミングは、タイミングAとなる。即ち、制御部30は、カラーホイール300のセグメントの色が、赤色波長領域を含まない緑、青、シアン(赤色の照射点が際立つセグメントの色)である期間と、カメラ200が照射点を撮影する期間とを、同期させる。   For example, as shown in FIG. 7, when the color of the laser light (irradiation point) irradiated from the laser pointer 100 to the main screen 110 is red, the shooting timing of the camera 200 is timing A. That is, the control unit 30 captures the irradiation point during the period in which the color of the segment of the color wheel 300 is green, blue, and cyan (the color of the segment where the red irradiation point stands out) that does not include the red wavelength region. Synchronize the period to be performed.

例えば、図7に示すように、レーザポインタ100からメインスクリーン110へと照射されるレーザ光(照射点)の色が、緑色の場合、カメラ200の撮影タイミングは、タイミングBとなる。即ち、制御部30は、カラーホイール300のセグメントの色が、緑色波長領域を含まない赤、マゼンダ(緑色の照射点が際立つセグメントの色)である期間と、カメラ200が照射点を撮影する期間とを、同期させる。   For example, as shown in FIG. 7, when the color of the laser beam (irradiation point) irradiated from the laser pointer 100 to the main screen 110 is green, the shooting timing of the camera 200 is timing B. That is, the control unit 30 determines that the color of the segment of the color wheel 300 is red and magenta (the color of the segment where the green irradiation point stands out) that does not include the green wavelength region, and the period during which the camera 200 captures the irradiation point. And synchronize.

例えば、図7に示すように、レーザポインタ100からメインスクリーン110へと照射されるレーザ光(照射点)の色が、青色の場合、カメラ200の撮影タイミングは、タイミングCとなる。即ち、制御部30は、カラーホイール300のセグメントの色が、緑色波長領域を含まない黄、緑(青色の照射点が際立つセグメントの色)である期間と、カメラ200が照射点を撮影する期間とを、同期させる。   For example, as illustrated in FIG. 7, when the color of the laser light (irradiation point) irradiated from the laser pointer 100 to the main screen 110 is blue, the shooting timing of the camera 200 is timing C. That is, the control unit 30 has a period in which the color of the segment of the color wheel 300 is yellow or green (a segment color in which a blue irradiation point stands out) that does not include the green wavelength region, and a period in which the camera 200 captures the irradiation point. And synchronize.

即ち、時間順次に投影色を重畳する単板式DLPプロジェクタにおいて、特定色を発色する期間に同期させて、照射点をカメラで撮影することにより、制御部30は、プロジェクタ10の投射光よりも、光強度の大きい照射点の光を、特異的に検出することができる。これにより、プロジェクションシステム3100は、高精度な照射点検出を行うことができる。   That is, in the single-plate DLP projector that superimposes the projected colors in time sequence, the control unit 30 captures the irradiation point with the camera in synchronization with the period during which the specific color is developed. The light at the irradiation point with high light intensity can be specifically detected. Thereby, the projection system 3100 can perform irradiation point detection with high accuracy.

<制御フローチャート>
図8乃至図10は、本実施の形態に係るプロジェクションシステム3100における、制御フローチャートの一例を示す図である。
<Control flow chart>
8 to 10 are diagrams showing an example of a control flowchart in the projection system 3100 according to the present embodiment.

図8に示す制御フローチャートは、例えば、プロジェクタ10によって実行される。   The control flowchart shown in FIG. 8 is executed by the projector 10, for example.

ステップS1において、プロジェクタ10は、各種入力インターフェースからの画像信号に基づいて、画像を、メインスクリーン110に投影する。   In step S <b> 1, the projector 10 projects an image on the main screen 110 based on image signals from various input interfaces.

ステップS2において、プロジェクタ10は、射影変換係数演算のための射影変換用パターンを、メインスクリーン110に投影する。   In step S <b> 2, the projector 10 projects a projection conversion pattern for calculating the projection conversion coefficient onto the main screen 110.

ステップS3において、プロジェクタ10は、メインスクリーン110における投影画像(例えば、プレゼン資料、射影変換用パターン、等)及びレーザポインタ100による照射点50を撮影する。   In step S <b> 3, the projector 10 captures an image projected on the main screen 110 (for example, a presentation material, a projection conversion pattern, etc.) and an irradiation point 50 by the laser pointer 100.

ステップS4において、プロジェクタ10は、撮影画像を、制御部30へと転送する。   In step S <b> 4, the projector 10 transfers the captured image to the control unit 30.

図9に示す制御フローチャートは、例えば、制御部30によって実行される。   The control flowchart shown in FIG. 9 is executed by the control unit 30, for example.

ステップS5において、制御部30は、撮影画像に基づいて、照射点50を検出する。   In step S5, the control unit 30 detects the irradiation point 50 based on the photographed image.

ステップS6において、制御部30は、射影変換用パターンに基づいて、射影変換係数Hを演算し、照射点の座標を射影変換する。   In step S6, the control unit 30 calculates a projective conversion coefficient H based on the projective conversion pattern, and performs projective conversion on the coordinates of the irradiation point.

ステップS7において、制御部30は、射影変換された座標を、プロジェクタ20へと転送する。   In step S <b> 7, the control unit 30 transfers the projection-transformed coordinates to the projector 20.

図10に示す制御フローチャートは、例えば、プロジェクタ20によって実行される。   The control flowchart shown in FIG. 10 is executed by the projector 20, for example.

ステップS8において、プロジェクタ20は、各種入力インターフェースからの画像信号に基づいて、画像を、サブスクリーン120に投影する。   In step S <b> 8, the projector 20 projects an image on the sub screen 120 based on image signals from various input interfaces.

ステップS9において、プロジェクタ20は、OSDメモリ、等に一時保存されている射影変換された座標を、呼び出す。   In step S9, the projector 20 calls up the projection-transformed coordinates temporarily stored in the OSD memory or the like.

ステップS10において、プロジェクタ20は、射影変換された座標に基づいて、OSD機能を用いてポインタを生成する。   In step S10, the projector 20 generates a pointer using the OSD function based on the projective transformed coordinates.

上述の制御フローチャートに基づいて、各プロジェクタ、制御部、が動作することで、本実施の形態のプロジェクションシステムは、メインスクリーンに表示させている照射点と対応するポインタを、リアルタイムでサブスクリーンにも表示させることが可能になる。   By operating each projector and control unit based on the control flowchart described above, the projection system according to the present embodiment allows the pointer corresponding to the irradiation point displayed on the main screen to be displayed on the sub screen in real time. It can be displayed.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の実施形態の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiment of the present invention has been described in detail above, but the present invention is not limited to the specific embodiment, and within the scope of the gist of the embodiment of the present invention described in the claims, Various modifications and changes are possible.

10 プロジェクタ(第1のプロジェクタ)
20 プロジェクタ(第2のプロジェクタ)
30 制御部
100 レーザポインタ
110 メインスクリーン
120 サブスクリーン
200 カメラ
300 カラーホイール
3100 プロジェクションシステム
10 Projector (first projector)
20 Projector (second projector)
30 Control Unit 100 Laser Pointer 110 Main Screen 120 Sub Screen 200 Camera 300 Color Wheel 3100 Projection System

特開2009−157407号公報JP 2009-157407 A

Claims (7)

メインスクリーンにおける投影画像及びレーザポインタによる照射点を撮影するカメラを備える第1のプロジェクタと、
撮影画像に基づいて、前記照射点を検出し、該照射点の座標を射影変換する制御部と、
射影変換された座標に基づいて、OSD機能を用いてポインタを生成する第2のプロジェクタと、を有する、プロジェクションシステム。
A first projector comprising a camera for photographing a projected image on a main screen and an irradiation point by a laser pointer;
A control unit for detecting the irradiation point based on a captured image and projectively converting the coordinates of the irradiation point;
And a second projector that generates a pointer using the OSD function based on the projective transformed coordinates.
前記第1のプロジェクタは、前記撮影画像を、前記制御部へと転送し、
前記制御部は、前記射影変換された座標を、前記第2のプロジェクタへと転送する、請求項1記載のプロジェクションシステム。
The first projector transfers the captured image to the control unit,
The projection system according to claim 1, wherein the control unit transfers the projection-transformed coordinates to the second projector.
前記第1のプロジェクタは、前記撮影画像を、前記制御部へと転送し、
前記制御部は、前記射影変換された座標を、前記第1のプロジェクタへと転送し、更に、前記第1のプロジェクタが、該座標を、前記第2のプロジェクタへと転送する、請求項1記載のプロジェクションシステム。
The first projector transfers the captured image to the control unit,
The control unit transfers the projection-transformed coordinates to the first projector, and further, the first projector transfers the coordinates to the second projector. Projection system.
前記第2のプロジェクタは、前記ポインタをサブスクリーンに投影する、請求項1乃至請求項3のいずれか一項に記載のプロジェクションシステム。   The projection system according to any one of claims 1 to 3, wherein the second projector projects the pointer onto a sub-screen. 前記第1のプロジェクタは、複数色のセグメントを有するカラーホイールを備え、
前記制御部は、
前記第1のプロジェクタが、前記照射点の色が際立つセグメント色で、画像を前記メインスクリーンに投影する期間と、前記カメラが、前記照射点を撮影する期間とを、同期させる、請求項1乃至請求項4のいずれか一項に記載のプロジェクションシステム。
The first projector includes a color wheel having a plurality of color segments,
The controller is
The period in which the first projector projects an image on the main screen with a segment color in which the color of the irradiation point stands out and the period in which the camera captures the irradiation point are synchronized. The projection system according to claim 4.
前記制御部は、
前記第1のプロジェクタから、同期信号が出力される期間に、
前記撮影画像に基づいて、前記照射点を検出する、請求項1乃至請求項5のいずれか一項に記載のプロジェクションシステム。
The controller is
During the period when the synchronization signal is output from the first projector,
The projection system according to claim 1, wherein the irradiation point is detected based on the captured image.
前記撮影画像及び前記射影変換された座標は、無線LAN経由で転送される、請求項1乃至請求項6のいずれか一項に記載のプロジェクションシステム。   The projection system according to claim 1, wherein the photographed image and the projection-transformed coordinates are transferred via a wireless LAN.
JP2014134179A 2014-06-30 2014-06-30 Projection system Pending JP2016012854A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014134179A JP2016012854A (en) 2014-06-30 2014-06-30 Projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014134179A JP2016012854A (en) 2014-06-30 2014-06-30 Projection system

Publications (1)

Publication Number Publication Date
JP2016012854A true JP2016012854A (en) 2016-01-21

Family

ID=55229301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014134179A Pending JP2016012854A (en) 2014-06-30 2014-06-30 Projection system

Country Status (1)

Country Link
JP (1) JP2016012854A (en)

Similar Documents

Publication Publication Date Title
CN112752079B (en) Control method and control device of display system
US10440337B2 (en) Projection apparatus, information processing apparatus, and control methods thereof
US9723281B2 (en) Projection apparatus for increasing pixel usage of an adjusted projection area, and projection method and program medium for the same
US20170244941A1 (en) Projector and control method thereof
JP7363380B2 (en) Display system control method and control device
US9470966B2 (en) Image projection apparatus and presentation system
KR101767853B1 (en) Information processing device, image projecting system, and computer program
US9401129B2 (en) Image projection device
CN107817924B (en) Display device and control method of display device
JP6794092B2 (en) Display device
US10171781B2 (en) Projection apparatus, method for controlling the same, and projection system
JP6707871B2 (en) Image quality correction method and image projection system
JP2016092779A (en) Image projection system, information processing apparatus, information processing method, and program
US9524696B2 (en) Image projection device
JP2017021237A (en) Image projection device, image projection system, display, and display system
JP6439254B2 (en) Image projection apparatus, control method for image projection apparatus, and control program for image projection apparatus
JP2019186690A (en) Control device, projector, projector control method, program
JP2014137386A (en) Projector, control method therefor, and image projection system
JP2016012854A (en) Projection system
JP2015169754A (en) Projector, and control method of projector
US11562712B2 (en) Video reproduction system, video reproduction device, and calibration method for video reproduction system
WO2020162051A1 (en) Projection type video display system
US20180376031A1 (en) Projection apparatus that improves dynamic range of luminance of printed material, control method therefor, and storage medium
CN114979591B (en) Information processing apparatus and information processing system
JP2015079214A (en) Projection screen and image projection system