[go: up one dir, main page]

JP6569449B2 - 表示システム、プロジェクター及び表示システムの制御方法 - Google Patents

表示システム、プロジェクター及び表示システムの制御方法 Download PDF

Info

Publication number
JP6569449B2
JP6569449B2 JP2015200024A JP2015200024A JP6569449B2 JP 6569449 B2 JP6569449 B2 JP 6569449B2 JP 2015200024 A JP2015200024 A JP 2015200024A JP 2015200024 A JP2015200024 A JP 2015200024A JP 6569449 B2 JP6569449 B2 JP 6569449B2
Authority
JP
Japan
Prior art keywords
projector
position information
indicator
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015200024A
Other languages
English (en)
Other versions
JP2017073684A (ja
JP2017073684A5 (ja
Inventor
尊洋 阿野
尊洋 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015200024A priority Critical patent/JP6569449B2/ja
Priority to US15/279,947 priority patent/US10055065B2/en
Publication of JP2017073684A publication Critical patent/JP2017073684A/ja
Publication of JP2017073684A5 publication Critical patent/JP2017073684A5/ja
Application granted granted Critical
Publication of JP6569449B2 publication Critical patent/JP6569449B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、表示システム、プロジェクター及び表示システムの制御方法に関する。
一つの画面を分割して複数のプロジェクターで表示する発明として、例えば特許文献1に開示されたシステムがある。このシステムにおいては、複数のプロジェクターの各々に画像出力装置が接続されており、各画像出力装置には、画像描画装置が生成した描画像に係る描画像データが送られる。各画像出力装置は、描画像データの画像から、接続されているプロジェクターが表示する部分を切り出し、切り出した画像に係る部分画像データを出力する。各プロジェクターが画像出力装置から供給される部分画像データの画像を投写すると、各プロジェクターが投写した画像が並び、一つの画面として表示される。
また、特許文献2においては、検知した指示体の指示位置に画像を描画する描画モードと、PC(Personal Computer)のポインティングデバイスとして指示体を使用するためのPC操作モードを備えたプロジェクションシステムが開示されている。このシステムによれば、投写された画面上において指示体で描画を行うことや、指示体でPCの操作を行うこともできる。
特開2008−116874号公報 特開2013−247486号公報
指示体をポインティングデバイスとして使用する技術に対し、一つの画面を分割して複数のプロジェクターで表示する技術を組み合わせた場合、複数のプロジェクターのそれぞれをPCへ接続し、指示体の位置の情報を各プロジェクターからPCへ送る構成とすると、PCとプロジェクターとの接続が煩雑となる。
本発明は、複数のプロジェクターと情報処理装置との接続を煩雑にせずに指示体で情報処理装置を操作できる技術を提供する。
本発明は、情報処理装置と、第1プロジェクターと、第2プロジェクターを備え、前記情報処理装置が出力する画像の第1部分を前記第1プロジェクターが投写面に対して投写し、前記画像の第2部分を前記第2プロジェクターが前記投写面に対して投写する表示システムであって、前記第2プロジェクターは、前記第2部分を前記投写面へ投写する第2投写部と、前記投写面に投写された前記第2部分に対する指示体の位置を検知し、前記第2部分の座標系における前記指示体の位置を表す第2位置情報を生成する検知部と、前記検知部が生成した第2位置情報を前記第1プロジェクターへ送信する第2送信部とを有し、前記第1プロジェクターは、前記第1部分を前記投写面へ投写する第1投写部と、前記第2送信部が送信した前記第2位置情報を受信する受信部と、前記受信部が受信した前記第2位置情報を前記画像の座標系に応じて変換して得られた位置情報又は前記受信部が受信した前記第2位置情報を、第1位置情報として前記情報処理装置へ送信する第1送信部とを有し、前記情報処理装置は、前記第1送信部が送信した前記第1位置情報を受信し、受信した前記第1位置情報に応じた処理を行う表示システムを提供する。
本発明によれば、複数のプロジェクターと情報処理装置との接続を煩雑にせずに指示体で情報処理装置を操作することができる。
本発明においては、前記第1プロジェクターは、前記受信部が受信した前記第2位置情報を前記画像の座標系に応じて前記第1位置情報に変換する座標変換部を有する構成としてもよい。
この構成によれば、第1プロジェクターが第2位置情報の変換を行うため、情報処理装置において位置情報の変換を行わず、位置情報を利用できる。
また、本発明においては、前記第1送信部は、前記第2位置情報を前記第1位置情報として送信する場合、前記第2部分を表す情報を前記第1位置情報と共に前記情報処理装置へ送信し、前記情報処理装置は、前記第1送信部が送信した前記第2部分を表す情報と前記第1位置情報を受信し、受信した前記第2部分を表す情報と当該第1位置情報に応じた処理を行う構成としてもよい。
この構成によれば、情報処理装置において、第1プロジェクターから送信される第1位置情報を変換し、変換後の第1位置情報に応じて処理を行うことができる。
また、本発明においては、前記第1プロジェクターは、前記投写面に投写された前記第1部分の画像に対する指示体の位置を検知し、前記第1部分の座標系における前記指示体の位置を表す位置情報を生成する第2検知部を有し、前記指示体が前記第1部分と前記第2部分の境界を跨いで移動した場合、前記第2検知部が生成した位置情報と前記第2位置情報を同一の指示体の位置情報とする構成としてもよい。
この構成によれば、指示体が第1部分と第2部分との境界を跨いで移動しても、同一の指示体の位置情報として処理することができる。
また、本発明においては、前記指示体はユーザーの指であり、前記指が前記第1部分と前記第2部分の境界を跨いで移動した場合、前記第2検知部が生成した位置情報と前記第2位置情報を同一の指の位置情報とする構成としてもよい。
この構成によれば、指示体である指が第1部分と第2部分との境界を跨いで移動しても、同一の指の位置情報として処理することができる。
また、本発明は、情報処理装置が出力する画像の第1部分を投写面へ投写する投写部と、情報処理装置が出力する画像の第2部分を前記投写面へ投写し、前記投写面に投写された前記第2部分に対する指示体の位置を検知し、前記第2部分の座標系における前記指示体の位置を表す第2位置情報を送信する第2プロジェクターから前記第2位置情報を受信する受信部と、前記受信部が受信した前記第2位置情報を前記画像の座標系に応じて変換して得られた位置情報又は前記受信部が受信した前記第2位置情報を、第1位置情報として前記情報処理装置へ送信する第1送信部とを備えるプロジェクターを提供する。
本発明によれば、複数のプロジェクターと情報処理装置との接続を煩雑にせずに指示体で情報処理装置を操作することができる。
また、本発明は、情報処理装置と、第1プロジェクターと、第2プロジェクターを備え、前記情報処理装置が出力する画像の第1部分を前記第1プロジェクターが投写面に対して投写し、当該画像の第2部分を前記第2プロジェクターが前記投写面に対して投写する表示システムの制御方法であって、前記第2プロジェクターが、前記投写面に投写された前記第2部分に対する指示体の位置を検知し、前記第2部分の座標系における前記指示体の位置を表す第2位置情報を生成するステップと、前記第2プロジェクターが、前記第2位置情報を前記第1プロジェクターへ送信するステップと、前記第1プロジェクターが、前記第2位置情報を受信するステップと、前記第1プロジェクターが、前記第2位置情報を前記画像の座標系に応じて変換して得られた位置情報又は前記第2位置情報を、第1位置情報として前記情報処理装置へ送信するステップと、前記情報処理装置が、前記第1位置情報を受信し、受信した前記第1位置情報に応じた処理を行うステップとを備える表示システムの制御方法を提供する。
本発明によれば、複数のプロジェクターと情報処理装置との接続を煩雑にせずに指示体で情報処理装置を操作することができる。
表示システム1を構成する装置を示した図。 プロジェクター10と指示体20のハードウェア構成を示した図。 制御部110Bにおいて実現する機能の機能ブロック図。 制御部110Aにおいて実現する機能の機能ブロック図。 動作例を説明するためのシーケンス図。 スクリーンSCに表示される画面の一例を示した図。 動作例を説明するための図。 動作例を説明するための図。 動作例を説明するための図。
図1は、本発明の一実施形態に係る表示システム1を構成する装置を示した図である。表示システム1は、表示面となるスクリーンSCに画像を投写するプロジェクター10A(第1プロジェクター)、プロジェクター10B(第2プロジェクター)、指示体20、情報処理装置30及び分配装置40で構成されている。
表示装置の一例であるプロジェクター10A、10Bは、情報処理装置30に有線又は無線により接続され、他の装置から供給された映像信号が表す画像をスクリーンSCへ投写する。この映像信号は、画像を表す画像情報の一例である。また、プロジェクター10A、10Bは、指示体20を情報処理装置30のポインティングデバイス(デジタイザー)として使用するためのPC操作機能を備えている。プロジェクター10A、10Bは、スクリーンSCの斜め上方に設置され、スクリーンSCに向けて映像を投写する。なお、本実施形態においては、プロジェクター10A、10Bは、スクリーンSCへ映像を投写するが、スクリーンSCの替わりに壁面(表示面)に映像を投写してもよい。また、本実施形態においては、プロジェクター10A、10Bは、金具によって壁面に設置される構成となっているが、天井に設置してもよい。また、机上に設置し、スクリーンSCの替わりに机上に映像を投写してもよい。
ペン型の指示体20は、プロジェクター10又は情報処理装置30を操作するためのポインティングデバイスとして機能する。
情報処理装置30は、本実施形態においては、パーソナルコンピューターである。
分配装置40は、情報処理装置30から供給される映像信号をプロジェクター10A、10Bへ分配する装置である。分配装置40は、情報処理装置30から供給される映像信号からプロジェクター10Aに供給する映像信号及びプロジェクター10Bへ供給する映像信号を生成し、生成した各映像信号を、プロジェクター10A、10Bへ供給する。本実施形態においては、分配装置40は、情報処理装置30から供給される映像信号が表す画像を左右2つの画像に分割し、左側の画像(第1部分)の映像信号をプロジェクター10Aへ供給し、右側の画像(第2部分)の映像信号をプロジェクター10Bへ供給する。
プロジェクター10Aは、分配装置40から供給される映像信号が表す左側の画像を投写し、プロジェクター10Bは、分配装置40から供給される映像信号が表す右側の画像を投写する。プロジェクター10Aが投写する左側の画像とプロジェクター10Bが投写する右側の画像を左右に並べて表示(所謂タイリング表示)することにより、情報処理装置30が供給する映像信号の画像を、一台のプロジェクターで投写する場合より大きく表示できる。
図2は、プロジェクター10A、10B及び指示体20のハードウェア構成を示した図である。指示体20は、制御部210、発光部230、操作部240、電源250を有する。電源250は、例えば乾電池又は二次電池であり、制御部210、発光部230及び操作部240へ電力を供給する。操作部240は、電源250から各部への電力供給を制御するスイッチ(図示略)を備えている。操作部240のスイッチがオンとなると、電源250から各部へ電力が供給され、操作部240のスイッチがオフとなると、電源250から各部へ電力の供給が停止される。発光部230は、赤外光を発する発光ダイオードを有しており、指示体20の先端に設けられている。発光部230の点灯及び消灯は、制御部210により制御される。発光部230は、点光源であり、発光部230が発する光は、指示体20の先端から球面上に広がる。制御部210は、発光部230及び操作部240に接続されている。制御部210は、操作部240で行われた操作に応じて発光部230の制御を開始し、発光部230の発光ダイオードの点灯及び消灯を制御する。
プロジェクター10A、10Bは、制御部110、記憶部120、操作部130、投写部140を備える。また、プロジェクター10A、10Bは、映像処理部150、インターフェース160、撮像部171及び撮像部172を備える。本実施形態においては、プロジェクター10A、10Bのハードウェア構成は同じである。以下、プロジェクター10A、10Bの各部を区別する必要がある場合、説明の便宜上、プロジェクター10Aの各部の符号の末尾には「A」を付し、プロジェクター10Bの各部の符号の末尾には「B」を付し、各部を区別する必要がない場合、符号の末尾への「A」、「B」の付加を省略して説明を行う。
インターフェース160は、RCA、D−Sub、HDMI(登録商標)など、映像信号が供給されるコネクターを複数有し、他の装置からコネクターに供給された映像信号を映像処理部150へ供給する。また、インターフェース160は、無線LAN(Local Area Network)やBluetooth(登録商標)などの無線通信のインターフェースや、USB(Universal Serial Bus)や有線のLANなどの有線通信のインターフェースを有する。インターフェース160は、情報の送信や受信を行う。
記憶部120は、投写する映像の画質に係る設定値や、各種機能の設定に係る情報を記憶する。操作部130は、プロジェクター10を操作するための複数のボタンを備えている。操作されたボタンに応じて制御部110が各部を制御することにより、スクリーンSCに投写される映像の調整や、プロジェクター10が有する各種機能の設定などが行われる。
映像処理部150は、インターフェース160から供給される映像信号を取得する。また、映像処理部150は、プロジェクター10を操作するためのGUIなどのオンスクリーン画像の信号を制御部110から取得する。映像処理部150は、各種の画像処理機能を備えており、インターフェース160から供給された映像信号に画像処理を施し、投写する映像の画質を調整する。映像処理部150は、制御部110からオンスクリーン画像の信号が供給された場合には、オンスクリーン画像の信号を重畳した映像信号を投写部140へ供給する。
映像を投写する投写部140は、光源141、ライトバルブ142、駆動回路144及び投写光学系143を有している。光源141は、光を発するランプであり、光源141が発した光は、図示省略した複数のダイクロイックミラーやミラーによって赤、緑、青の光に分光され、分光された赤、緑、青のそれぞれの光はライトバルブ142に導かれる。なお、光源141は、ランプではなく、発光ダイオード又はレーザー光を発する半導体レーザー装置であってもよい。
駆動回路144は、映像処理部150から供給される映像信号を取得する。駆動回路144に供給される映像信号は、投写する画像における赤の成分の階調を表す階調データ、投写する画像における緑の成分の階調を表す階調データ及び投写する画像における青の成分の階調を表す階調データを有する。駆動回路144は、赤、緑、青の各色の階調データを抽出し、抽出した各色の階調データに基づいてライトバルブ142を駆動する。
ライトバルブ142は、前述の赤の光が入射する液晶ライトバルブ、前述の緑の光が入射する液晶ライトバルブ、及び前述の青の光が入射する液晶ライトバルブを有している。液晶ライトバルブは、透過型の液晶パネルであり、複数行複数列でマトリクス状に配置された画素を備えている。赤の光が入射する液晶ライトバルブは赤の階調データに基づいて駆動され、緑の光が入射する液晶ライトバルブは緑の階調データに基づいて駆動され、青の光が入射する液晶ライトバルブは青の階調データに基づいて駆動される。各液晶ライトバルブは、駆動回路144によって各画素が制御されて画素の透過率が変化する。画素の透過率が制御されることにより、液晶ライトバルブを透過した各色の光は、各階調データに対応した画像となる。液晶ライトバルブを透過した赤、緑、青の光の画像は、図示省略したダイクロイックプリズムにより合成されて投写光学系143に入射する。投写光学系143は、入射した画像を拡大する光学系であり、入射した画像をレンズやミラーによって拡大してスクリーンSCに投写する。スクリーンSCに画像が投写されると、表示面であるスクリーンSCに画像が表示される。なお、透過型の液晶パネルの替わりに反射型の液晶パネルを採用してもよいし、デジタルミラーデバイスなどを用いてもよい。
プロジェクター10は、指示体20の位置及び指示体20からスクリーンSCまでの距離をステレオ方式で特定するために、2つの撮像部171及び撮像部172を有している。撮像部171及び撮像部172は、発光部230が発する赤外光を受光する撮像素子(CMOSやCCDなど)、撮像素子に像を結像する光学系、撮像素子へ入射する光を制限する絞りなどを備えている。撮像部171及び撮像部172は、投写部140の投写範囲を撮像範囲とし、撮像した範囲の画像を生成し、生成した画像を表す画像信号を出力する。なお、本実施形態においては、プロジェクター10A、10BがスクリーンSCの斜め上方に設置されるため、撮像部171及び撮像部172は、投写範囲を斜め上方から撮像することになる。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えたマイクロコンピューターである。ROMに記憶されているプログラムをCPUが実行すると、プロジェクター10A、10Bにおいては、制御部110が各部を制御し、映像をスクリーンSCに投写する機能や上述のPC操作機能、タイリング表示を行うタイリング表示機能などが実現する。
タイリング表示機能を使用する際には、プロジェクター10A、10Bにおいてタイリング表示に係る設定を行うことにより、一方のプロジェクターが親プロジェクターとなり、他方のプロジェクターが子プロジェクターとなる。本実施形態においては、プロジェクター10Aを親プロジェクターとし、プロジェクター10Bを子プロジェクターとしている。なお、タイリング表示に係る設定を行うことにより、プロジェクター10A、10Bは、タイリング表示において、自身が表示している画像が左から何番目の画像かを表すタイリング番号を記憶する。例えば、分割された左側の画像を表示するプロジェクター10Aは、タイリング番号として「1」を記憶部120Aに記憶し、分割された右側の画像を表示するプロジェクター10Bは、タイリング番号として「2」を記憶部120Bに記憶する。
また、子プロジェクターであるプロジェクター10Bにおいては、タイリング表示に係る設定を行うことにより、タイリング表示に係る情報の送信先となるプロジェクター10AのIPアドレスを記憶する。
図3は、ROMのプログラムを実行することにより制御部110Bにおいて実現する機能の機能ブロック図である。検知部2001は、撮像部171B及び撮像部172Bが生成する画像を取得し、撮像部171B及び撮像部172Bが生成した画像から、プロジェクター10Bが投写する画像の表示領域における指示体20の位置の座標(即ち、指示体20の先端の座標)と、指示体20から画像の表示面であるスクリーンSCまでの距離(即ち、指示体20の先端からスクリーンSCまでの距離)を特定する。送信部2002(第2送信部)は、記憶部120Bが記憶しているタイリング番号、検知部2001が特定した座標(X2,Y2)及び距離を、インターフェース160BからLANを介してプロジェクター10Aへ送信する。
図4は、ROMのプログラムを実行することにより制御部110Aにおいて実現する機能の機能ブロック図である。検知部1001は、撮像部171A及び撮像部172Aが生成する画像を取得し、撮像部171A及び撮像部172Aが生成した画像から、プロジェクター10Aが投写する画像の表示領域における指示体20の位置の座標(即ち、指示体20の先端の座標)と、指示体20から画像の表示面であるスクリーンSCまでの距離(即ち、指示体20の先端からスクリーンSCまでの距離)を特定する。受信部1004は、プロジェクター10Bから送信されインターフェース160Aが受信した座標を受信する。座標変換部1003は、検知部1001が特定した座標又は受信部1004が受信した座標を、情報処理装置30が出力する画像の座標系に応じた位置情報に変換する。送信部1002(第1送信部)は、座標変換部1003が変換処理を行って得られた座標を、インターフェース160AからLANを介して情報処理装置30へ送信する。
(実施形態の動作例)
図5は、プロジェクター10Aの制御部110Aが行う処理の流れを示したシーケンス図である。本実施形態の動作例について、図5を用いて説明する。
本実施形態においては、情報処理装置30は、プロジェクター10AとUSBケーブルにより接続され、分配装置40と映像ケーブルで接続される。また、分配装置40とプロジェクター10A、10Bは、映像ケーブルにより接続され、プロジェクター10Aとプロジェクター10Bは、LANにより接続される。
情報処理装置30は、自身のディスプレイ装置に表示している画面の映像信号を分配装置40へ出力する。分配装置40は、情報処理装置30から出力された映像信号が表す画像を左右2つの画像に分割し、左側の画像の映像信号をプロジェクター10Aへ供給し、右側の画像の映像信号をプロジェクター10Bへ供給する。分配装置40からインターフェース160Aに供給された映像信号は、映像処理部150Aで画像処理が施され、投写部140A(第1投写部)に供給される。投写部140Aは、供給される映像信号が表す画像をスクリーンSCに投写する。また、分配装置40からインターフェース160Bに供給された映像信号は、映像処理部150Bで画像処理が施され、投写部140B(第2投写部)に供給される。投写部140Bは、供給される映像信号が表す画像をスクリーンSCに投写する。
図6は、分配装置40から映像信号が供給されたプロジェクター10A、10Bが投写した画像の一例である。例えば、情報処理装置30が自身のディスプレイ装置でデスクトップの画像を表示している場合、デスクトップの画像の映像信号が情報処理装置30から出力され、デスクトップの画像の左半分をプロジェクター10Aが投写し、デスクトップの画像の右半分をプロジェクター10Bが投写する。
図6において矩形で示した表示領域A1は、プロジェクター10Aが投写する画像の表示領域である。撮像部171A及び撮像部172Aは、表示領域A1を含む領域を撮影する。制御部110Aは、撮像部171A及び撮像部172Aが生成した画像において、表示領域A1の左上の頂点を原点とし、原点から右方向をx軸の正方向とし、原点から下方向をy軸の正方向としてxy座標を設定する。また、図6において矩形で示した表示領域A2は、プロジェクター10Bが投写する画像の表示領域である。撮像部171B及び撮像部172Bは、表示領域A2を含む領域を撮影する。制御部110Bは、撮像部171B及び撮像部172Bが生成した画像において、表示領域A2の左上の頂点を原点とし、原点から右方向をx軸の正方向とし、原点から下方向をy軸の正方向としてxy座標を設定する。
赤外光を発している指示体20が撮像部171A及び撮像部172Aの撮影範囲内に入ると、撮像部171A及び撮像部172Aが生成した画像においては、発光部230が発した赤外光が写る。制御部110Aは、撮像部171A及び撮像部172Aが生成する画像を取得する。制御部110Aは、撮像部171A及び撮像部172Aが生成した画像から、表示領域A1のxy座標における赤外光の位置の座標(即ち、指示体20の先端の座標)と、赤外光から画像の表示面であるスクリーンSCまでの距離(即ち、指示体20の先端からスクリーンSCまでの距離)を特定する。例えばユーザーが、図7に示したP1の位置に指示体20の先端を接触させた場合、制御部110Aは、撮像部171A及び撮像部172Aが生成した画像から、P1の位置の座標を特定する。制御部110Aは、特定した座標(X1,Y1)及び距離をRAMに記録する。また、制御部110Aは、赤外光からスクリーンSCまでの距離が0である場合、指示体20の状態について、指示体20がスクリーンSCに接しているペンオンの状態であるとする(ステップSA1)。なお、本実施形態においては、指示体20の位置の検知の解像度は、プロジェクター10A、10Bにおいては、情報処理装置30におけるポインティングデバイスの解像度と同じとなっている。
次に制御部110Aは、検知した座標をタイリング表示における画面の分割数に応じて加工して情報処理装置30へ送信する。具体的には、情報処理装置30におけるポインティングデバイスの座標は、表示領域A1及び表示領域A2で表示されている画像の左上の頂点を原点とし、原点から右方向をx軸の正方向とし、原点から下方向をy軸の正方向としている。一方、各プロジェクターにおいては、指示体20の先端の位置の座標の検出は、表示領域毎に行っているため、各プロジェクターで検知した位置の座標をそのまま情報処理装置30へ送信してしまうと、情報処理装置30は、スクリーンSCにおいて指示体20が指し示した位置とは異なる位置を認識してしまう。
そこで、本実施形態においては、制御部110Aは、指示体20の先端の位置の座標を特定すると、情報処理装置30へ送信する座標のx座標を(1)の式により加工する(ステップSA2)。
x=(X1/画面分割数)・・・(1)
例えば、P1のx座標が「100」である場合、タイリング表示における画面分割数は2であるため、加工後のx座標は「50」となる。なお、指示体20の先端の位置のy座標については加工後のy座標をy=Y1とする。
制御部110Aは、指示体20の状態(ペンオン)を示す情報と、加工後の座標(x,y)と検知した距離を、インターフェース160AからUSBケーブルを介して情報処理装置30へ送信する(ステップSA3)。情報処理装置30へ送信する座標は、本発明に係る第1位置情報の一例である。情報処理装置30は、プロジェクター10Aから送信された情報を取得すると、取得した情報に応じた処理を行う(ステップSA4)。例えば、取得した座標がアイコン上のP1の位置であり、指示体20の状態を表す情報が、指示体20がスクリーンSCから離れているペンオフの状態からペンオンの状態に変化した場合、P1の位置にあるアイコンをドラッグする。
次に、ユーザーが指示体20をP1の位置から図7に示した矢印の方向へ移動させると、制御部110Aは、指示体20の状態、指示体20の先端の位置の座標、指示体20からスクリーンSCまでの距離を特定する(ステップSA5)。制御部110Aは、特定した位置の座標を、タイリング表示における画面の分割数に応じて加工し(ステップSA6)、指示体20の状態を示す情報、加工後の座標、検知した距離を情報処理装置30へ送信する(ステップSA7)。情報処理装置30が、プロジェクター10Aから送信された情報に応じた処理を行うと(ステップSA8)、P1の位置にあったアイコンが指示体20の移動に応じて移動する。
次に指示体20の先端の位置が、図8に示したように表示領域A1の右端の位置となった場合、制御部110Aは、指示体20の状態を表す情報、特定した座標を加工した後の座標、特定した距離を情報処理装置30へ送信し(ステップSA9〜ステップSA11)、特定した座標(X1,Y1)をRAMに記憶させる(ステップSA12)。
次に指示体20の先端の位置が、表示領域A1から表示領域A2に移動し、図9に示したように表示領域A2の左端の位置となった場合、撮像部171A及び撮像部172Aにおいては、指示体20の赤外光が写らず、撮像部171B及び撮像部172Bにおいては、指示体20の赤外光が写る。
制御部110Aは、撮像部171A及び撮像部172Aが生成した画像において赤外光が写っていない場合、指示体20の状態について、指示体20がスクリーンSCから離れたペンオフの状態とする(ステップSA13)。
制御部110Bは、撮像部171B及び撮像部172Bが生成する画像を取得し、撮像部171B及び撮像部172Bが生成した画像から、表示領域A2のxy座標における赤外光の位置の座標(即ち、指示体20の先端の座標)と、赤外光から画像の表示面であるスクリーンSCまでの距離(即ち、指示体20の先端からスクリーンSCまでの距離)を特定する。制御部110Bは、赤外光からスクリーンSCまでの距離が0である場合、指示体20の状態について、ペンオンの状態であるとする(ステップSA14)。次に制御部110Bは、ペンオンであることを示す情報、記憶部120Bが記憶しているタイリング番号、特定した座標(X2,Y2)及び距離を、インターフェース160BからLANを介してプロジェクター10Aへ送信する(ステップSA15)。プロジェクター10Bからプロジェクター10へ送信する座標は、本発明に係る第2位置情報の一例である。
制御部110Aは、プロジェクター10Bから送信されたペンオンであることを示す情報、タイリング番号、座標及び距離をインターフェース160Aが取得すると、RAMに記憶されている座標の中で最新の座標を取得し、RAMから取得した座標のy座標と、プロジェクター10Bから送信された座標のy座標との差が閾値未満であるか判断する。制御部110Aは、RAMから取得した最新の座標のy座標と、プロジェクター10Bから送信された座標のy座標との差が閾値未満である場合、指示体20の状態をペンオンの状態に戻す(ステップSA16)。
次に制御部110Aは、情報処理装置30へ送信する座標のx座標を(2)の式により加工する(ステップSA17)。
x=(X2/画面分割数)+((情報処理装置30のポインティングデバイスの解像度/画面分割数)×(プロジェクター10Bのタイリング番号−1))・・・(2)
なお、本実施形態においては、情報処理装置30のポインティングデバイスの解像度は「32767」としている。
制御部110Aは、指示体20の状態(ペンオン)を示す情報と、加工後の座標(x,y)と、プロジェクター10Bから取得した距離を情報処理装置30へ送信する(ステップSA18)。情報処理装置30は、プロジェクター10Aから送信された座標を取得すると、取得した情報に応じた処理を実行し、ドラッグしているアイコンを取得した座標の位置へ移動させる(ステップSA19)。
次に、ユーザーが指示体20を表示領域A2内で移動させると、制御部110Bは、指示体20の状態、指示体20の位置の座標、指示体20からスクリーンSCまでの距離を特定し(ステップSA20)、記憶部120Bに記憶されているタイリング番号、ペンオンであることを示す情報、検知した位置の座標及び距離を、プロジェクター10Aへ送信する(ステップSA21)。
プロジェクター10Bから送信された情報をインターフェース160Aが取得すると、制御部110Aは、指示体20の状態をペンオンの状態としている場合、取得した座標をタイリング表示における画面の分割数に応じて加工し(ステップSA22)、指示体20の状態を表す情報、加工後の座標、プロジェクター10Bから取得した距離を情報処理装置30へ送信する(ステップSA23)。情報処理装置30が、プロジェクター10Aから送信された情報に応じた処理を行うと(ステップSA24)、ドラッグされているアイコンが移動する。
次に、ユーザーが指示体20を撮像部171A、撮像部172A、撮像部171B及び撮像部172Bの撮影範囲外へ移動させると、撮像部171A、撮像部172A、撮像部171B及び撮像部172Bにおいては指示体20が発する赤外光が写らなくなる。制御部110Bは、撮像部171B及び撮像部172Bが生成した画像において赤外光が写らなくなった場合、指示体20がスクリーンSCから離れたペンオフの状態であるとする(ステップSA25)。制御部110Bは、指示体20の状態をペンオフの状態とすると、ペンオフの状態であることを示す情報をプロジェクター10Aへ送信する(ステップSA26)。
ペンオフの状態であることを示す情報をインターフェース160Aが取得すると、制御部110Aは、指示体20の状態をペンオフとし(ステップSA27)、指示体20の状態(ペンオフ)を示す情報を情報処理装置30へ送信する(ステップSA28)。情報処理装置30は、プロジェクター10Aから送信された情報を取得すると、取得した情報に応じてドラッグの処理を終了する(ステップSA29)。
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した各実施形態及び以下の変形例は、一つ又は複数を適宜組み合わせて実施してもよい。
上述した実施形態においては、各プロジェクターが検知した指示体20の位置の座標を、プロジェクター10Aが加工して情報処理装置30へ送信しているが、この構成に限定されるものではない。例えば、タイリング番号とプロジェクターが検知した座標とを情報処理装置30へ送信し、情報処理装置30において座標を加工してもよい。
具体的には、プロジェクター10Aは、指示体20の先端の位置を検知した場合、記憶部120Aに記憶されているタイリング番号と、検知した指示体20の位置の座標を情報処理装置30へ送信する。情報処理装置30は、座標と共に取得したタイリング番号が「1」の場合、上述した(1)の式により座標を加工し、加工後の座標を用いて処理を行う。
また、プロジェクター10Bは、指示体20の先端の位置を検知した場合、記憶部120Bに記憶されているタイリング番号と、検知した指示体20の位置の座標をプロジェクター10Aへ送信し、プロジェクター10Aは、プロジェクター10Bから送信されたタイリング番号と座標を情報処理装置30へ転送する。情報処理装置30は、座標と共に取得したタイリング番号が「2」の場合、上述した(2)の式により座標を加工し、加工後の座標を用いて処理を行う。
また、タイリング番号を情報処理装置30へ送信する構成の場合、分配装置40を使用せず、情報処理装置30において拡張デスクトップ機能を使用し、プロジェクター10Aとプロジェクター10Bの一方をプライマリデバイスとし、他方をセカンダリデバイスとしてもよい。
上述した動作例の説明においては、情報処理装置30が出力する映像信号が表す画面がデスクトップの画像となっているが、情報処理装置30は、アプリケーションプログラムを実行し、他の画面の映像信号を出力するようにしてもよい。例えば、情報処理装置30は、ポインティングデバイスで画像を描く描画プログラムを実行してもよい。情報処理装置30が描画プログラムを実行している場合、情報処理装置30は、プロジェクター10Aから送られる座標や各種情報に応じて描画を行う。
例えば、情報処理装置30が描画プログラムを実行している場合、情報処理装置30は、プロジェクター10Aから送られる座標に応じて指示体20の移動軌跡に対応した線を描画する。ユーザーが、指示体20をスクリーンSCに接触させたまま表示領域A1から表示領域A2へ移動させた場合又は表示領域A2から表示領域A1へ移動させた場合、スクリーンSCには表示領域A1から表示領域A2にまたがる線が表示される。
本発明においては、プロジェクター10A、10Bは、スクリーンSCに沿う光の層を形成する発光装置を備える構成としてもよい。発光装置は、指を照射する光(本変形例では赤外光)を発する発光部を有する。発光装置はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を拡散させて出射する。発光装置から出射された光は、スクリーンSCに沿う光の層を形成する。本変形例では、角度θは、ほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と、発光装置により形成される光の層とは近接していることが好ましい。スクリーンSCの表面から離れた位置にある指も照射できるように光の層は厚みを持っている。または、発光部を積層することによりスクリーンSCから離れた位置にある指へ赤外光を照射してもよい。発光装置からの光の出射は、対応するプロジェクターにより制御される。ユーザーが光の層の位置に指を移動させると、指で反射した赤外光が撮像部171及び撮像部172で撮影される。プロジェクター10A、10Bは、撮影した赤外光の位置の座標を特定する。
プロジェクター10Bは、特定した座標をプロジェクター10Aへ送信する。プロジェクター10Aは、プロジェクター10Bから送信された座標を加工して情報処理装置30へ送信する。また、プロジェクター10Aは、自装置が指の位置の座標を特定した場合、特定した座標を加工して情報処理装置30へ送信する。
プロジェクター10A、10Bが上述の発光装置を備え、指の位置の座標を検知する構成においては、ユーザーが複数の指をスクリーンSCに接触させた場合、撮像部171及び撮像部172が生成した画像においては、複数の赤外光が写る。この場合、撮影した赤外光を指として認識し、認識した指毎に識別子を付し、複数の指の位置を区別する構成としてもよい。
例えば、ユーザーの人差し指が表示領域A1内で撮像部171A及び撮像部172Aの撮影範囲内に入ると、撮像部171A及び撮像部172Aが生成した画像においては、人差し指で反射した赤外光が写る。制御部110Aは、指示体20を用いたときと同様に、撮像部171A及び撮像部172Aが生成した画像から赤外光の位置の座標を特定する。また、制御部110Aは、撮像部171A及び撮像部172Aが撮影した画像に映る赤外光を指として認識し、認識した指に識別子(例えば「1」)を付与する。制御部110Aは、検知した指の位置の座標を上述の実施形態と同様に(1)の式で加工する。制御部110Aは、加工後の座標と、当該座標に対応する指の識別子を情報処理装置30へ送信する。
ユーザーが、スクリーンSCに指を接触させながら移動させ、人差し指の位置が、表示領域A1の右端の位置となった場合、制御部110Aは、特定した座標を加工した後の座標を情報処理装置30へ送信し、検知した座標(X1,Y1)をRAMに記憶させる。次に人差し指の位置が、表示領域A1から表示領域A2に移動し、表示領域A2の左端の位置となった場合、撮像部171A及び撮像部172Aにおいては、人差し指で反射した赤外光が写らず、撮像部171B及び撮像部172Bにおいては、人差し指で反射した赤外光が写る。
制御部110Aは、撮像部171A及び撮像部172Aが生成した画像において赤外光が写っていない場合、識別子が「1」である指の状態について、指がスクリーンSCから離れたペンオフの状態とする。
制御部110Bは、指示体20を用いたときと同様に、撮像部171B及び撮像部172Bが生成した画像から、人差し指の位置の座標を特定する。また、制御部110Bは、撮像部171B及び撮像部172Bが撮影した画像に映る赤外光を指として認識し、認識した指に識別子(例えば「6」)を付与する。ここで、プロジェクター10Aとプロジェクター10Bは、別々に指を認識するため、プロジェクター10Bが人差し指に付与する識別子は、プロジェクター10Aが付与する識別子とは異なるものとなる。制御部110Bは、指の状態を示す情報、記憶しているタイリング番号、検知した指の位置の座標、当該座標に対応する指の識別子をプロジェクター10Aへ送信する。
制御部110Aは、プロジェクター10Bから送信されたペンオンであることを示す情報、タイリング番号、識別子、座標をインターフェース160Aが取得すると、識別子が「1」である指の座標の中で最新の座標を取得し、RAMから取得した座標のy座標と、プロジェクター10Bから送信された座標のy座標との差が閾値未満であるか判断する。制御部110Aは、RAMから取得した最新の座標のy座標と、プロジェクター10Bから送信された座標のy座標との差が閾値未満である場合、識別子が「6」の指と識別子が「1」である指は同じ指であると認識し、識別子が「1」である指の状態をペンオンの状態に戻す。次に制御部110Aは、情報処理装置30へ送信する座標のx座標を(2)の式により加工する。制御部110Aは、指の状態(ペンオン)を示す情報と、加工後の座標(x,y)を情報処理装置30へ送信する。情報処理装置30は、プロジェクター10Aから送信された座標を取得すると、取得した情報に応じた処理を実行する。
上述した実施形態においては、2つのプロジェクターで画像を投写し、一つの画面を表示する構成となっているが、3つ以上のプロジェクターで画像を投写して一つの画面を表示する構成としてもよい。
1…表示システム、10A、10B…プロジェクター、20…指示体、30…情報処理装置、40…分配装置、110、110A、110B…制御部、120、120A、120B…記憶部、130…操作部、140、140A,140B…投写部、141…光源、142…ライトバルブ、143…投写光学系、144…駆動回路、150、150A、150B…映像処理部、160、160A、160B…インターフェース、171、172、171A、172A、171B、172B…撮像部、210…制御部、230…発光部、240…操作部、250…電源、1001…検知部、1002…送信部、1003…座標変換部、1004…受信部、2001…検知部、2002…送信部。

Claims (7)

  1. 情報処理装置と、第1プロジェクターと、第2プロジェクターを備え、前記情報処理装置が出力する画像の第1部分を前記第1プロジェクターが投写面に対して投写し、前記画像の第2部分を前記第2プロジェクターが前記投写面に対して投写する表示システムであって、
    前記第2プロジェクターは、
    前記第2部分を前記投写面へ投写する第2投写部と、
    前記投写面に投写された前記第2部分に対する指示体の位置を検知し、前記第2部分の座標系における前記指示体の位置を表す第2位置情報を生成する検知部と、
    前記検知部が生成した第2位置情報を前記第1プロジェクターへ送信する第2送信部と
    を有し、
    前記第1プロジェクターは、
    前記第1部分を前記投写面へ投写する第1投写部と、
    前記第2送信部が送信した前記第2位置情報を受信する受信部と、
    前記受信部が受信した前記第2位置情報を前記画像の座標系に応じて変換して得られた位置情報又は前記受信部が受信した前記第2位置情報を、第1位置情報として前記情報処理装置へ送信する第1送信部と
    を有し、
    前記情報処理装置は、
    前記第1送信部が送信した前記第1位置情報を受信し、受信した前記第1位置情報に応じた処理を行う
    表示システム。
  2. 前記第1プロジェクターは、前記受信部が受信した前記第2位置情報を前記画像の座標系に応じて前記第1位置情報に変換する座標変換部を有する請求項1に記載の表示システム。
  3. 前記第1送信部は、前記第2位置情報を前記第1位置情報として送信する場合、前記第2部分を表す情報を前記第1位置情報と共に前記情報処理装置へ送信し、
    前記情報処理装置は、前記第1送信部が送信した前記第2部分を表す情報と前記第1位置情報を受信し、受信した前記第2部分を表す情報と当該第1位置情報に応じた処理を行う
    請求項1に記載の表示システム。
  4. 前記第1プロジェクターは、
    前記投写面に投写された前記第1部分の画像に対する指示体の位置を検知し、前記第1部分の座標系における前記指示体の位置を表す位置情報を生成する第2検知部を有し、
    前記指示体が前記第1部分と前記第2部分の境界を跨いで移動した場合、前記第2検知部が生成した位置情報と前記第2位置情報を同一の指示体の位置情報とする
    請求項2に記載の表示システム。
  5. 前記指示体はユーザーの指であり、前記指が前記第1部分と前記第2部分の境界を跨いで移動した場合、前記第2検知部が生成した位置情報と前記第2位置情報を同一の指の位置情報とする
    請求項4に記載の表示システム。
  6. 情報処理装置が出力する画像の第1部分を投写面へ投写する投写部と、
    情報処理装置が出力する画像の第2部分を前記投写面へ投写し、前記投写面に投写された前記第2部分に対する指示体の位置を検知し、前記第2部分の座標系における前記指示体の位置を表す第2位置情報を送信する第2プロジェクターから前記第2位置情報を受信する受信部と、
    前記受信部が受信した前記第2位置情報を前記画像の座標系に応じて変換して得られた位置情報又は前記受信部が受信した前記第2位置情報を、第1位置情報として前記情報処理装置へ送信する第1送信部と
    を備えるプロジェクター。
  7. 情報処理装置と、第1プロジェクターと、第2プロジェクターを備え、前記情報処理装置が出力する画像の第1部分を前記第1プロジェクターが投写面に対して投写し、当該画像の第2部分を前記第2プロジェクターが前記投写面に対して投写する表示システムの制御方法であって、
    前記第2プロジェクターが、前記投写面に投写された前記第2部分に対する指示体の位置を検知し、前記第2部分の座標系における前記指示体の位置を表す第2位置情報を生成するステップと、
    前記第2プロジェクターが、前記第2位置情報を前記第1プロジェクターへ送信するステップと、
    前記第1プロジェクターが、前記第2位置情報を受信するステップと、
    前記第1プロジェクターが、前記第2位置情報を前記画像の座標系に応じて変換して得られた位置情報又は前記第2位置情報を、第1位置情報として前記情報処理装置へ送信するステップと、
    前記情報処理装置が、前記第1位置情報を受信し、受信した前記第1位置情報に応じた処理を行うステップと
    を備える表示システムの制御方法。
JP2015200024A 2015-10-08 2015-10-08 表示システム、プロジェクター及び表示システムの制御方法 Active JP6569449B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015200024A JP6569449B2 (ja) 2015-10-08 2015-10-08 表示システム、プロジェクター及び表示システムの制御方法
US15/279,947 US10055065B2 (en) 2015-10-08 2016-09-29 Display system, projector, and control method for display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015200024A JP6569449B2 (ja) 2015-10-08 2015-10-08 表示システム、プロジェクター及び表示システムの制御方法

Publications (3)

Publication Number Publication Date
JP2017073684A JP2017073684A (ja) 2017-04-13
JP2017073684A5 JP2017073684A5 (ja) 2018-11-08
JP6569449B2 true JP6569449B2 (ja) 2019-09-04

Family

ID=58499495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015200024A Active JP6569449B2 (ja) 2015-10-08 2015-10-08 表示システム、プロジェクター及び表示システムの制御方法

Country Status (2)

Country Link
US (1) US10055065B2 (ja)
JP (1) JP6569449B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6569449B2 (ja) * 2015-10-08 2019-09-04 セイコーエプソン株式会社 表示システム、プロジェクター及び表示システムの制御方法
CN107979748A (zh) * 2016-10-21 2018-05-01 中强光电股份有限公司 投影机、投影系统以及影像投影方法
JP7069922B2 (ja) * 2018-03-26 2022-05-18 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
JP2021064320A (ja) * 2019-10-17 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7571531B2 (ja) 2020-12-23 2024-10-23 セイコーエプソン株式会社 画像表示システム、画像表示システムの制御方法、及び、表示装置の制御方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3722194B2 (ja) 1999-05-20 2005-11-30 セイコーエプソン株式会社 画像表示システム
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
JP2008116874A (ja) 2006-11-08 2008-05-22 Seiko Epson Corp マルチディスプレイシステム、及びこのシステム上で実行されるプログラム
JP2009086048A (ja) * 2007-09-27 2009-04-23 Brother Ind Ltd プロジェクタシステム及びその駆動方法
JP5708312B2 (ja) * 2011-07-05 2015-04-30 セイコーエプソン株式会社 プロジェクター
JP5849560B2 (ja) * 2011-09-20 2016-01-27 セイコーエプソン株式会社 表示装置、プロジェクター、及び、表示方法
JP5874401B2 (ja) * 2012-01-06 2016-03-02 セイコーエプソン株式会社 表示装置、プロジェクター、表示システム及びデバイスの切替方法
JP6135050B2 (ja) 2012-05-25 2017-05-31 セイコーエプソン株式会社 データ処理装置、表示装置、および、データ処理装置の制御方法
CN103425354B (zh) 2012-05-25 2017-10-13 精工爱普生株式会社 数据处理装置、显示装置以及数据处理装置的控制方法
CN104937658B (zh) * 2013-01-21 2017-09-26 Nec显示器解决方案株式会社 显示设备、多显示系统和多显示方法
US20160119507A1 (en) * 2014-10-28 2016-04-28 Barco, Inc. Synchronized media servers and projectors
EP3276455A4 (en) * 2015-03-27 2018-03-21 Fujitsu Limited Display method, program, and display control device
JP2017040979A (ja) * 2015-08-17 2017-02-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6569449B2 (ja) * 2015-10-08 2019-09-04 セイコーエプソン株式会社 表示システム、プロジェクター及び表示システムの制御方法
JP6701669B2 (ja) * 2015-10-29 2020-05-27 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
JP2017182110A (ja) * 2016-03-28 2017-10-05 セイコーエプソン株式会社 表示システム、表示装置、情報処理装置及び情報処理方法
JP2017182109A (ja) * 2016-03-28 2017-10-05 セイコーエプソン株式会社 表示システム、情報処理装置、プロジェクター及び情報処理方法
US10080002B2 (en) * 2016-04-11 2018-09-18 Seiko Epson Corporation Projection apparatus, projector, and projector controlling method
JP2018022013A (ja) * 2016-08-03 2018-02-08 セイコーエプソン株式会社 表示装置、表示システム、及び、表示装置の制御方法
JP6953692B2 (ja) * 2016-09-01 2021-10-27 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法

Also Published As

Publication number Publication date
JP2017073684A (ja) 2017-04-13
US10055065B2 (en) 2018-08-21
US20170102784A1 (en) 2017-04-13

Similar Documents

Publication Publication Date Title
JP6569449B2 (ja) 表示システム、プロジェクター及び表示システムの制御方法
US9324295B2 (en) Display device and method of controlling display device
CN107272923B (zh) 显示装置、投影仪、显示系统以及设备的切换方法
CN103425354B (zh) 数据处理装置、显示装置以及数据处理装置的控制方法
JP2017182110A (ja) 表示システム、表示装置、情報処理装置及び情報処理方法
EP2133774A1 (en) Projector system
JP6340958B2 (ja) プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
JP6770502B2 (ja) 通信装置、表示装置、それらの制御方法、プログラムならびに表示システム
US20100013801A1 (en) Projector system
JP2011013396A (ja) プロジェクター、画像投写システムおよび画像投写方法
JP2017182109A (ja) 表示システム、情報処理装置、プロジェクター及び情報処理方法
JP6273671B2 (ja) プロジェクター、表示システム、及びプロジェクターの制御方法
JP2012053603A (ja) 情報表示システム
JP2019117322A (ja) 投影型表示装置、その制御方法、並びにプログラム
JP2017010314A (ja) 画像投影システム、画像投影装置、ポインティングデバイス、および映像供給装置
JP6759598B2 (ja) プロジェクター、及び制御方法
JP6586891B2 (ja) プロジェクター及びプロジェクターの制御方法
JP2012182766A (ja) 会議システム、会議システムの制御方法、及びプログラム
US20160147377A1 (en) Display device, display method, and display system
JP6642032B2 (ja) プロジェクター及びプロジェクターの制御方法
JP2017068001A (ja) 表示装置及び表示装置の制御方法
JP6145963B2 (ja) プロジェクター、表示システム、及びプロジェクターの制御方法
JP2017092849A (ja) 画像表示システム
JP2017152765A (ja) プロジェクター及びプロジェクターの制御方法
JP6183084B2 (ja) 画像投影装置及び画像投影方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R150 Certificate of patent or registration of utility model

Ref document number: 6569449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150