[go: up one dir, main page]

WO2001093583A1 - Projecteur - Google Patents

Projecteur Download PDF

Info

Publication number
WO2001093583A1
WO2001093583A1 PCT/JP2001/004628 JP0104628W WO0193583A1 WO 2001093583 A1 WO2001093583 A1 WO 2001093583A1 JP 0104628 W JP0104628 W JP 0104628W WO 0193583 A1 WO0193583 A1 WO 0193583A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image data
projector
unit
network
Prior art date
Application number
PCT/JP2001/004628
Other languages
English (en)
French (fr)
Inventor
Kiyoshi Miyashita
Miki Nagano
Masaru Kono
Shoichi Akaiwa
Kazuyoshi Nakamura
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Priority to JP2001588245A priority Critical patent/JP4186465B2/ja
Priority to US10/031,744 priority patent/US7266772B2/en
Priority to EP01934475A priority patent/EP1289298A4/en
Publication of WO2001093583A1 publication Critical patent/WO2001093583A1/ja

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4108Peripherals receiving signals from specially adapted client devices characterised by an identification number or address, e.g. local network address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4113PC
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/641Multi-purpose receivers, e.g. for auxiliary information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7416Projection arrangements for image reproduction, e.g. using eidophor involving the use of a spatial light modulator, e.g. a light valve, controlled by a video signal
    • H04N5/7441Projection arrangements for image reproduction, e.g. using eidophor involving the use of a spatial light modulator, e.g. a light valve, controlled by a video signal the modulator being an array of liquid crystal cells
    • H04N2005/745Control circuits therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals

Definitions

  • the present invention relates to a projection display device (projector) connectable to a network and a method for displaying an image via the network. More specifically, the present invention relates to a projector capable of supporting an application service provider (ASP).
  • ASP application service provider
  • a projection display device ie, a projector
  • an image generation device such as a video cassette record or a computer via a video cable.
  • the analog RGB signal generated by the computer was input to the projector via a video cable, and was projected as an image on a screen or the like. Therefore, conventional projectors functioned simply as stand-alone projectors.
  • ASP application 'service' provider
  • a requested application program is executed on a server, and the execution result is sent to a client as HTML data or display screen data in a special format.
  • the client simply activates the client application and displays a user interface (display screen information) on the display in response to the received display image data.
  • a user interface display screen information
  • the present invention has been made to solve the above problem, and has as its object to provide a projector that can be connected to a network without being connected to a computer. Another object is to provide a projector that can function as a client for a server computer. It is another object of the present invention to provide a projector that can function as an ASP terminal device in an ASP.
  • a projector connectable to a network.
  • a projector includes a network connection unit for transmitting / receiving data to / from the network, and image data to be displayed based on the data received via the network connection unit. And a projection display unit that projects and displays the generated image data.
  • the projector according to the first aspect of the present invention can be used without connecting to a computer. Can be connected to the network alone. Further, the projector according to the first aspect of the present invention can function as a client for a server computer.
  • the data received by the image data generating unit is screen data, and the image data generating unit executes client ablation to execute the image processing based on the screen data.
  • Data may be generated.
  • it can function as an ASP terminal device in ASP.
  • the image data generation unit may execute a view application to generate the image data based on the received data. Further, the image data generation unit may identify the data format of the received data, and execute the application suitable for the identified data format to generate the image data. In such a case, the received application data can be opened by a view application or application, and a display screen (user interface) of the application can be projected.
  • the projector further includes: a reproduced audio data generation unit that generates audio data to be reproduced based on the data received via the network connection unit;
  • An output audio data reproducing unit may be provided.
  • the data is multimedia data including moving image data and audio data associated with the moving image data
  • the image data generating unit is configured to display an image to be displayed based on the moving image data received via the network connection unit.
  • the audio data reproducing unit generates reproduced audio data in association with the generated image data based on audio data associated with the video data received via the network connection unit. Is also good.
  • the projector according to the first aspect of the present invention may further include an external input signal receiving unit that receives an input signal from the external input unit. Further, the projector according to the first aspect of the present invention further has an identifier for uniquely identifying itself from another projector, and the external input unit includes an identifier selection unit for selecting the identifier. It may have a unique input to a desired one of a plurality of projectors. When such a configuration is provided, a plurality of projectors can be controlled by one external input unit. That is, data, commands, and the like can be individually input to each projector.
  • the external input unit may wirelessly transmit an input signal to the external input signal receiving unit.
  • the projector according to the first aspect of the present invention further comprises receiving the image data via the external input unit and then via the network during at least one of the projection display and the end of the projection display.
  • a data determination unit for determining data to be performed may be provided. With this configuration, image data can be continuously projected and displayed. As a result, it is possible to reduce the time for a presentation or the like.
  • the projection display unit includes an electro-optical data output unit, a light source that irradiates the electro-optical data output unit with light, and an image projected by the light source. And a lens.
  • the projector according to the first aspect of the present invention may further include an image data conversion unit that converts the projected and displayed image into image data, and a storage device that stores the converted image data.
  • the projected and displayed image can be stored electronically.
  • one of the date and time when the image data is converted and the date and time when the image data is stored is added to the image data.
  • a date and time adding unit may be provided. With such a configuration, it is possible to easily search for image data.
  • the projector further includes a decoration unit for performing decoration processing on the projected and displayed image, wherein the image data conversion unit converts the image on which the decoration processing has been performed to decoration image data.
  • the date and time adding unit may add any one of the date and time when the decoration processing is performed and the date and time when the decoration image data is stored. With such a configuration, it is possible to electronically save the image on which the decoration processing has been performed, and to facilitate the search for the decoration image data.
  • the projector may further include an image data association unit that associates the plurality of pieces of image data with association data described in a markup (language) (ML) format.
  • image data can be associated with each other.
  • the image data associating unit may associate a plurality of the image data in order of any one of the date and time when the image data is converted and the date and time when the image data is stored.
  • the projection display unit may read out the stored image data and perform projection display. With such a configuration, once stored image data can be easily projected and displayed without acquiring it again from the server.
  • the projector may further include an image data association unit for associating the plurality of image data and the decoration image data with association data described in a markup language (ML) format. good.
  • the image data associating unit may use any one of the date and time when the decoration was applied and the date and time when the decoration image data was stored for the decoration image data, and used the image other than the decoration image data. For the data, Using one of the date and time when the image data was converted and the date and time when the image data was stored, the plurality of decorative image data and the image data may be associated in order of date and time.
  • the image data and the decorative image data can be managed in a time-series manner.
  • the projection display unit may read out and display at least one of the stored decorative image data and image data.
  • a storage device may be connected to the network, and the decoration image data may be stored in a storage device connected to the network.
  • various types of storage devices can be used, and a low-cost storage device having a large storage capacity can be used.
  • the projector may be capable of functioning as a terminal device corresponding to an abridgement service provider (ASP).
  • ASP abridgement service provider
  • a second aspect of the present invention provides a display system for displaying a calculation result executed by a server via a plurality of projectors connected on a network.
  • a display system according to a second aspect of the present invention includes a display screen data generation unit that is provided for each of the projectors, executes a calculation process based on a request from each of the projectors, and generates display screen data.
  • a transmission / reception means for transmitting the calculation processing request to the server via the network and for receiving the display screen data transmitted from the server; ,
  • An image data generating means for generating image data to be displayed based on the received display screen data, and a projection display means for projecting and displaying the generated image data. It is characterized by the following.
  • the projector can be connected to a network without using a computer.
  • the projector can function as an ASP terminal device in ASP.
  • the display screen data generated by the display screen data generation means of the server has a special format and is a difference data between the previous display screen data and the current display screen data.
  • the image data generating means of the projector may generate the image data based on the display screen data using a client application.
  • the projector may be a projector corresponding to an ablation 'service' provider (ASP).
  • ASP ablation 'service' provider
  • a third aspect of the present invention provides a method for displaying an image via a projector connected to a network.
  • the method according to the third aspect of the present invention provides the method according to the first aspect, wherein the server connected to the network
  • Receiving the transmitted user interface data generating image data to be displayed based on the received user interface data, and projecting and displaying the generated image data.
  • the process can be performed without using a computer.
  • the ejector can be connected to the network.
  • the projector can be used via a network.
  • the client may be the projector.
  • a fourth aspect of the present invention provides a method for displaying multimedia data including still image data, moving image data, and audio data via a projector connected to a network.
  • the method according to the fourth aspect of the present invention comprises:
  • the projector can be connected to the network without using a computer.
  • the projector can be used via a network.
  • multimedia data including still image data, moving image data, and audio data can be reproduced by the projector.
  • the client may be the projector.
  • FIG. 1 is an explanatory diagram illustrating an example of the arrangement of projectors according to the first embodiment.
  • FIG. 2 is a block diagram illustrating an internal circuit configuration of the projector according to the first embodiment.
  • FIG. 3 is an explanatory diagram showing a state in which a plurality of projectors 10 are controlled by one external input device 40 according to the second embodiment.
  • FIG. 4 is an explanatory diagram illustrating a schematic configuration of a network system to which the third embodiment is applied.
  • FIG. 5 is a flowchart showing a processing routine executed when a client computer receives a command in the third embodiment.
  • FIG. 6 is a flowchart showing a processing routine executed by the server computer when projecting the display screen on the client computer through the projector 10 in the third embodiment.
  • FIG. 7 is a flowchart showing in detail the processing routine of the data transmission processing in FIG.
  • FIG. 8 is an explanatory diagram conceptually showing transmission and reception of commands between the server computer, the client computer, and the projector 10.
  • FIG. 9 is a flowchart showing a processing routine that is executed when the projector 10 according to the first embodiment is remotely controlled via the network line NL in the fourth embodiment.
  • FIG. 10 is a flowchart showing a processing routine for executing a marking process in the fifth embodiment.
  • FIG. 11 is an explanatory diagram conceptually showing a memory map in the first RAM 204.
  • FIG. 12 is an explanatory diagram conceptually showing a memory map in the VRAM 212.
  • FIG. 13 is an explanatory view conceptually showing a memory map in the first RAM 204 when the marking process is not performed.
  • FIG. 14 is an explanatory diagram conceptually showing a memory map in the VRAM 212 when the marking process is not performed.
  • FIG. 15 is an explanatory diagram showing an example of a description sentence that associates date and time data using a hypertext / markup / language (HTML) as a markup / language (ML).
  • HTML hypertext / markup / language
  • ML markup / language
  • FIG. 16 is an explanatory diagram showing an example of a remote controller for transmitting a command such as a file selection to the projector in the sixth embodiment.
  • FIG. 17 is a flowchart showing a processing routine for executing projection display data selection processing in the sixth embodiment.
  • FIG. 18 is an explanatory diagram showing an example of a menu screen displayed during the projection display.
  • FIG. 19 is an explanatory diagram showing an example of a file selection screen displayed during the projection display.
  • FIG. 20 is an explanatory diagram illustrating an example of a menu screen displayed during non-projection display.
  • FIG. 21 is an explanatory diagram illustrating an example of a file selection screen displayed during non-projection display.
  • FIG. 1 is an explanatory diagram showing an example of the arrangement of projectors according to the first embodiment.
  • FIG. 2 is a block diagram showing an internal circuit configuration of the projector according to the first embodiment.
  • the projector 10 is used, for example, by being suspended from a ceiling as shown in FIG. 1, and obtains necessary data and commands via the network line NL.
  • a wireless keyboard 401, a wireless mouse 402 Commands and data can also be input via a wireless external input device 40 such as
  • An image from the projector 10 is projected onto a projection target such as a projection screen SCR.
  • the internal configuration of the projector 10 according to the first embodiment will be described with reference to FIG.
  • the projector 10 is provided with an ASP terminal section 20 which mainly functions as an ASP terminal and a projector section 30 which mainly performs the conventional projector function. That is, the projector 10 according to the first embodiment can function as an ASP terminal corresponding to the ASP.
  • the ASP terminal unit 20 includes a first central processing unit (CPU) 200 and a first CPU 200 that execute various arithmetic processes including execution of a view application and a client application corresponding to the ASP.
  • the first read-only memory (ROM) 202 which stores the viewing application to be executed, various programs including the client application, and the ith random, which temporarily stores the operation results, data, etc. of the first CPU 200.
  • Access memory (RAM) 204 is provided.
  • the first CPU 200 and the first ROM 202 are connected so as to be capable of unidirectional or bidirectional communication, and the first CPU 200 and the first RAM 204 are connected so as to be capable of bidirectional communication.
  • the ASP terminal unit 20 is connected to the first CPU 200 so as to be capable of bidirectional communication, and includes a graphics controller 210 that generates image data based on a drawing command from the first CPU 200.
  • the graphics controller 210 includes an LSI chip (not shown) for generating an image, and a video memory (VRAM) 212 for storing the generated image (display image).
  • the ASP terminal section 20 includes a network interface, a controller 220, an I / I port 230, a PCMCIA interface as an interface for transmitting and receiving command data between the projector 10 and an external device.
  • a controller 240 and a USB controller 250 It has a controller 240 and a USB controller 250.
  • the interface ′ controller 220 is, for example, a controller that conforms to the Ethernet standard, and converts commands and data transmitted from the ASP terminal unit 20 to the network line NL into an appropriate format according to the network communication protocol. Alternatively, it converts a signal received from the network line NL into a format suitable for processing in the ASP terminal unit 20.
  • 1 port 0 230 is a general input / output port, which is connected to the wireless input device 234 via the identification circuit 2 32, as well as to the external input device 40 and the second CPU 300 of the projector section 30. It is connected.
  • the wireless input device 234 is an input device for receiving input data wirelessly transmitted from a wireless input device
  • the identification device 232 is a device for receiving input data received by the wireless input device 234 toward itself. Identify whether the input data is transmitted.
  • the PCMCIA interface controller 240 is a controller that transfers data from the ASP terminal unit 20 to an external device according to the PCMCIA standard and transfers data from the external device to the ASP terminal unit 20. Connected to storage device 4 1.
  • the USB controller 250 is a controller that transfers data between the ASP terminal 20 and an external device in accordance with the USB standard, and is connected to the external input device 40 via the USB hub 252, for example.
  • the ASP terminal unit 20 further includes a real-time clock 260 that supplies an absolute time in the ASP terminal unit 20 and a sound source 262 that generates sound data based on a command from the first CPU 200. .
  • the first CPU 200 and the controllers 210 in the ASP terminal unit 20 are connected to each other via a bus that transmits data and commands.
  • the projector unit 30 executes a predetermined program to control each circuit of the projector unit 30, a second central processing unit (CPU) 300, and stores a program to be executed by the second CPU 300.
  • Only memory (ROM) 302, 2nd random access memory (RAM) 304 for temporarily storing the operation results and data of the second CPU 300 I have.
  • the second CPU 300 and the second ROM 302 are connected so that unidirectional or bidirectional communication is possible, and the second CPU 300 and the second RAM 304 are connected so that bidirectional communication is possible.
  • the projector section 30 further includes a video signal conversion circuit 310, an audio control circuit 320, a liquid crystal (LCD) drive circuit 330, a light source drive circuit 340, a cooling fan control circuit 350, and a projection optical system 360. I have.
  • a video signal conversion circuit 310 an audio control circuit 320, a liquid crystal (LCD) drive circuit 330, a light source drive circuit 340, a cooling fan control circuit 350, and a projection optical system 360.
  • the video signal conversion circuit 310 implements functions such as an analog-to-digital conversion function, a decoding function, a synchronization signal separation function, and an image processing function. That is, the video signal conversion circuit 310 converts the analog or digital image signal input from the external video signal input terminal 312 into digital image data, and converts the converted digital image data into a synchronization signal. Synchronously, the digital video data is written to a frame memory (not shown) in the video signal conversion circuit 310, or the digital video data written to the frame memory is read from the frame memory.
  • the analog image signal for example, an RGB signal output from a personal computer and a composite image signal output from a video tape recorder or the like are input.
  • the video signal conversion circuit 310 demodulates the composite image signal and separates it into a component video signal composed of three color signals of RGB and a synchronization signal. , Converts component video signals to digital video data. If the analog image signal is an RGB signal output from a personal computer, it is originally input as a component video signal and the synchronization signal is also input separately, so no separation processing is required. 10 converts the component video signal into digital video data.
  • the digital image signal transmitted from the graphics controller 210 of the ASP terminal unit 20 is also input to the video signal conversion circuit 310. In such a case, the analog-to-digital conversion process and the separation process are unnecessary because the synchronization signal is supplied separately while the digital image signal is originally input.
  • the audio control circuit 320 is connected to the external audio signal input terminal 3 222, the speed 324, the second CPU 300, and the sound source 262 of the ASP terminal unit 20.
  • the audio control circuit 320 is connected to the second CPU 300, and in accordance with a command from the second CPU 300, based on an audio signal or sound data transmitted from the external audio signal input terminal 322 or the sound source 262.
  • the speaker 324 is driven by the generated drive signal.
  • the LCD drive circuit 330 receives the image data processed by the video signal conversion circuit 310, drives the LCD 332 according to the received image data, and drives the light source 3
  • the illumination light modulated by the LCD 332 is projected on a projection surface, for example, a projection screen via a projection optical system 360 including a lens.
  • a light source control circuit 340 is connected to the light source 342, and the light source control circuit 340 controls on / off of the light source 342 in accordance with a command from the second CPU 300.
  • a cooling fan 352 for sending cooling air to the light source 342 is disposed on the back of the light source 342.
  • a cooling fan control circuit 350 is connected to the cooling fan 352, and the cooling fan control circuit 350 controls the rotation speed and the like of the cooling fan 352 according to a command from the second CPU 300.
  • the signal input to the projector 10 via the network line NL is sent to the A by the network 'interface' controller 220 of the ASP terminal 20.
  • the data is converted into a format suitable for the P terminal unit 20 and transferred to the first CPU 200 as a data command.
  • the first CPU 200 temporarily stores the transferred data in the first RAM 204 and determines whether the transferred command is a command for the ASP terminal unit 20 or a command for the projector unit 30. . Transferred If the received command is a command to the projector unit 30, the first CPU 200 transfers the command to the second CPU 300 of the projector unit 30 via the 1 ⁇ port 230.
  • the data transferred to the first RAM 204 includes various types of binary application data, image data with extensions such as JPEG and GIF, video data with extensions such as avi, mov, rpm, and extensions such as WAV and MP3. Includes audio data with children.
  • the first CPU 200 executes an arithmetic process based on the transferred command. For example, if the data stored in the first RAM 204 is image data or the like, the first CPU 200 reads out a view application suitable for the data (ie, extension) from the first ROM 202 and starts up. Then, the user interface data of the data stored in the first RAM 204 is generated and transferred to the graphics controller 210 together with the drawing command. When the data stored in the first RAM 204 is audio data, the first CPU 200 reads out an application for audio data reproduction from the first ROM 202, generates reproduced audio data, and generates an audio generation command. With the sound source 262. Further, when the data is moving image data including sound, each frame image data drawing command of the moving image data is transferred to the graphics controller 210, and each frame data is transmitted to the sound source 262. Playback audio data and audio playback commands are transferred to the image data sink.
  • the data stored in the first RAM 204 is image data or the like
  • the first CPU 200 reads out a view application suitable
  • the projector 10 functions as a client of a server-based computing (SBC) described later
  • the corresponding client application is started, and the user interface screen is displayed from the received display image data having the dedicated format.
  • the graphics controller 210 executes user interface data or display image processing according to the received drawing command. It generates user interface image data to be displayed based on the surface data (hereinafter referred to as “image data”) and stores it in the VRAM 212 in the graphics controller 210.
  • the graphics controller 210 reads out the image data stored in the VRAM 212 of the graphics controller 210 at a predetermined timing in accordance with a command from the first CPU 200, and outputs the video signal of the projector unit 30. Transfer to conversion circuit 310.
  • the first CPU 200 receives a command or data from the external input device 4 via the USB hub 252, the USB controller 250, and the I / O port 230.
  • the first CPU 200 receives the data stored in the first RAM 204 or the graphics controller 21 via the PCMCIA 'interface controller 240 in accordance with a command received via the external input device 40 or the network line NL.
  • the image data stored in the 0 VRAM 211 is stored in the external storage device 41.
  • the video signal conversion circuit 310 Upon receiving the image data from the graphics controller 210, the video signal conversion circuit 310 executes the above-described processing and transfers the processed image data to the LCD drive circuit 330.
  • the LCD drive circuit 330 drives and controls the LCD 332 in accordance with the received image data, and projects desired image data on a projection screen.
  • the second CPU 300 turns on the light source 342 via the light source control circuit 340, for example, when a command transferred from the network line N via the I / O port 230 instructs to turn on the light source 342.
  • the second CPU 300 controls the operation state (rotation speed, rotation timing, and the like) of the cooling fan 352 according to the temperature of the light source 342 via the cooling fan control circuit 350.
  • Data transmission from the projector 10 to the network line NL is executed via the network interface controller 220 according to a command of the first CPU 200.
  • the projector 10 is It can function as a terminal device.
  • the projector 10 can be connected to a network, and can control and execute data distribution via a network line NL.
  • the name of the ASP terminal unit 20 is used, but the name of the ASP terminal unit is not necessarily used, and the name of the network terminal unit may be used. That is, it is only necessary that commands and data can be transmitted and received through the network line NL.
  • FIG. 3 is an explanatory diagram showing a state in which a plurality of projectors 10 are controlled by one external input device 40.
  • the projector 10 is provided with the identification circuit 232, and the individual projectors 101, 102, 103 ... 10n (1 0) Each can be uniquely identified. Therefore, if the external input device 40 including the identification code generation circuit 404, the target projector display window 405, and the wireless output device 406 as shown in the figure is used, a plurality of projectors 101, 102, 1 0 3... 10 n can be controlled individually. For example, it is useful when a plurality of projectors 10 are used in a presentation to project and output independent images, or when two projectors 10 project one image overlaid.
  • the plurality of projectors 101, 102, 103... 10n are interconnected via a network line NL.
  • the plurality of projectors 101, 102, 10.3... 10 ⁇ request various arithmetic processing to a server (not shown) via the network line NL.
  • the server returns the requested operation result to the requesting projector.
  • a key combination is input to the external input device 40 in order to specify the projector 10 for which a command or data input is desired by the external input device 40.
  • the key combination for example, a combination of a CTRL key and a numeric key can be considered.
  • the identification code generation circuit 404 When the key combination is input, the identification code generation circuit 404 generates an identification code unique to the specified projector 101, 102, 103 ... n, and outputs the target projector display window.
  • the number of the specified projector 10 is displayed on 405. In the illustrated example, “2” is displayed on the target projector display window 405, and the second projector 102 is specified.
  • the transmission data is composed of, for example, header information, an identification code, a character code, and an end command.
  • each of the projectors 101, 102, 103... 10 ⁇ receives transmission data from the external input device 40 via the wireless input device 234, the identification code in the identification circuit 232 identifies itself. It is determined whether or not the identification code is specified. For example, when the first projector 101 receives the current transmission data, it discards the received transmission data because the transmission data does not include an identification code for identifying itself. On the other hand, when the second projector 102 receives the current transmission data, the transmission data includes an identification code for identifying itself, and thus the received transmission data is transmitted.
  • the data is transferred to the ASP terminal 20 and processed by the ASP terminal 20 so that the network line N It is sent to the server via L.
  • the server performs arithmetic processing based on the information, and returns the arithmetic processing result to the projector 102.
  • an image reflecting the result of the arithmetic processing is projected from the projector unit 30.
  • Each projector 101, 102, 103... 10n can be specified by turning on a switch alone or by turning on a combination of switches.
  • an external input device 40 capable of generating a plurality of identification codes is provided for each of the projectors 101, 102, 100,... 10n having a unique identification code. Since the command or data is input using the input device, a plurality of projectors 101, 102, 103... 1 On can be individually controlled by one external input device. Therefore, it is not necessary to prepare a dedicated external input device 40 for each of the projectors 101, 102, 10 3... 10n.
  • FIG. 4 is an explanatory diagram showing a schematic configuration of a network system to which the third embodiment is applied.
  • FIG. 5 is a flowchart showing a processing routine executed when a command is received by the client computer.
  • FIG. 6 is a flowchart showing a processing routine executed by the server computer when projecting a display screen on the client computer via the projector 10.
  • FIG. 7 is a flowchart showing in detail the processing routine of the data transmission processing in FIG.
  • FIG. 8 is an explanatory diagram conceptually showing transmission and reception of commands between the server computer, the client computer, and the projector 10.
  • the server computer SC is assigned a network address of (a, b, c, d), and the client computers CC1, CC2, and CC3 are assigned (a, b, c, 1), (a, The network addresses b, c, 2) and (a, b, c, 3) are assigned.
  • the address (a, b, c, 4) is assigned to the projector 10.
  • the server computer SC has virtual environments A, B, and C corresponding to the client computers CC1, CC2, and CC3, respectively, and a so-called server-based computing (SBC) system is constructed. I have.
  • the virtual environments A, B, and C are formed on the server computer SC to execute application programs in response to requests from the client computers CC1, CC2, and CC3.
  • c A virtual independent execution environment for C.
  • Each of the client computers CC1, CC2, and CC3 includes a network interface (not shown), an input device, and a display screen device, and can function as a terminal device (ASP terminal device) in the SBC system.
  • the SBC system application programs such as a spreadsheet and a code processor are executed on the server computer SC, and only the user interface data (virtual screen data) of each application is transmitted to the client computer CC.
  • virtual screen data is displayed only on each client computer CC associated with the virtual environment, so that many people can share the screen displayed on one client computer CC. It was inconvenient.
  • the projector 10 uses the projector 10 to project the display screen displayed on one client computer CC, thereby sharing the display screen with many people. The convenience at the time has been improved. For example, in an educational institution, each student When a class is operated by operating the computer CC, one student's client computer is projected by using the projector 10 to project the display screen displayed on the client computer CC.
  • the display screen displayed on Computer CC can be shared.
  • A, B, etc. are independent virtual execution environments generated on the server computer SC
  • [A], [B], etc. are virtual virtual environments generated in the virtual environment of the server computer SC. It means screen data.
  • client computers CC1, CC2, CC3 and the projector 10 receives a command via the network line NL (step S100).
  • each client determines whether or not the specified address of the received command matches its own network address (step S110), and determines that it does not match its own network address. If it has been done (step S110: No), the received command is ignored (step S130). On the other hand, if each client determines that the specified address of the received command matches its own network address (step S110: Yes), the client displays the transmitted virtual screen data. (Step S120).
  • the data string transmitted from the server computer SC has, for example, an array of (specified network address / virtual screen data [X]), and when specifying the client computer CC1, ( a , b, c, 1 / [A]).
  • the display screen displayed on each client computer CC is displayed.
  • a processing routine executed when the screen is displayed on the projector 10 and when the screen displayed on the projector 10 is deleted will be described. Note that, for simplicity of description, the description will be typically made using the client computer CC1.
  • the client computer CC1 When detecting the key input from the input device, the client computer CC1 transmits the key input information to the server computer SC.
  • the server computer SC waits for a key input from the client computer CC 1 (step S20 Q: No), and when a key input occurs (step S200 ⁇ Yes), the key input causes a screen echo. It is determined whether the command is a command to turn on (step S210).
  • “screen echo” means a command for projecting and displaying an image by the projector 10. If the server computer SC determines that the key input is a screen echo on command (step S210: Yes), it turns on the Echo flag (step S220) and turns on the screen echo. Is specified (step S230). The server computer SC executes data transmission processing (step S240), and ends the processing routine.
  • step S210 determines whether or not the Echo flag is turned on (step S250). If the server computer SC determines that the Echo flag has not been turned on (step S250: No), it ends this processing routine. If the server computer SC determines that the Echo flag is turned on (step S250: Yes), it turns off the Echo flag (step S260) and designates the screen echo to be turned off (step S260). S 270). The server computer SC executes a data transmission process (step S240), and terminates this processing routine.
  • the server computer SC specifies the network address (terminal address) of the source client computer CC (step S2410).
  • the server computer SC executes processing requested by the client computer CC of the transmission source, for example, execution of a spreadsheet, character input processing of a code processor, and the like on a corresponding virtual environment (step S2420).
  • the server computer SC adds virtual display screen data [X], which is image data obtained as a result of executing the application executed in the virtual environment, to the response command (step S2430). That is, the user interface data (the screen displayed on the display screen) of each application is added to the response command.
  • the server computer SC determines whether or not the Echo flag is on (step S2440). If it determines that the Echo flag is on (step S2440: Yes), the server computer SC determines the destination. The destination network address for displaying the display screen data on the display screen as the address, that is, the network address of the projector 10 is designated and added to the response command (step S2450). It is assumed that the network address of projector 10 is registered in server computer SC in advance. Alternatively, it may be automatically added when a request to access the projector 10 is made by a directory server or the like. The server computer SC adds the virtual screen data [X] to be projected by the projector 10 after the destination address (step S2460), and sends a response command via the network line NL to the source client computer CC. And sends it to the projector 10 (step S2470).
  • the server computer SC transmits the virtual screen data indicated by 2 in FIG. Send to one.
  • the commands indicated by 1 in FIG. 8 include: The network address of the sender is included, and the server computer SC identifies the client computer CC of the sender based on the network address.
  • the client application is started in the ASP terminal unit 20 as described above, and the graphics controller 210 receives the virtual screen data [A].
  • A] image data to be transmitted to the video signal conversion circuit 310 is generated.
  • the image data generated by the graphics controller 210 is projected on the projection screen SCR via the video signal conversion circuit 310 of the projector unit 30 and the LCD drive circuit 330.
  • the server computer s C determines that the Echo flag is turned off (step S4540: No)
  • the server computer s C transmits a response command without a destination address or the like via the network line NL.
  • the command indicated by 3 in FIG. 8 includes the network address of the transmission source, and the server computer SC determines the transmission source based on the network address. Identify the client computer CC.
  • the projector 10 is based on the virtual screen data received last.
  • Image data is projected on the projection screen SCR. That is, the rendered data stored in the VRAM 212 of the graphics controller 210 (or the frame memory of the video signal conversion circuit 310) is projected.
  • the display screen displayed on one of the plurality of client computers can be projected by the projector 10. Therefore, it is possible to share the display screen of the client computer by a large number of people, which was not possible with the SBC in the past, and the projector 10 only has to function as a thin client, and has many functions.
  • each projector 1 0 requests the (indicated projection via the input device) data you wish to projection to the server computer SC.
  • FIG. 9 is a flowchart showing a processing routine executed when remote-controlling the projector 10 according to the first embodiment via the network line NL.
  • a server computer or a personal computer is connected to the network line NL, and a plurality of projectors 10 can be centrally managed by remote control via these computers.
  • the first CPU 200 of the ASP terminal unit 20 determines whether the received command is a command for the projector unit 30 (step S500). ). That is, it is determined whether or not the received command is a command related to the control of the projector 10, such as a lamp-on command for instructing the light source 342 (lamp) to be turned on. 1st CPU 2 0 0 If it is determined that the received command is a command for the projector unit 30 (step S500: Yes), the command is transferred to the second CPU 300 via the I / O port 230 (step S5). Ten) . On the other hand, if the first CPU 200 determines that the received command is not a command for the projector unit 30 (step S500: No), the first CPU 200 ends the processing routine, and the first CPU 200 Executes processing according to the command.
  • a command related to the control of the projector 10 such as a lamp-on command for instructing the light source 342 (lamp) to be turned on. 1st CPU 2 0 0
  • the command is
  • the second CPU 300 that has received the command from the first CPU 200 analyzes the command (step S520), and determines whether the received command is a lamp-on command (step S530). If the second CPU 300 determines that the received command is a lamp-on command (step S530: Yes), it turns on the light source 342 via the light source control circuit 340 (step S540).
  • the second CPU 300 determines that the received command is not a lamp-on command (step S530: No), it obtains the state data of the projector unit 30 (step S550), and The status data obtained in the order is arranged to generate a status column (step S560).
  • the status data of the projector unit 30 refers to status data related to the projector function, such as, for example, the cumulative use time of the light source 342, the operation status of the cooling fan 352, and the light source (lamp) being turned off.
  • the second CPU 300 transfers the generated status string to the first CPU 200 (step S570).
  • the first CPU 200 which has received the status sequence, sends the received status sequence to the request destination computer via the network interface controller 220 (step S580).
  • the projector 10 according to the first embodiment having the ASP terminal unit 20 capable of receiving commands and data via the network line NL is used.
  • the projector 10 can be remotely controlled via the camera. For example, when a plurality of projectors 10 are arranged Even so, by acquiring the state data, the state of each projector 10 can be grasped without going to each projector 10. Further, there is no need to wait on the side of the projector 10 to operate the projector 10. For example, the operation of presentation data and the management of the projector 10 can be performed simultaneously by a personal computer. It should be noted that the above commands used in the description of this remote operation are merely examples, and it goes without saying that various other commands such as a lamp-off command can be used.
  • FIG. 10 is a flowchart showing a processing routine for executing a marking process in the fifth embodiment.
  • FIG. 11 is an explanatory diagram conceptually showing a memory map in the first RAM 204.
  • FIG. 12 is an explanatory view conceptually showing a memory map in VRAM 212 when masking data is input.
  • FIG. 13 is an explanatory diagram conceptually showing a memory map in the first RAM 204 when the marking process is not performed.
  • FIG. 11 is an explanatory diagram conceptually showing a memory map in the first RAM 204.
  • FIG. 12 is an explanatory view conceptually showing a memory map in VRAM 212 when masking data is input.
  • FIG. 13 is an explanatory diagram conceptually showing a memory map in the first RAM 204 when the marking process is not performed.
  • FIG. 11 is an explanatory diagram conceptually showing a memory map in the first RAM 204.
  • FIG. 12 is an explanatory view conceptually showing a memory map in VRAM 212 when masking data is input
  • FIG. 14 is an explanatory view conceptually showing a memory map in VRAM 212 when no marking data is input.
  • FIG. 15 is an explanatory diagram showing an example of a description sentence that associates date and time data using markup / language (ML), for example, hypertext / markup / language (HTML).
  • ML markup / language
  • HTML hypertext / markup / language
  • the first CPU 200 transfers the display screen data in the graphics controller 210 to the screen data storage area in the first RAM 204. Transfer (step S600). Graphics controller The display screen data stored in the roller 210 is data corresponding to the image projected and displayed via the projector unit 30. The first CPU 200 sends to the graphics controller 210 a command to prohibit drawing into the VRAM 212 (step S610), and the LSI chip in the graphics controller 210 sends the command. Prohibits drawing processing to VRAM212.
  • the first CPU 200 draws, for example, on the ink data storage area in the first RAM 204 as shown in FIG. 11 based on the marking data input via the external input device 40 such as a mouse or a tablet ( Step S620).
  • the external input device 40 such as a mouse or a tablet
  • empty marking data is stored as ink data in the ink data storage area in the first RAM 204.
  • the first CPU 200 transfers the logical OR data of the display screen data and the ink data in the first RAM 204 to the screen data storage area in the VRAM 212 of the graphics controller 210 (step S630). .
  • image data (see FIG. 12) in which ink data has been added to the display screen data before the start of the marking process is stored in the screen storage area of the VRAM 212.
  • the image data stored in the VRAM 212 is associated with, for example, a date / time data storage area for storing date / time data acquired from the real-time clock 260. Image data stored in the screen storage area of the VRAM 212 is projected via the projector unit 30.
  • the “ink data” means data in the first RAM 204 corresponding to the marking data input via the external input device 40 such as a mouse.
  • the first CPU 200 determines whether or not a save command for saving the display screen data on which the marking processing has been performed has been input (step S640), and if it is determined that the save command has been input (step S640). : Y es), 1st RAM 20
  • the logical sum data of the display screen data and the ink data in 4 is transferred to the external storage device 41 via the PCMCIA 'interface controller 240 and stored (step S650).
  • step S650 When storing the display screen, only the display screen data is transferred to the external storage device 41 as the logical OR data of the display screen data and the ink data in the first RAM 204 (see FIGS. 13 and 1). 4).
  • the date and time data stored in the date and time data storage area may be transferred at the same time, and the date and time data may be used as a file name.
  • date and time data may be associated by a description using markup language (ML), for example, hypertext markup language (HTML).
  • ML markup language
  • HTML hypertext markup language
  • the first CPU 200 sends a drawing release command to the LSI chip of the graphics controller 210 to permit drawing in the graphics controller 210 (step S660).
  • step S640 If the first CPU determines that the save command has not been input (step S640: No), the first CPU transmits a drawing release command to the LSI chip of the graphics controller 210 and transmits the graphics release command to the graphics controller. The drawing in 210 is permitted (step S660), and the processing routine ends.
  • marking processing is performed on the display screen data projected via the projector unit 30 via the external input device 40. Can be performed. Furthermore, since the display screen data on which the marking process has been performed is stored in the VRAM 212 of the graphics controller 210, the display screen data on which the marking process has been performed is stored in the external storage device 41. Can be saved. Also, display screen Even if marking processing is not performed on the display screen, the display screen is stored in the external storage device 41 as display screen data, so that when the display screen once projected is displayed again, the display screen is returned from the server again. There is no need to obtain a display screen or file. Also, there is no need to convert the display screen acquired from the server to display screen data each time, or to start an application to open the file acquired from the server, so that the display screen data can be easily obtained.
  • FIG. 16 is an explanatory diagram showing an example of a remote controller for transmitting a command such as a file selection to the projector in the sixth embodiment.
  • FIG. 17 is a flowchart showing a processing routine for executing the projection display data selection processing in the sixth embodiment.
  • FIG. 18 is an explanatory diagram showing an example of a menu screen displayed during the projection display.
  • FIG. 19 is an explanatory diagram showing an example of a file selection screen displayed during the projection display.
  • FIG. 16 is an explanatory diagram showing an example of a remote controller for transmitting a command such as a file selection to the projector in the sixth embodiment.
  • FIG. 17 is a flowchart showing a processing routine for executing the projection display data selection processing in the sixth embodiment.
  • FIG. 18 is an explanatory diagram showing an example of a menu screen displayed during the projection display.
  • FIG. 19 is an explanatory diagram showing an example of a file selection screen displayed during the projection display.
  • the remote controller 50 that transmits a command in this processing routine includes 1 to 5 numeric keys 51 functioning as function keys for executing functions assigned in advance.
  • the remote controller 50 also includes a joystick 52 for moving the cursor or pointer position up, down, left, and right on the projected screen SR, a menu call key 53, an execution key 54, and the like.
  • the first CPU 200 waits for a menu display request to be generated (step S700: No), and requests the menu display.
  • a request is generated (Step S700: Yes)
  • the first CPU 200 determines that a menu display request has been generated (input) when the menu call key 53 of the remote controller 50 is pressed down.
  • the first CPU 200 communicates with the second CPU 300 and determines that the image data is being projected and displayed (step S710: Yes)
  • the first CPU 200 A request is made to display a menu screen SW1 in the lower left corner of the screen SR projected and displayed by the projector 10 as shown in 18 (step S720).
  • the first CPU 200 determines whether a file selection request has been issued while the menu screen SW1 is displayed (step S730).
  • the operation key 54 is depressed in the state where the menu bar MB1 of “2. File selection” is highlighted by operating the joystick 52 of the remote controller 50 on the menu screen SW1 shown in FIG. 18. And that a file selection request has been generated (input).
  • step S730: Yes the first CPU 200 projects and displays the second CPU 300 by the projector 10 as shown in FIG. Request the file selection screen SW 2 to be displayed in the lower left corner of the screen SR (step S 740).
  • step S730: No the first CPU 200 ends this processing routine.
  • the first CPU 200 determines in step S710 that the image is not being projected and displayed, the first CPU 200 transmits the projected image to the second CPU 300 as shown in FIG. Request the menu screen to be displayed on the entire screen SR (step S750).
  • the first CPU 200 determines whether or not a file selection request has been issued with the menu screen displayed on the entire projection display screen SR (step S760).
  • the first CPU 200 displays the remote When the joystick 52 of the button 50 is operated and the execution key 54 is depressed while the menu bar MB 1 of “2. File selection” is highlighted, it is determined that a file selection request has been generated (input).
  • step S760 Yes
  • the first CPU 200 projects and displays the second CPU 300 with the projector 10 as shown in FIG.
  • a file selection screen is requested to be displayed on the entire screen SR (step S770).
  • step S760: No the first CPU 200 ends this processing routine.
  • the first CPU 200 determines whether or not a request for reproducing the selected file has occurred (step S780).
  • the first CPU 200 operates the joystick 52 of the remote controller 50 to operate the desired file.
  • the menu bar MB2 of ppt J is highlighted. In the state displayed
  • step S780 If the first CPU 200 determines that a request to reproduce the selected file has occurred (step S780: Yes), the first CPU 200 transfers the selected file to the server computer SC via the network line NL. Request (step S790). The first CPU 200 temporarily stores the selected file obtained from the server computer SC in the first RAM 204 or the external storage device 41, and reproduces the selected file as described above when the timing of the projection display is shifted. On the other hand, if the first CPU 200 determines that a request for reproducing the selected file has not been issued (step S780: No), the first CPU 200 ends this processing routine.
  • the sixth embodiment it is possible to select a file to be reproduced via the projection display screen SR of the projector 10. Also, the image by the projector 10 Even when data is being projected and displayed, a desired file can be selected, so that the reproduction interval of each file can be shortened. Further, when image data is being projected and displayed, the menu screen SW1 and the file selection screen SW2 are displayed at the lower left corner of the projection display screen SR of the projector 10, so that the image data being projected and displayed is displayed. File selection can be performed without lowering the visibility of the file. For example, even if the playback file needs to be changed due to time or other reasons at the time of the presentation, the desired file can be selected without ending or interrupting the presentation.
  • the name of the ASP terminal unit 20 is used for the network terminal unit, but the projector 10 does not necessarily need to be an ASP terminal.
  • the application data (file) may be received via a network, the file may be opened by a viewing application, and the display screen may be projected.
  • the projector 10 may determine the file format and automatically start the most appropriate view, or the server may cause the projector 10 to start the appropriate view together with the file.
  • the start command may be supplied at the same time.
  • the ASP terminal unit 20 and the projector unit 30 are provided with the CPU, RAM, and ROM, respectively.
  • the ASP terminal unit 20 and the projector unit 30 may be provided only in the ASP terminal unit 20. In such a case, the CPU in the ASP terminal unit 20 controls the projector unit 30.
  • an external video signal input terminal 3 12 and an external audio signal input terminal 3 2 2 are provided, but if you are using a dedicated projector for network connection, you can omit it. In such a case, image data and audio data are supplied via the network line NL.
  • various interfaces and controllers are provided. However, it goes without saying that, except for the network 'interface' controller 220, it can be omitted as appropriate.
  • the menu screen SW1 and the file selection screen SW2 are displayed in the lower left corner of the projection display screen SR of the projector 10, but this is merely an example. , It can be displayed in any area on the projection display screen SR. Also, in consideration of image data during projection display, an area where characters, tables, graphs, and the like are not displayed may be automatically detected and displayed in such an area.
  • the projection display screen SR used in the sixth embodiment is merely an example, and the projection display screen can be realized in various forms.
  • a short cut icon of the file to be played is arranged at the bottom of the projection display screen SR, and when the short cut icon is selected and executed, the corresponding file is transmitted from the server computer SC via the network line NL. You may make it acquire.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Overhead Projectors And Projection Screens (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

明細書
プロジェクタ 技術分野
本発明は、 ネッ トワークに接続可能な投写型表示装置 (プロジェクタ) および ネッ トワークを介した画像の表示方法に関する。 より詳細には、 アプリケーショ ン .サービス .プロバイダ (AS P) に対応可能なプロジェクタに関する。
背景技術
これまで、 投写型表示装置すなわちプロジェクタは、 例えば、 ビデオカセット レコード、 コンピュータといった画像生成装置と映像ケーブルを介して接続され てきた。 コンピュータによって生成されたアナログ RGB信号は、 映像ケーブル を介してプロジェクタに入力され、 映像としてスクリーン等に投写されていた。 したがって、 従来のプロジェクタは単なるスタンドアローン型のプロジェクタと して機能していた。
ところで、 近年のネットワーク環境の発展に伴い、 サーバコンピュータにおい て主な演算処理を実行し、 クライアントコンピュータの負荷軽減を図る技術が実 用化されている。 例えば、 アプリケーション 'サービス 'プロバイダ (AS P) 技術では、 要求されたアプリケーションプログラムをサーバ上で実行し、 実行結 果を HTMLデ一タや専用フォーマツトの表示画面データとしてクライアントに 送信する。 この AS P技術の下では、 クライアントは、 クライアントアプリケー ションを起動して受信した表示画像データに応じて表示ディスプレイ上にユーザ インターフェース (表示画面情報) を表示するに過ぎない。 すなわち、 クライア ントには、 多くの機能は要求されず、 いわゆるシン · クライアントとして機能す れば十分である。
また、 近年の会議等ではプロジェクタを用いてプレゼンテーションが進行され る傾向にあり、 据え置き型のプロジェクタが個々の会議室に配置されていること も珍しくない。
このような状況の下、 プロジェクタをネッ トワーク回線に接続して使用したい との要求がある。 しかしながら、 これまでのプロジェクタはコンピュータとロー カルに接続されて用いられることを前提に構成されているため、 コンピュータを 介してネッ トワークに接続する必要があった。 したがって、 プロジェクタを作動 させたりネッ トワークに接続するためにコンピュータを 1台ずつ確保しなければ ならず、 非効率的であるという問題があった。 また、 使用する度にコンピュータ とプロジェクタとをケーブルでつながなければならず、 ネットワークを利用する 利便性が阻害されるという問題があった。 さらに、 プロジェクタ数の増加に伴つ てその管理負担が増大するという問題もある。 また、 プロジェクタが A S Pにお ける端末装置として機能すれば便利である。 発明の開示
本発明は、 上記問題を解決するためになされたものであり、 コンピュータと接 続することなくネットワークに接続可能なプロジェクタを提供することを目的と する。 また、 サーバコンピュータに対するクライアントとして機能し得るプロジ ェクタを提供することを目的とする。 さらに、 A S Pにおける A S P端末装置と して機能し得るプロジェクタを提供することを目的とする。
上記課題を解決するために本発明の第 1の態様は、 ネットワークに接続可能な プロジェクタを提供する。 本発明の第 1の態様に係るプロジェクタは、 前記ネッ トワークとの間でデータを送受信するためのネッ トワーク接続部と、 前記ネット ワーク接続部を介して受信したデータに基づいて表示すべき画像データを生成す る画像データ生成部と、 前記生成された画像データを投写表示する投写表示部と を備えることを特徴とする。
本発明の第 1の態様に係るプロジェクタは、 コンピュータと接続することなく 単独でネットワークに接続することができる。 また、 本発明の第 1の態様に係る プロジェクタは、 サーバコンピュータに対するクライアントとして機能すること ができる。
本発明の第 1の態様に係るプロジェクタにおいて、 前記画像データ生成部が受 信するデータは画面データであり、 前記画像データ生成部は、 クライアントアブ リケーションを実行して前記画面データに基づいて前記画像データを生成しても よい。 かかる構成を備える場合には、 A S Pにおける A S P端末装置として機能 することができる。
本発明の第 1の態様に係るプロジェクタにおいて、 前記画像デ一タ生成部は、 ビュヮ一アプリケーションを実行して前記受信したデータに基づいて前記画像デ ータを生成してもよい。 また、 前記画像データ生成部は、 前記受信したデータの データフォーマツトを識別し、 識別したデータフォーマツトに適したアプリケー シヨンを実行して前記画像データを生成してもよい。 かかる場合には、 受け取つ たアプリケーションデータをビュヮ一アプリケ——ンョンまたはアプリケーション によって開き、 アプリケーションの表示画面 (ユーザインターフェース) を投写 することができる。
本発明の第 1の態様に係るプロジェクタはさらに、 前記ネットワーク接続部を 介して受信したデータに基づいて再生すべき音声データを生成する再生音声デー タ生成部と、 前記生成された再生音声データを出力する音声データ再生部とを備 えても良い。 また、 前記データは動画データと動画データに関連付けられた音声 データを含むマルチメディアデータであり、 前記画像データ生成部は、 前記ネッ トワーク接続部を介して受信した動画データに基づいて表示すべき画像データを 生成し、 前記音声データ再生部は、 前記ネットワーク接続部を介して受信した動 画データに関連付けられた音声データに基づいて、 前記生成された画像データと 関連付けて再生音声データを生成しても良い。
上記構成を備えることにより、 画像のみならず、 音声、 音声と関連付けられた 静止画または動画を投写表示することができる。
本発明の第 1の態様に係るプロジェクタはさらに、 外部入力部からの入力信号 を受け取る外部入力信号受信部を有してもよい。 また、 本発明の第 1の態様に係 るプロジェクタはさらに、 他のプロジェクタと自身とをユニークに識別するため の識別子を有し、 前記外部入力部は前記識別子を選択するための識別子選択部を 有し、 複数のプロジェクタの中から所望する一のプロジェクタに対してユニーク に入力可能であってもよい。 かかる構成を備える場合には、 1台の外部入力部に よって複数のプロジェクタを制御することができる。 すなわち、 個々のプロジェ クタに対して個別にデータ、 コマンド等を入力することができる。
本発明の第 1の態様に係るプロジェクタにおいて、 前記外部入力部は、 前記外 部入力信号受信部に対して無線によつて入力信号を送信してもよい。 かかる構成 を備える場合には、 プロジヱクタの設置場所の自由度を広げることができる。 本発明の第 1の態様に係るプロジェクタはさらに、 前記画像データの投写表示 中およぴ投写表示終了後の少なくともいずれか一方において、 前記外部入力部を 介して、 次に前記ネットワークを介して受信するデータを決定するためのデータ 決定部を備えても良い。 かかる構成を備えることにより、 連続して画像データを 投写表示することができる。 この結果、 プレゼンテーション等における時間短縮 を実現することができる。
本発明の第 1の態様に係るプロジェクタにおいて、 前記投写表示部は、 電気光 学データ出力部、 その電気光学データ出力部に光を照射する光源、 その光源によ り投写された映像を拡大するレンズとを有していても良い。
本発明の第 1の態様に係るプロジェクタはさらに、 投写表示されている画像を 画像データに変換する画像データ変換部と、 前記変換された画像データを保存す る記憶装置とを備えても良い。 かかる構成を備えることにより、 投写表示されて いる画像を電子的に保存することができる。 また、 前記画像データに対して、 前 記画像データが変換された日時および保存された日時のいずれか一方の日時を付 加する日時付加部を備えても良い。 かかる構成を備えることにより、 画像データ の検索を容易化することができる。
本発明の第 1の態様に係るプロジェクタはさらに、 投写表示されている画像に 装飾処理を施すための装飾部を備え、 前記画像データ変換部は、 前記装飾処理の 施された画像を装飾画像データに変換し、 前記日時付加部は、 前記装飾処理が施 された日時おょぴ前記装飾画像データが保存された日時のいずれか一方の日時を 付加しても良い。 かかる構成を備えることにより、 装飾処理を施した画像を電子 的に保存することができるとともに、 装飾画像データの検索を容易化することが できる。
本発明の第 1の態様に係るプロジェクタはさらに、 複数の前記画像データをマ ークアップ 'ランゲッジ (M L ) フォーマットで記述された関連付けデータによ り関連付ける画像データ関連付け部を備えても良い。 かかる構成を備えることに より、 画像データ同士を関連付けることができる。 また、 前記画像データ関連付 け部は、 前記画像データが変換された日時および保存された日時のいずれか一方 の日時順にて複数の前記画像データを関連づけても良い。 かかる構成を備えるこ とにより画像データを時系列的に管理することができる。 また、 さらに、 前記投 写表示部は、 前記保存されている前記画像データを読み出して投写表示しても良 い。 かかる構成を備えることにより、 一旦保存した画像データであれば、 サーバ から再度取得することなく容易に投写表示することができる。
本発明の第 1の態様に係るプロジェクタはさらに、 複数の前記画像データおよ ぴ前記装飾画像データをマークアップ ' ランゲッジ (M L ) フォーマットで記述 された関連付けデータにより関連付ける画像データ関連付け部を備えても良い。 かかる構成を備えることにより、 画像データおよび装飾画像データを関連付ける ことができる。 また、 前記画像データ関連付け部は、 前記装飾画像データについ ては前記装飾が施された日時および前記装飾画像データが保存された日時のいず れか一方を用い、 前記装飾画像データ以外の前記画像データについては、 前記画 像データが変換された日時およぴ保存された日時のいずれか一方を用いて、 日時 順にて複数の前記装飾画像データおよび前記画像データを関連付けても良い。 か かる構成を備えることにより、 画像データおよぴ装飾画像データを時系列的に関 連付けて管理することができる。 さらに、 前記投写表示部は、 前記保存されてい る前記装飾画像データおよび画像データの少なくとも一方を読み出して投写表示 しても良い。 かかる構成を備えることにより、 一且保存した画像データまたは装 飾画像データであれば、 サーバから再度取得することなく容易に投写表示するこ とができる。
本発明の第 1の態様に係るプロジェクタにおいて、 前記ネットワークには記憶 装置が接続されており、 前記装飾画像データは前記ネットワークに接続されてい る記憶装置に保存されても良い。 かかる構成を備えることにより、 種々の形式の 記憶装置を用いることができると共に、 低コストで記憶容量の大きな記憶装置を 用いることができる。
本発明の第 1の態様に係るプロジェクタにおいて、 前記プロジェクタは、 アブ リケーシヨン 'サービス ·プロバイダ (A S P ) に対応した端末装置として機能 し得てもよい。 かかる構成を備える場合には、 A S Pの利用形態を拡張すること ができる。
本発明の第 2の態様は、 サーバにて実行された演算結果をネットワーク上に接 続されている複数のプロジェクタを介して表示する表示システムを提供する。 本 発明の第 2の態様に係る表示システムは、 前記各プロジヱクタ毎に用意されてい ると共に前記各プロジェクタからの要求に基づいて演算処理を実行し、 表示画面 データを生成する表示画面データ生成手段と、 前記演算処理を要求した前記プ口 ジェクタに対して、 前記生成した表示画面データを送信するための表示画面デー タ送信手段を備えるサーバと、
前記ネットワークを介して前記サーバに対して前記演算処理の要求を送信する と共に前記サーバから送信された前記表示画面デ タを受信するための送受信手 段と、 前記受信された表示画面データに基づいて表示すべき画像データを生成す る画像データ生成手段と、 前記生成された画像データを投写表示する投写表示手 段とを備える前記プロジェクタとを備えることを特徴とする。
本発明の第 2の態様に係る表示システムによれば、 コンピュータを用いること なくプロジェクタをネットワークに接続することができる。 また、 プロジェクタ は、 A S Pにおける A S P端末装置として機能することができる。
本発明の第 2の態様に係る表示システムにおいて、 前記サーバの前記表示画面 データ生成手段が生成する表示画面データは、 専用フォーマツトを有すると共に 前回の表示画面データと今回の表示画面データの差分データであり、 前記プロジ ェクタの前記画像データ生成手段はクライアントアプリケーションを使用して前 記表示画面データに基づいて前記画像データを生成してもよい。
本発明の第 2の態様に係る表示システムにおいて、 前記プロジェクタは、 アブ リケーシヨン 'サービス 'プロバイダ (A S P ) に対応したプロジェクタであつ てもよい。 かかる構成を備える場合には、 A S Pの利用形態を拡張することがで きる。
本発明の第 3の態様は、 ネットワークに接続されているプロジヱクタを介して 画像を表示する方法を提供する。 本発明の第 3の態様に係る方法は、 前記ネット ワークに接続されているサーバにおいては
クライアントの要求に基づいてアプリケーションを実行し、 前記ネットワーク を介して前記アプリケーションの実行結果として得られるユーザィンターフェ一 スデータを前記要求したクライアントおよび前記プロジェクタに送信し、 前記プロジェクタにおいては
前記送信されたユーザィンターフェースデータを受信し、 前記受信したユーザ ィンターフェースデータに基づいて表示すべき画像データを生成し、 前記生成し た画像データを投写表示することを特徴とする。
本発明の第 3の態様に係る方法によれば、 コンピュータを用いることなくプロ ジェクタをネッ トワークに接続することができる。 また、 プロジェクタをネット ワークを介して利用することができる。 なお、 前記クライアントは前記プロジェ クタであってもよい。
本発明の第 4の態様は、 ネッ トワークに接続されているプロジェクタを介して 静止画データ、 動画データ、 音声データを含むマルチメディアデータを表示する 方法を提供する。 本発明の第 4の態様に係る方法は、
前記ネットワークに接続されているサーバにおいては
クライアントの要求に基づいて要求された前記マルチメディァデータを前記要 求したクライアントおよび前記プロジェクタに送信し、
前記プロジェクタにおいては
前記送信されたマルチメディアデータを受信し、
前記受信したマルチメディアデータの再生に適切なアプリケーションを起動し 前記起動したアプリケーションを介して前記マルチメディアデータを再生し、 前記再生されたマルチメディアデータのうち再生静止画データまたは再生動画 データを投写表示し、
前記再生されたマルチメディァデータのうち再生音声データを出力することを 特徴とする。
本発明の第 4の態様に係る方法によれば、 コンピュータを用いることなくプロ ジェクタをネットワークに接続することができる。 また、 プロジェクタをネット ワークを介して利用することができる。 さらに、 静止画データ、 動画データ、 音 声データを含むマルチメディアデータをプロジェクタにて再生することができる 。 なお、 前記クライアントは前記プロジェクタであっても良い。 図面の簡単な説明
図 1は、 第 1実施例に係るプロジェクタの配置例を示す説明図である。 図 2は、 第 1実施例に係るプロジェクタの内部回路構成を示すプロック図であ る。
図 3は、 第 2実施例に従って 1台の外部入力装置 4 0によって複数のプロジェ クタ 1 0を制御する様子を示す説明図である。
図 4は、 第 3実施例が適用されるネットワークシステムの概略構成を示す説明 図である。
図 5は、 第 3実施例におけるクライアントコンピュータにてコマンド受信時に 実行される処理ルーチンを示すフローチヤ一トである。
図 6は、 第 3実施例におけるクライアントコンピュータ上の表示画面を、 プロ ジェクタ 1 0を介して投写する際にサーバコンピュータにて実行される処理ルー チンを示すフローチヤ一トである。
図 7は、 図 6中のデータ送出処理の処理ルーチンを詳細に示すフローチヤ一ト である。
図 8は、 サーバコンピュータとクライアントコンピュータ、 プロジェクタ 1 0 との間におけるコマンドの送受信を概念的に示す説明図である。
図 9は、 第 4実施例において、 第 1実施例に係るプロジェクタ 1 0に対してネ ットワーク回線 N Lを介して遠隔操作する場合に実行される処理ルーチンを示す フローチヤ一トである。
図 1 0は、 第 5実施例においてマーキング処理を実行するための処理ルーチン を示すフローチヤ一トである。
図 1 1は、 第 1 R AM 2 0 4内のメモリマップを概念的に示す説明図である。 図 1 2は、 V R AM 2 1 2内のメモリマップを概念的に示す説明図である。 図 1 3は、 マーキング処理が施されない場合における第 1 R AM 2 0 4内のメ モリマップを概念的に示す説明図である。
図 1 4は、 マーキング処理が施されない場合における V R AM 2 1 2内のメモ リマップを概念的に示す説明図である。 図 1 5は、 マークァップ ·ランゲッジ (M L ) としてハイパー ·テキスト ·マ ークアップ 'ランゲッジ (H T M L ) を用いて日時データを関連付ける記述文の 一例を示す説明図である。
図 1 6は、 第 6実施例においてファイル選択等のコマンドをプロジェクタに送 信するためのリモコンの一例を示す説明図である。
図 1 7は、 第 6実施例において投写表示データ選択処理を実行するための処理 ルーチンを示すフローチヤ一トである。
図 1 8は、 投写表示中に表示されるメニュー画面の一例を示す説明図である。 図 1 9は、 投写表示中に表示されるファイル選択画面の一例を示す説明図であ る。
図 2 0は、 非投写表示時に表示されるメニュー画面の一例を示す説明図である 図 2 1は、 非投写表示時に表示されるファイル選択画面の一例を示す説明図で める。 発明を実施するための最良の形態
以下、 本発明に係る投写型表示装置すなわちプロジェクタについて以下の順序 にて図面を参照しつつ、 いくつかの実施例に基づいて説明する。
A . 第 1の実施例に係るプロジヱクタの構成:
図 1および図 2を参照して第 1の実施例に係る投写型表示装置 (プロジェクタ ) の概略構成について説明する。 図 1は第 1実施例に係るプロジェクタの配置例 を示す説明図である。 図 2は第 1実施例に係るプロジェクタの内部回路構成を示 すプロック図である。
プロジェクタ 1 0は、 例えば、 図 1に示すように天井につり下げられて用いら れ、 必要なデータ、 コマンドはネットワーク回線 N Lを介して取得する。 プロジ ェクタ 1 0に対しては、 例えば、 無線式キーボード 4 0 1、 無線式マウス 4 0 2 といった無線式の外部入力装置 40を介してもコマンド、 データの入力が可能で ある。 プロジェクタ 1 0からの映像は、 投写スク リーン S CR等の被投写対象物 上に投写される。
図 2を参照して第 1実施例に係るプロジェクタ 1 0の内部構成について説明す る。 プロジェクタ 1 0は、 主として AS P端末としての機能を果たす AS P端末 部 20と、 主として従来のプロジェクタ機能を果たすプロジェクタ部 30とを備 えている。 すなわち、 第 1実施例に係るプロジェクタ 1 0は AS Pに対応した A S P端末として機能し得る。
AS P端末部 20は、 ビュヮ一アプリケーション、 AS Pに対応したクライア ントアプリケーショ ンの実行を初めとする種々の演算処理を実行する第 1中央処 理装置 (CPU) 200、 第 1 CPU 200にて実行するビュヮ一アプリケーシ ヨン、 クライアントアプリケーションを初めとする種々のプログラムを格納する 第 1 リードオンリメモリ (ROM) 202、 第 1 C PU 200の演算結果、 デー タ等を一時的に格納する第 iランダムアクセスメモリ (RAM) 204を備えて いる。 第 1 CPU200と第 1 ROM202とは単方向または双方向通信可能に 接続されており、 第 1 CPU200と第 1 RAM 204とは双方向通信可能に接 続されている。
AS P端末部 20は、 第 1 C PU 200と双方向通信可能に接続され、 第 1 C PU 200からの描画指令に基づいて画像データを生成するグラフィックスコン トローラ 2 1 0を備えている。 グラフィックスコントローラ 2 1 0は、 画像を生 成するための L S Iチップ (図示しない) 、 生成した画像 (表示画像) を記憶す るためのビデオメモリ (VRAM) 2 1 2を有している。
AS P端末部 20は、 プロジヱクタ 1 0と外部装置との間でコマンドゃデータ を送受信するためのィンターフェースとして、 ネットワーク 'インターフェース •コントローラ 2 20、 I /〇ポート 2 30、 P CMC I A ·インターフェース ' コントローラ 240、 US Bコントローラ 2 5 0を備えている。 ネットワーク • ィンターフェース ' コントローラ 22 0は、 例えば、 イーサネット規格に準拠 したコントローラであり、 AS P端末部 20からネットワーク回線 NLへ送信す るコマンドやデータをネットワーク通信のプロトコルに従って適切な形式に変換 し、 あるいは、 ネッ トワーク回線 NLから受信した信号を AS P端末部 2 0での 処理に適した形式に変換する。 1ノ0ポート 230は一般的な入出力ポートであ り、 識別回路 2 3 2を介して無線入力装置 234と接続されている他、 外部入力 装置 40やプロジェクタ部 30の第 2 C PU 300と接続されている。 無線入力 装置 2 34は、 無線式の入力装置から無線送信された入力データを受信するため の入力装置であり、 識別装置 2 3 2は無線入力装置 2 34が受信した入力データ が自身に向けて送信された入力データであるか否かを識別する。
P CMC I A ·ィンターフェース · コントローラ 240は、 P CMC I A規格 に従って A S P端末部 20から外部装置へデータを転送し、 外部装置から AS P 端末部 20へデータを転送するコントローラであり、 例えば、 外部記憶装置 4 1 と接続されている。 U S Bコントローラ 2 5 0は、 U S B規格に従って A S P端 末部 20と外部装置との間でデータを転送するコントローラであり、 例えば、 U S BHUB 25 2を介して外部入力装置 40と接続される。
AS P端末部 20は、 この他に AS P端末部 20における絶対時間を供給する リアルタイムクロック 26 0と、 第 1 C PU 200からの指令に基づいてサゥン ドデータを生成する音源 262とを備えている。
なお、 AS P端末部 20における第 1 CPU200、 各コントローラ 2 1 0等 は、 データおよびコマンドを伝達するバスを介して相互に接続されている。
次に、 プロジェクタ部 30の構成について説明する。 プロジェクタ部 30は、 所定のプログラムを実行してプロジェクタ部 30の各回路を制御する第 2中央処 理装置 (C PU) 3 00、 第 2 CPU 3 00にて実行するプログラムを格納する 第 2リードオンリメモリ (ROM) 30 2、 第 2 C PU 300の演算結果、 デー タ等を一時的に格納する第 2ランダムアクセスメモリ (RAM) 304を備えて いる。 第 2 CPU 3 00と第 2 ROM302とは単方向または双方向通信可能に 接続されており、 第 2 CPU 300と第 2 RAM 304とは双方向通信可能に接 続されている。
プロジェクタ部 3 0は、 さらに、 映像信号変換回路 3 1 0、 音声制御回路 3 2 0、 液晶 (LCD) 駆動回路 330、 光源駆動回路 340、 冷却ファン制御回路 3 50、 投写光学系 360も備えている。
映像信号変換回路 3 10は、 アナログ一ディジタル変換機能、 デコード機能、 同期信号分離機能、 画像処理機能といった機能を実現する。 すなわち、 映像信号 変換回路 3 1 0は、 外部映像信号入力端子 3 1 2から入力されたアナログ画像信 号またはディジタル画像信号をディジタル画像データに変換し、 変換されたディ ジタル画像データを同期信号に同期して映像信号変換回路 3 1 0内の図示しない フレームメモリに書き込み、 あるいは、 フレームメモリに書き込まれたディジタ ル映像データをフレームメモリから読み出す。 アナログ画像信号としては、 例え ば、 パーソナルコンピュータから出力された RGB信号、 ビデオテープレコーダ 等から出力されたコンポジット画像信号が入力される。 アナログ画像信号がコン ポジット画像信号の場合には、 映像信号変換回路 3 1 0は、 コンポジット画像信 号を復調すると共に RGBの 3色の色信号で構成されるコンポーネント映像信号 および同期信号に分離し、 コンポーネント映像信号をディジタル映像データに変 換する。 アナ口グ画像信号がパーソナルコンピュータから出力された R G B信号 の場合には、 元々コンポーネント映像信号として入力されると共に同期信号も分 離して入力されるので分離処理は不要であり、 映像信号変換回路 3 1 0は、 コン ポ一ネント映像信号をディジタル映像データに変換する。
映像信号変換回路 3 1 0には、 AS P端末部 20のグラフィックスコントロー ラ 2 1 0から送信されたディジタル面像信号も入力される。 かかる場合には、 元 々ディジタル画像信号として入力されると共に同期信号が分離して供給されるの でアナログ一ディジタル変換処理および分離処理は不要である。 音声制御回路 320は、 外部音声信号入力端子 3 2 2、 スピー力 324、 第 2 CPU 300、 および AS P端末部 20の音源 26 2と接続されている。 音声制 御回路 3 20は、 第 2 CPU 3 0 0と接続されており、 第 2 CPU300からの 指令に従い、 外部音声信号入力端子 322または音源 2 62から伝送された音声 信号またはサウンドデータに基づいて生成した駆動信号によってスピーカ 324 を駆動する。
LCD駆動回路 330は、 映像信号変換回路 3 1 0によって処理された画像デ ータを受け取り、 受け取った画像データに応じて L CD 33 2を駆動して光源 3
4 2から照射された照明光を変調する。 LCD 3 3 2によって変調された照明光 はレンズを含む投写光学系 36 0を介して被投写面、 例えば、 投写スク リーン上 に投写される。 光源 342には光源制御回路 340が接続されており、 光源制御 回路 340は、 第 2 C PU 300からの指令に従って光源 34 2のオン、 オフ等 を制御する。 光源 342の背面には光源 342に対して冷却風を送るための冷却 ファン 3 5 2が配置されている。 冷却ファン 3 5 2には冷却ファン制御回路 3 5 0が接続されており、 冷却ファン制御回路 3 50は、 第 2 C PU 300からの指 令に従って冷却ファン 3 52の回転速度等を制御する。
B. 第 1の実施例に係るプロジェクタの基本的動作:
次に上記構成を備える第 1実施例に係るプロジェクタ 1 0の基本的な動作につ いて図 1および図 2を参照して説明する。
ネットワーク回線 NLを介してプロジェクタ 1 0に入力された信号は、 AS P 端末部 20のネッ トワーク 'ィンターフェース ' コントローラ 220によって A
5 P端末部 20に適した形式に変換され、 第 1 C PU 200へデータおょぴコマ ンドとして転送される。 第 1 CPU 200は、 転送されたデータを第 1 RAM 2 04に一時的に格納し、 転送されたコマンドが AS P端末部 20に対するコマン ドであるかプロジェクタ部 30に対するコマンドであるかを判別する。 転送され たコマンドがプロジェクタ部 3 0に対するコマンドの場合には、 第 1 CPU 20 0は 1 〇ポート 23 0を介してプロジェクタ部 30の第 2 CPU 300に対し てコマンドを転送する。 なお、 第 1 RAM204に転送されるデータには、 各種 のバイナリアプリケーションデータ、 JPEG、 GIF等の拡張子を有する画像データ 、 avi、 mov、 rpm等拡張子を有する動画データおよび WAV、 MP3等の拡張子を 有する音声データが含まれる。
一方、 転送されたコマンドが AS P端末部 20に対するコマンドの場合には、 第 1 CPU200は、 転送されたコマンドに基づいた演算処理を実行する。 第 1 C PU 200は、 例えば、 第 1 RAM204に格納されたデータが画像データ等 である場合には、 データ (すなわち拡張子) に適したビュヮ一アプリケーション を第 1 ROM 20 2から読み出して起動して、 第 1 RAM 2 04に格納されてい るデータのユーザィンターフェースデータを生成して描画コマンドと共に、 グラ フィックスコントローラ 2 1 0に対して転送する。 また、 第 1 RAM 204に格 納されたデータが音声データの場合には、 第 1 C PU 200は、 音声データ再生 用のアプリケーションを第 1 ROM202から読み出して再生音声データを生成 して音声生成コマンドと共に音源 26 2に対して転送する。 さらに、 データが音 声を含む動画データの場合には、 グラフィックスコントローラ 2 1 0に対して動 画データの各コマ画像データおょぴ描画コマンドが転送され、 音源 26 2に対し ては各コマ画像データにシンク口して再生音声データおよび音声再生コマンドが 転送される。
あるいは、 プロジェクタ 1 0が後述するサーバ ·ベース · コンピューティング (S B C) のクライアントとして機能する場合には、 対応するクライアントアブ リケーシヨンを起動して、 受信した専用フォーマツトを有する表示画像データか らユーザインターフェース画面データを生成するようにグラフィックスコント口 ーラ 2 1 0に描画コマンドを送信する。 グラフィックスコントローラ 2 1 0は、 受信した描画コマンドに従いユーザインターフェースデータ、 あるいは、 表示画 面データに基づいて表示すべきユーザインターフェース画像データ (以下 「画像 データ」 という。 ) を生成し、 グラフィックスコントローラ 2 1 0内の VRAM 2 1 2中に格納する。
グラフィックスコントローラ 2 1 0は、 第 1 CPU 2 00からの指令に従って 、 所定のタイミングにてグラフィックスコントローラ 2 1 0の VRAM2 1 2に 格納されている画像データを読み出し、 プロジ クタ部 30の映像信号変換回路 3 1 0に転送する。 第 1 C PU200は、 US BHUB 25 2、 US Bコント口 ーラ 250、 I /Oポート 23 0を介して外部入力装置 4◦からコマンドまたは データを受け取る。 第 1 C PU200は、 外部入力装置 40またはネットワーク 回線 NLを介して受信したコマンドに従って、 第 1 RAM204内に格納されて いるデータ、 または、 P CMC I A 'インターフェース · コントローラ 240を 介してグラフィックスコントローラ 21 0の VRAM 2 1 2中に格納されている 画像データを外部記憶装置 4 1に格納する。
映像信号変換回路 3 1 0は、 グラフィックスコントローラ 2 1 0から画像デー タを受け取ると、 既述の処理を実行して LCD駆動回路 3 30に処理済みの画像 データを転送する。 LCD駆動回路 3 30は、 受け取った画像データに応じて L CD 3 32を駆動制御して所望の画像データを投写スクリーン上に投写させる。 第 2 CPU300は、 例えば、 ネットワーク回線 N から I /Oポート 23 0 を介して転送されたコマンドが光源 342のオンを指示する場合には、 光源制御 回路 340を介して光源 342をオンする。 第 2 CPU 3 00は、 冷却ファン制 御回路 3 50を介して光源 342の温度に応じて冷却ファン 352の作動状態 ( 回転速度、 回転タイミング等) を制御する。
プロジェクタ 1 0からネットワーク回線 NLへのデータ送信は、 第 1 CPU 2 00の指令に従ってネットワーク 'インターフェース · コントローラ 220を介 して実行される。
以上説明したように、 第 1実施例に係るプロジェクタ 1 0は、 AS Pにおける 端末装置として機能することができる。 また、 プロジェクタ 1 0は、 ネットヮー クに接続することができると共に、 ネットワーク回線 NLを介してその制御、 並 びに、 データの配信を実行することができる。 なお、 第 1実施例においては、 A S P端末部 20という名称を用いているが、 必ずしも AS P端末部という名称を 用いる必要はなく、 ネットワーク端末部といった名称を用いてもよい。 すなわち 、 ネットワーク回線 NLを通じてコマンド、 並びにデータの送受信をすることが できればよい。
C. 第 1の実施例に係るプロジェクタ 1 0の適用例:
次に、 上記構成を備える第 1実施例に係るプロジェクタ 1 0を種々の態様に対 して適用した適用例についていくつかの実施例を参照して説明する。
(a) 第 1の適用例としての第 2の実施例:
先ず、 図 3を参照して 1台の外部入力装置 40を用いて第 1実施例に従う複数 のプロジヱクタ 1 0を制御する第 1の適用例としての第 2の実施例について説明 する。 図 3は 1台の外部入力装置 40によって複数のプロジヱクタ 1 0を制御す る様子を示す説明図である。
上述のように、 第 1実施例に従うプロジェクタ 1 0には、 識別回路 2 3 2が備 えられており、 個々のプロジェクタ 10 1 , 1 0 2, 1 03. . . 10 n (1 0 ) はそれぞれ固有に識別され得る。 したがって、 図示するような識別符号生成回 路 404、 目標プロジェクタ表示窓 405、 無線出力装置 406を備える外部入 力装置 40を用いれば、 1台の外部入力装置 40によって複数台のプロジェクタ 1 0 1 , 1 02, 1 0 3. . . 1 0 nを個別に制御することができる。 例えば、 プレゼンテーションにおいて複数台のプロジェクタ 1 0を用いて各々に独立した 映像を投写出力させる場合、 あるいは、 2台のプロジェクタ 1 0によって 1つの 映像を重ね合わせて投写させる場合に有用である。 複数台のプロジェクタ 1 0 1 , 1 02, 1 03. . . 1 0 nは、 ネットワーク回線 NLを介して相互に接続さ れていると共に、 図示しないサーバと接続されている。 また、 複数台のプロジヱ クタ 1 0 1 , 1 02, 1 0 3. . . 1 0 ηは、 ネットワーク回線 N Lを介してサ —バ (図示しない) に対して各種の演算処理を要求する。 これに対してサーバは 、 要求された演算処理結果を要求元のプロジェクタに対して返送する。
実行に際しては、 先ず、 外部入力装置 40によってコマンド、 または、 データ 入力を所望するプロジェクタ 1 0を特定するために、 キー · コンビネーションを 外部入力装置 4 0に入力する。 キー ' コンビネーショ ンとしては、 例えば、 CT RLキーと数字キーとの組み合わせが考えられる。 キー ·コンビネーションが入 力されると、 識別符号生成回路 404は、 特定されたプロジヱクタ 1 0 1 , 1 0 2, 1 03. . . 1 0 nに固有の識別符号を生成し、 目標プロジェクタ表示窓 4 05上に特定されたプロジェクタ 1 0の番号を表示する。 図示の例では、 目標プ ロジェクタ表示窓 405上には 2が表示されており、 2番目のプロジェクタ 1 0 2が特定されている。
外部入力装置 40上のいずれかのキー、 例えば、 文字キーが押し下げられると 、 識別符号生成回路 404によって生成された識別符号が送信データに付加され て無線出力装置 406からプロジェクタ 1 0の無線入力装置 234に対して送信 される。 送信データは、 例えば、 ヘッダ情報、 識別符号、 文字コード、 エンドコ マンドの順に構成されている。
各プロジェクタ 1 0 1, 1 02, 1 03. . . 1 0 ηは、 外部入力装置 40か ら無線入力装置 2 34を介して送信データを受信すると、 識別回路 23 2におい て識別符号が自己を特定する識別符号であるか否かを判定する。 例えば、 1番目 のプロジェクタ 1 0 1が今回の送信データを受信した場合には、 送信データに自 己を特定する識別符号が含まれていないので、 受信した送信データを廃棄する。 一方、 2番目のプロジヱクタ 1 02が今回の送信データを受信した場合には、 送 信データに自己を特定する識別符号が含まれているので、 受信した送信データを
AS P端末部 2 0に転送し、 AS P端末部 20で処理されてネットワーク回線 N Lを経由してサーバに送られる。 サーバは、 その情報に基づいて演算処理を行い 、 演算処理結果をプロジヱクタ 1 0 2に返す。 AS P端末部 20では、 演算処理 結果を反映した画像がプロジヱクタ部 3 0から投写される。
なお、 各プロジェクタ 1 0 1 , 1 02, 1 03. . . 1 O nの特定手順として は、 キー . コンビネーションを入力する他に、 外部入力装置 40上に複数のスィ ツチを配置しておき、 スィッチを単独でオンすることにより、 あるいは、 スイツ チを組み合わせてオンすることにより各プロジェクタ 1 01, 1 02, 1 03. . . 1 0 nを特定してもよレヽ。
以上説明した第 2実施例では、 固有の識別符号を有する各プロジヱクタ 1 0 1 , 1 02, 1 0 3. . . 1 0 nに対して複数の識別符号を生成可能な外部入力装 置 40を用いてコマンドまたはデータを入力するので、 1台の外部入力装置によ つて複数台のプロジェクタ 1 0 1 , 1 02, 1 03. . . 1 O nを個別に制御す ることができる。 したがって、 各プロジェクタ 1 0 1, 1 02, 1 0 3. . . 1 0 nに対して専用の外部入力装置 40をそれぞれ用意する必要がない。
(b) 第 2の適用例としての第 3の実施例:
次に、 第 1の実施例に係るプロジェクタ 1 0の第 2の適用例を示す第 3の実施 例について図 4〜図 8を参照して説明する。 図 4は第 3実施例が適用されるネッ トワークシステムの概略構成を示す説明図である。 図 5はクライアントコンビュ —タにてコマンド受信時に実行される処理ルーチンを示すフローチヤ一トである 。 図 6はクライアントコンピュータ上の表示画面を、 プロジヱクタ 1 0を介して 投写する際にサーバコンピュータにて実行される処理ルーチンを示すフローチヤ 一トである。 図 7は図 6中のデータ送出処理の処理ルーチンを詳細に示すフロー チャートである。 図 8はサーバコンピュータとクライアントコンピュータ、 プロ ジェクタ 1 0との間におけるコマンドの送受信を概念的に示す説明図である。 図 4を参照して第 3実施例が適用されるネットワークシステムについて説明す る。 サーバコンピュータ s cには、 3台のクライアントコンピュータ C C 1、 C C 2、 CC 3、 およびプロジェクタ 1 0がネットワーク回線 NLを介して接続さ れている。 サーバコンピュータ S Cには、 (a, b, c, d ) のネットワークァ ドレスが割り当てられ、 各クライアントコンピュータ C C 1、 C C 2、 CC 3に はそれぞれ (a , b, c, 1) 、 (a, b, c, 2) 、 (a , b, c, 3) のネ ッ トワークアドレスが割り当てられている。 プロジェクタ 1 0には、 (a, b, c , 4) のアドレスが割り当てられている。 サーバコンピュータ S Cには、 各ク ライアントコンピュータ CC 1、 CC 2、 CC 3に対応する仮想環境 A、 B、 C が備えられており、 いわゆる、 サーバ ·ベース · コンピューティング (S B C) システムが構築されている。 仮想環境 A, B, Cは、 各クライアントコンビユー タ C C 1、 C C 2、 C C 3からの要求に応じてアプリケーションプログラムを実 行するためにサーバコンピュータ S C上に形成されたものであり、 クライアント コンピュータ c Cにとつて仮想的な独立実行環境である。
各クライアントコンピュータ CC 1 , CC 2、 CC 3は、 図示しないネットヮ ークインタ一フェース、 入力装置、 表示画面装置を備えており、 S B Cシステム における端末装置 (AS P端末装置) として機能し得る。
S B Cシステムでは、 サーバコンピュータ S C上にて、 例えば、 表計算、 ヮー ドプロセッサ等のアプリケーションプログラムが実行され、 クライアントコンビ ユータ C Cには各アプリケーションのユーザィンターフェースデータ (仮想画面 データ) のみが送信される。 ただし、 S BCシステムでは、 仮想画面データは仮 想環境に関連付けられている各クライアントコンピュータ C C上でしか表示され ないので、 多人数で 1つのクライアントコンピュータ C C上に表示された画面を 共有するには不便であった。 これに対して、 本適用例では、 本実施例に係るプロ ジェクタ 1 0を用いて、 1つのクライアントコンピュータ C C上に表示されてい る表示画面を投写することによって、 多人数で表示画面を共有する際の利便性を 向上させている。 例えば、 教育機関において各生徒がそれぞれクライアントコン ピュータ CCを操作して授業等を進める場合に、 プロジェクタ 1 0を用いて 1人 の生徒のクライアントコンピュータ CC上に表示された表示画面を投写すること により、 全員の生徒が 1人の生徒のクライアントコンピュータ C C上に表示され た表示画面を共有することができる。
図 4に示す S BCシステムに対して第 1実施例に係るプロジヱクタ 1 0を適用 した場合のクライアントコンピュータ CC、 サーバコンピュータ S Cおよびプロ ジ工クタ 1 0の動作について図 5〜図 7を参照して説明する。 なお、 以下の説明 において、 A, B等はサーバコンピュータ SC上に生成される独立した仮想実行 環境であり、 [A] 、 [B] 等はサーバコンピュータ S Cの仮想環境にて生成さ れた仮想画面データを意味するものとする。
図 4に示すように、 サーバコンピュータ S Cの各仮想実行環境 A, B, Cには それぞれ、 仮想画面データ [A] 、 [B] 、 [C] が生成されているものとする 。 各クライアントコンピュータ C C 1、 CC 2、 C C 3およびプロジェクタ 1 0 (以下 「クライアント」 という。 ) は、 ネットワーク回線 NLを介してコマンド を受信する (ステップ S 1 00) 。
図 5に示すように、 各クライアントは、 受信したコマンドの指定アドレスが自 己のネットワークアドレスと符合するか否かを判定し (ステップ S 1 1 0) 、 自 己のネットワークァドレスと符合しないと判定した場合には (ステップ S 1 1 0 : N o) 、 受信したコマンドを無視する (ステップ S 1 30) 。 一方、 各クライ アントは、 受信したコマンドの指定ァドレスが自己のネッ トワークァドレスと符 合すると判定した場合には (ステップ S 1 1 0 : Y e s ) 、 送信されてきた仮想 画面データを表示するために描画処理を実行する (ステップ S 1 20) 。 サーバ コンピュータ S Cから送信されるデータ列は、 例えば、 (指定するネットワーク ア ドレス/仮想画面データ [X] ) の配列を有しており、 クライアントコンビュ ータ CC 1を指定する場合には、 (a, b, c, 1/ [A] ) となる。
次に図 6を参照して各クライアントコンピュータ C Cに表示されている表示画 面をプロジェクタ 1 0に表示する際、 および、 プロジェクタ 1 0に表示されてい 'る画面を消去する際に実行される処理ルーチンについて説明する。 なお、 説明を 簡略化するために、 代表的に、 クライアントコンピュータ CC 1を用いて説明す る。
クライアントコンピュータ CC 1は、 入力装置からのキー入力を検出すると、 そのキー入力情報をサーバコンピュータ S Cへ送信する。
サーバコンピュータ S Cは、 クライアントコンピュータ C C 1からのキー入力 を待機し (ステップ S 20 Q : No) 、 キー入力が発生した場合には (ステップ S 200 ·· Y e s ) 、 そのキー入力が画面エコーをオンするコマンドであるか否 かを判定する (ステップ S 2 1 0) 。 ここで、 「画面エコー」 とはプロジェクタ 1 0によって画像を投写表示させるコマンドを意味する。 サーバコンピュータ S Cは、 キー入力が画面エコーのオンコマンドであると判定した場合には (ステツ プ S 2 1 0 : Y e s ) 、 Echo フラグをオンし (ステップ S 2 20) 画面ェコ一 のオンを指定する (ステップ S 23 0) 。 サーバコンピュータ S Cは、 データ送 出処理を実行し (ステップ S 240) 、 本処理ルーチンを終了する。
—方、 プロジェクタ 1 0によって表示されている表示画面を消去する場合には 、 クライアントコンピュータ CC 1から画面エコーのオフコマンドがキー入力さ れるので、 サーバコンピュータ S Cは、 キー入力が画面エコーのオフコマンドで あると判定し (ステップ S 2 1 0 : N o ) 、 Echo フラグがオンされているか否 かを判定する (ステップ S 2 50) 。 サーバコンピュータ S Cは、 Echo フラグ がオンされていないと判定した場合には (ステップ S 2 50 : No) 、 本処理ル 一チンを終了する。 サーバコンピュータ S Cは、 Echo フラグがオンされている と判定した場合には (ステップ S 2 5 0 : Y e s ) 、 Echo フラグをオフし (ス テツプ S 260) 、 画面エコーのオフを指定する (ステップ S 270) 。 サーバ コンピュータ S Cは、 データ送出処理を実行し (ステップ S 240) 、 本処理ル 一チンを終了する。 データ送出処理の詳細について図 7を参照して説明する。 サーバコンピュータ S Cは、 送信元のクライアントコンピュータ CCのネッ トワークアドレス (端末 ア ドレス) を指定する (ステップ S 24 1 0) 。 サーバコンピュータ S Cは、 送 信元のクライアントコンピュータ CCによって要求された処理、 例えば、 表計算 の実行、 ヮードプロセッサの文字入力処理等を対応する仮想環境上にて実行する (ステップ S 2420) 。 サーバコンピュータ S Cは、 仮想環境にて実行したァ プリケーシヨンの実行結果として得られる画像データである仮想表示画面データ [X] を応答コマンドに付加する (ステップ S 2430) 。 すなわち、 各アプリ ケーシヨンのユーザインターフェースデータ (表示画面上に表示する画面) を応 答コマンドに付加する。
サーバコンピュータ S Cは、 Echo フラグがオンであるか否かを判定し (ステ ップ S 2440 ) 、 Echo フラグがオンされていると判定した場合には (ステツ プ S 2440 : Y e s) 、 目的先ァドレスとして表示画面上の表示画面データを 表示させる目的先のネッ トワークァドレス、 すなわち、 プロジェクタ 10のネッ トワークァドレスを指定して応答コマンドに付加する (ステップ S 2450) 。 なお、 サーバコンピュータ S Cには、 予めプロジェクタ 1 0のネットワークアド レスが登録されているものとする。 あるいは、 ディレク トリサーバ等によってプ ロジェクタ 1 0へのアクセス要求があった場合に自動的に付加するようにしても 良い。 サーバコンピュータ S Cは、 プロジェクタ 1 0によって投写すべき仮想画 面データ [X] を目的先ア ドレスの後ろに付加し (ステップ S 2460) 、 ネッ トワーク回線 NLを介して応答コマンドを送信元クライアントコンピュータ CC およびプロジェクタ 1 0に送出する (ステップ S 24 70) 。
サーバコンピュータ S Cは、 クライアントコンピュータ CC 1からの Echo ォ ンコマンド (図 8の①) に対しては、 図 8中の②にて示す仮想画面データをプロ ジェクタ 1 0および送信元であるクライアントコンピュータ CC 1に送信する。 なお、 図 8には図示されていないが、 図 8の①によって示されるコマンドには、 送信元のネットワークァドレスが含まれており、 サーバコンピュータ S Cはその ネットワークァドレスに基づいて送信元のクライアントコンピュータ CCを識別 する。
プロジヱクタ 1 0は、 サーバコンピュータ S Cから仮想画面データ [A] を受 け取ると、 既述のように AS P端末部 20においてクライアントアプリケーショ ンが起動し、 グラフィックスコントローラ 2 1 0が仮想画面データ [A] に基づ いて映像信号変換回路 3 1 0に送信すべき画像データを生成する。 グラフィック スコントローラ 2 1 0において生成された画像データは、 プロジェクタ部 30の 映像信号変換回路 3 1 0、 LCD駆動回路 3 30を介して投写スクリーン S CR 上に投写される。
サーバコンピュータ s Cは、 Echo フラグがオフされていると判定した場合に は (ステップ S 4 540 : N o) 、 目的先ア ドレス等が付加されていない応答コ マンドをネットワーク回線 NLを介して送信元のクライアントコンピュータ CC に送出する。 すなわち、 サーバコンピュータ S Cは、 クライアントコンピュータ C C 1からの Echo オフコマンド (図 8の③) に対しては、 図 8中の④にて示す 仮想画面データを送信元であるクライアントコンピュータ CC 1に送信する。 な お、 図 8には図示されていないが、 図 8の③によって示されるコマンドには、 送 信元のネットワークァドレスが含まれており、 サーバコンピュータ S Cはそのネ ッ トワークァドレスに基づいて送信元のクライアントコンピュータ C Cを識別す る。
プロジェクタ 1 0は、 サーバコンピュータ S Cから仮想画面データ [A] が送 信されてこない場合、 あるいは、 前回との差分画面データが送信されてこない場 合には、 最後に受け取った仮想画面データに基づく画像データを投写スクリーン S CR上に投写する。 すなわち、 グラフィックスコントローラ 2 1 0の VRAM 2 1 2 (または映像信号変換回路 3 1 0のフレームメモリ) に格納されている描 画済みデータが投写される。 以上説明したように第 3実施例によれば、 S B Cにおいて、 複数台のクライァ ントコンピュータのうちの 1台のクライアントコンビュ "タに表示されている表 示画面をプロジェクタ 1 0によって投写することができる。 したがって、 従来 S B Cでは不可能であった多人数によるクライアントコンピュータの表示画面の共 有を可能にすることができる。 また、 プロジェクタ 1 0は、 シン ' クライアント として機能すればよく、 多くの機能を実現する必要がない。 なお、 本実施例では クライアントコンピュータとして一般的なパーソナルコンピュータを用いた場合 について説明したが、 クライアントコンピュータとして本実施例に係るプロジヱ クタ 1 0を用いても良い。 かかる場合には、 ネットワークを介して複数のプロジ ェクタ 1 0がサーバコンピュータ S Cに対して接続され、 各プロジェクタ 1 0が 、 自身が投写を望む (入力装置を介して投写を指示された) データをサーバコン ピュータ S Cに対して要求する。
( c ) 第 3の適用例としての第 4の実施例:
次に、 第 1実施例に係るプロジェクタ 1 0に対してネットワーク回,線. N Lを介 して遠隔操作する場合の第 3の適用例を示す第 4実施例について図 9を参照して 説明する。 図 9は第 1実施例に係るプロジェクタ 1 0に対してネッ トワーク回線 N Lを介して遠隔操作する場合に実行される処理ルーチンを示すフローチヤ一ト である。 ネッ トワーク回線 N Lには、 サーバコンピュータ、 あるいは、 パーソナ ルコンピュータが接続されており、 これらコンピュータを介して複数のプロジェ クタ 1 0を遠隔操作によって一元管理することができる。
ネッ トワーク回線 N Lを介してコマンドを受信すると、 A S P端末部 2 0の第 1 C P U 2 0 0は、 受信したコマンドがプロジェクタ部 3 0に対するコマンドで あるか否かを判定する (ステップ S 5 0 0 ) 。 すなわち、 受信したコマンドが、 例えば、 光源 3 4 2 (ランプ) オンを指示するランプオンコマンド等のプロジェ クタ 1 0の制御に関連するコマンドであるか否かを判定する。 第 1 C P U 2 0 0 は、 受信したコマンドがプロジェクタ部 3 0に対するコマンドであると判定した 場合には (ステップ S 500 : Y e s ) 、 I /Oポート 230を介してコマンド を第 2 CPU 300に転送する (ステップ S 5 1 0) 。 これに対して、 第 1 CP U 200は、 受信したコマンドがプロジェクタ部 30に対するコマンドでないと 判定した場合には (ステップ S 5 00 : N o) 、 本処理ルーチンを終了し、 第 1 CPU200は、 コマンドに応じた処理を実行する。
第 1 CPU2 00からコマンドを受信した第 2 CPU300は、 コマンドを解 析し (ステップ S 520) 、 受信したコマンドがランプオンコマンドであるか否 かを判定する (ステップ S 5 3 0) 。 第 2 C PU300は、 受信したコマンドが ランプオンコマンドであると判定した場合には (ステップ S 5 30 : Y e s ) 、 光源制御回路 340を介して光源 342をオンする (ステップ S 540) 。
第 2 CPU300は、 受信したコマンドがランプオンコマンドでないと判定し た場合には (ステップ S 5 30 : N o) 、 プロジェクタ部 30の状態データを取 得し (ステップ S 550) 、 予め定められた順序で取得した状態データを配列し 、 ステータス列を生成する (ステップ S 560) 。 プロジェクタ部 30の状態デ ータとは、 例えば、 光源 342の累積使用時間、 冷却ファン 3 5 2の動作状態、 光源 (ランプ) 切れといった、 プロジェクタ機能に関連する状態データを意味す る。 第 2 CPU 300は、 生成したステータス列を第 1 C PU 200に転送する (ステップ S 570) 。
ステータス列を受信した第 1 CPU200は、 受信したステ一タス列を、 ネッ トワーク · インターフェース · コントローラ 220を介して要求先のコンビユー タに送出する (ステップ S 58 0) 。
第 4実施例によれば、 ネットワーク回線 NLを介してコマンド、 並びに、 デー タを受信可能な AS P端末部 20を有する第 1実施例に係るプロジェクタ 1 0を 用いているので、 ネットワーク回線 NLを介してプロジェクタ 1 0を遠隔操作す ることができる。 例えば、 複数台のプロジェクタ 10が配置されている場合であ つても、 状態データを取得することにより、 個々のプロジェクタ 1 0まで出向く ことなく、 個々のプロジェクタ 1 0の状態を把握することができる。 また、 プロ ジェクタ 1 0の側で待機してプロジェクタ 1 0の操作をする必要がなく、 例えば 、 パーソナルコンピュータによってプレゼンテーションデータの操作とプロジェ クタ 1 0の管理を同時に行うこともできる。 なお、 この遠隔操作において説明に 用いた上記コマンドは例示に過ぎず、 このほかにもランプオフコマンド等の様々 なコマンドが用いられ得ることはいうまでもない。
( d ) 第 4の適用例としての第 5の実施例:
次に、 図 1 0〜図 1 5を参照して第 1実施例に係るプロジェクタ 1 0を用いて 、 投写されている画像に対して加筆等を行うマーキング処理を実行する第 4の適 用例としての第 5実施例について説明する。 図 1 0は、 第 5実施例においてマー キング処理を実行するための処理ルーチンを示すフローチャートである。 図 1 1 は第 1 R AM 2 0 4内のメモリマップを概念的に示す説明図である。 図 1 2はマ 一キングデータが入力された場合における V R A M 2 1 2内のメモリマップを概 念的に示す説明図である。 図 1 3はマーキング処理が施されない場合における第 1 R AM 2 0 4内のメモリマップを概念的に示す説明図である。 図 1 4はマーキ ングデータが入力されない場合における V R AM 2 1 2内のメモリマップを概念 的に示す説明図である。 図 1 5はマークアップ · ランゲッジ (M L ) 、 例えばハ ィパー ·テキスト ·マークアップ · ランゲッジ ( H T M L ) を用いて日時データ を関連付ける記述文の一例を示す説明図である。 なお、 本実施例は、 図 1 3およ び図 1 4に示すように、 表示画面に対してマーキング処理を実施せず、 単に表示 画面を外部記憶装置 4 1に格納する場合にも適用することができる。
マーキング処理が開始されると、 図 1 1に示すように、 第 1 C P U 2 0 0は、 グラフィックスコントローラ 2 1 0内の表示画面データを第 1 R AM 2 0 4内の 画面データ格納エリアへ転送する (ステップ S 6 0 0 ) 。 グラフィックスコント ローラ 21 0内に格納されている表示画面データは、 プロジヱクタ部 30を介し て投写表示されている画像に対応するデータである。 第 1 CPU 200は、 グラ フィックスコントローラ 2 1 0に対して VRAM 2 1 2内への描画を禁止するコ マンドを送信し (ステップ S 6 1 0) 、 グラフィックスコントローラ 2 1 0中の L S Iチップによる VRAM 2 1 2への描画処理を禁止する。
第 1 CPU 2 00は、 例えば、 マウス、 タブレットといった外部入力装置 40 を介して入力されたマーキングデータに基づいて、 図 1 1に示すように第 1 RA M204内のインクデータ格納エリアへ描画する (ステップ S 6 20) 。 なお、 単に表示画面を保存する場合には、 第 1 RAM 204内のインクデータ格納エリ ァには、 空のマーキングデータがインクデータとして格納される。 第 1 CPU 2 00は、 第 1 RAM 204内の表示画面データとインクデータの論理和データを グラフィックスコントローラ 2 1 0の VRAM 2 1 2内の画面データ格納エリァ に転送する (ステップ S 6 30) 。 この結果、 マーキング処理を開始する前の表 示画面データにインクデータが付加された画像データ (図 1 2参照) が VRAM 2 1 2の画面格納エリアに格納される。 なお、 第 1 R AM204内のインクデー タ格納ェリァに空のマーキングデータが格納されている場合には、 論理和データ として表示画面データのみが VRAM2 1 2の画面格納ェリァに格納される (図 1 3および図 1 4参照) 。 VRAM2 1 2に格納された画像データは、 例えば、 リアルタイムクロック 26 0から取得した日時データを格納する日時データ格納 エリアと関連付けられる。 VRAM 2 1 2の画面格納エリァに格納された画像デ ータは、 プロジェクタ部 30を介して投写される。 ここで、 「インクデータ」 と は、 マウス等の外部入力装置 40を介して入力されたマーキングデータに対応す る第 1 RAM 204内におけるデータを意味する。
第 1 CPU200は、 マーキング処理が施された表示画面データを保存する保 存コマンドが入力されたか否かを判定し (ステップ S 640) 、 保存コマンドが 入力されたと判定した場合には (ステップ S 640 : Y e s ) 、 第 1 RAM 20 4内の表示画面データとインクデータの論理和データを P CMC I A 'インター フェース . コントローラ 240を介して外部記憶装置 4 1に転送して格納する ( ステップ S 6 5 0) 。 なお、 表示画面を格納する場合には、 第 1 RAM 204内 の表示画面データとインクデータの論理和データとして表示画面データのみが外 部記憶装置 4 1に転送される (図 1 3および図 1 4参照) 。 このとき、 日時デー タ格納エリアに格納されている日時データを同時に転送して、 日時データをファ ィル名として用いても良い。
また、 日時データは、 マークアップ ' ランゲッジ (ML) 、 例えばハイパー · テキスト ·マークアップ · ランゲッジ (HTML) を用いた記述文によって関連 付けられても良い。 例えば、 第 1のデータのファイル名として日時データ (00 0420 1 20 0) を、 第 2のデータのファイル名として日時データ (0004 20 1 20 1) を用いた場合には、 図 1 5に示すような HTML文によって関連 付けることができる。
第 1 C P U 2 00は、 グラフィックスコントローラ 2 1 0の L S Iチップに対 して描画解禁コマンドを送信してグラフィックスコントローラ 2 1 0における描 画を許容する (ステップ S 6 60) 。
第 1 CPUは、 保存コマンドが入力されていないと判定した場合には (ステツ プ S 640 : N o ) 、 グラフィックスコントローラ 2 1 0の L S Iチップに対し て描画解禁コマンドを送信してグラフィックスコントローラ 2 1 0における描画 を許容して (ステップ S 6 60) 、 本処理ルーチンを終了する。
第 5実施例によれば、 AS P端末部 20におけるグラフィックスコントローラ 2 1 0を利用し、 プロジヱクタ部 3 0を介して投写されている表示画面データに 対して外部入力装置 40を介してマーキング処理を実行することができる。 さら に、 マーキング処理を施した表示画面データは、 グラフィックスコントローラ 2 1 0の VRAM2 1 2内に記憶されているので、 マーキング処理を施した表示画 面データを外部記憶装置 4 1に記憶して保存することができる。 また、 表示画面 にマーキング処理が施されていない場合であっても、 表示画面を表示画面データ として外部記憶装置 4 1に記憶することにより、 一旦、 投写表示した表示画面を 再び投写表示する場合に、 再度サーバから表示画面またはファイルを取得する必 要がない。 また、 サーバから取得した表示画面をその都度、 表示画面データに変 換したり、 サーバから取得したファイルを開くためにアプリケーションを起動す る必要がなく、 容易に表示画面データを得ることができる。
( e ) 第 5の適用例としての第 6の実施例:
次に、 図 1 6〜図 2 1を参照して第 1実施例に係るプロジェクタ 1 0を用いて 、 画像データを投写表示している際に、 あるいは、 投写表示終了後に、 次に投写 表示するデータを選択する第 5の適用例と しての第 6実施例について説明する。 図 1 6は第 6実施例においてファイル選択等のコマンドをプロジェクタに送信す るためのリモコンの一例を示す説明図である。 図 1 7は第 6実施例において投写 表示データ選択処理を実行するための処理ルーチンを示すフローチヤ一トである 。 図 1 8は投写表示中に表示されるメニュー画面の一例を示す説明図である。 図 1 9は投写表示中に表示されるファイル選択画面の一例を示す説明図である。 図 2 0は非投写表示時に表示されるメニュー画面の一例を示す説明図である。 図 2 1は非投写表示時に表示されるフアイル選択画面の一例を示す説明図である。 本処理ルーチンにて、 コマンドを送信するリモコン 5 0は、 図 1 6に示すよう に、 予め割り当てられた機能を実行するファンクションキーとして機能する 1〜 5の数字キー 5 1を備えている。 リモコン 5 0はまた、 投写表示された画面 S R 上にてカーソルまたはポィンタ位置を上下左右方向に移動させるためのジョイス ティック 5 2、 メニュー呼び出しキー 5 3、 実行キー 5 4等を備えている。
図 1 7を参照して画像データの投写表示中、 あるいは、 投写表示終了後に、 次 に投写表示するデータを選択する処理について説明する。 第 1 C P U 2 0 0は、 メニュー表示要求の発生を待機し (ステップ S 7 0 0 : N o ) 、 メニュー表示要 求が発生すると (ステップ S 700 : Y e s ) 、 現在、 画像データを投写表示中 であるか否か判定する (ステップ S 7 1 0) 。 なお、 第 1 CPU200は、 リモ コン 5 0のメニュー呼び出しキー 5 3が押し下げられるとメニュー表示要求が発 生 (入力) されたものと判定する。
第 1 CPU 2 00は、 第 2 C PU 300と通信して、 画像データを投写表示中 であると判定した場合には (ステップ S 7 1 0 : Y e s ) 、 第 2 CPU300に 対して、 図 1 8に示すようにプロジェクタ 1 0によって投写表示されている画面 S Rの左下隅にメニュー画面 SW1を表示するよう要求する (ステップ S 7 20 ) 。 第 1 CPU 200は、 メニュー画面 SW1を表示した状態にて、 ファイル選 択要求が発生したか否かを判定する (ステップ S 730) 。 第 1 CPU200は 、 図 1 8に示すメニュー画面 SW1においてリモコン 50のジョイスティック 5 2の操作により 「2. ファイル選択」 のメニューバー MB 1が反転表示された状 態にて、 実行キー 54が押し下げられるとファイル選択要求が発生 (入力) され たものと判定する。
第 1 CPU 2 00は、 ファイル選択要求の発生を判定した場合には (ステップ S 730 : Y e s ) 、 第 2 CPU 300に対して、 図 1 9に示すようにプロジェ クタ 1 0によって投写表示されている画面 S Rの左下隅にファイル選択画面 SW 2を表示するよう要求する (ステップ S 740) 。 一方、 第 1 CPU 200は、 ファイル選択要求の発生を検出しない場合には (ステップ S 730 : No) 、 本 処理ルーチンを終了する。
第 1 CPU 2 00は、 ステップ S 7 1 0にて、 投写表示中でないと判定した場 合には、 第 2 C PU 300に対して、 図 20に示すようにプロジェクタ 1 0によ つて投写表示されている画面 SR全体にメニュー画面を表示するよう要求する ( ステップ S 7 5 0) 。 第 1 CPU 200は、 投写表示画面 S R全体にメニュー画 面を表示した状態にて、 ファイル選択要求が発生したか否かを判定する (ステツ プ S 7 60) 。 第 1 CPU 200は、 図 20に示すメニュー画面においてリモコ ン 50のジョイスティック 52の操作により 「2. ファイル選択」 のメニューバ 一 MB 1が反転表示された状態にて、 実行キー 54が押し下げられるとファイル 選択要求が発生 (入力) されたものと判定する。
第 1 CPU 200は、 ファイル選択要求の発生を判定した場合には (ステップ S 76 0 : Y e s ) 、 第 2 CPU 3 00に対して、 図 2 1に示すようにプロジェ クタ 1 0によって投写表示されている画面 S R全体にファイル選択画面を表示す るよう要求する (ステップ S 7 70) 。 一方、 第 1 C PU200は、 ファイル選 択要求の発生を検出しない場合には (ステップ S 76 0 : N o) 、 本処理ルーチ ンを終了する。
ステップ S 740およびステップ S 7 70の処理に続いて、 第 1 CPU 200 は、 選択されたファイルの再生要求が発生したか否かを判定する (ステップ S 7 8 0) 。 第 1 C PU200は、 図 1 9または図 2 1に示すファイル選択画面にお いてリモコン 5 0のジョイスティック 5 2の操作により所望のファイル、 ここで は 「2. p p t J のメニューバー MB 2が反転表示された状態にて
、 実行キー 54が押し下げられると選択ファイルの再生要求が発生 (入力) され たものと判定する。
第 1 C PU 2 00は、 選択ファイルの再生要求が発生したと判定した場合には (ステップ S 780 : Y e s ) 、 ネットワーク回線 NLを介して選択されたファ ィルの転送をサーバコンピュータ S Cに対して要求する (ステップ S 7 9 0) 。 第 1 CPU 200は、 サーバコンピュータ S Cから取得した選択ファイルを第 1 RAM204または外部記憶装置 4 1に一時的に格納し、 投写表示のタイミング がおとずれたところで既述のように選択ファイルを再生する。 一方、 第 1 CPU 200は、 選択ファイルの再生要求が発生しなかったと判定した場合には (ステ ップ S 78 0 : N o ) 、 本処理ルーチンを終了する。
第 6実施例によれば、 プロジェクタ 1 0の投写表示画面 S Rを介して再生を所 望するファイルを選択することができる。 また、 プロジェクタ 1 0によって画像 データが投写表示中である場合にも、 所望するファイルの選択を実行できるので 、 各ファイルの再生間隔を短縮することができる。 さらに、 画像データが投写表 示中の場合には、 プロジェクタ 1 0の投写表示画面 S Rの左下隅にメニュー画面 S W 1、 ファイル選択画面 S W 2が表示されるので、 投写表示されている画像デ ータの視認性を低下させることなくフアイル選択を実行することができる。 例え ば、 プレゼンテーション時に、 時間上の都合等により再生ファイルの変更を要す る場合にも、 一旦、 プレゼンテーションを終了、 または、 中断させることなく所 望のファイルを選択することができる。
以上、 本実施例おょぴいくつかの適用例に基づき本発明に係るプロジェクタを 説明してきたが、 上記した発明の実施の形態は、 本発明の理解を容易にするため のものであり、 本発明を限定するものではない。 本発明は、 その趣旨並びに特許 請求の範囲を逸脱することなく、 変更、 改良され得ると共に、 本発明にはその等 価物が含まれることはもちろんである。
既述のように、 第 1実施例ではネットワーク端末部に対して A S P端末部 2 0 という名称を用いているが、 プロジェクタ 1 0は必ずしも A S P端末である必要 はない。 例えば、 ネットワークを介してアプリケーションデータ (ファイル) を 受け取り、 ビュヮ一アプリケーションによってファイルを開いてその表示画面を 投写してもよい。 かかる場合には、 プロジェクタ 1 0側でファイル形式を判断し て自動的に最適なビュヮ一を起動してもよく、 あるいは、 サーバからプロジェク タ 1 0に対してファイルと共に適切なビュヮ一を起動させる起動コマンドを同時 に供給してもよい。
第 1の実施例では、 A S P端末部 2 0およびプロジェクタ部 3 0にそれぞれ C P U、 R AM、 R O Mを備えているが、 A S P端末部 2 0にのみ備えるようにし てもよい。 かかる場合には、 A S P端末部 2 0における C P Uがプロジェクタ部 3 0の制御を実行する。
また、 第 1実施例では、 プロジェクタ部 3 0において、 外部映像信号入力端子 3 1 2、 および外部音声信号入力端子 3 2 2が備えられているが、 ネットワーク 接続専用プロジェクタとする場合には、 省略してもよレ、。 かかる場合にはネット ワーク回線 N Lを介して、 画像データ、 音声データが供給されるからである。 第 1実施例では、 種々のィンターフェース · コントローラが備えられているが 、 ネットワーク 'ィンターフェース ' コントローラ 2 2 0を除いて、 適宜省略可 能であることはいうまでもない。
第 6実施例では、 画像データが投写表示中の場合には、 プロジェクタ 1 0の投 写表示画面 S Rの左下隅にメニュー画面 S W 1、 ファイル選択画面 S W 2を表示 させるが、 単なる例示に過ぎず、 投写表示画面 S R上の任意の領域に表示させる ことができる。 また、 投写表示中の画像デ一タを考慮して、 文字、 表、 グラフ等 が表示されていない領域を自動的に検出して、 かかる領域に表示させるようにし ても良い。
第 6実施例において用いた投写表示画面 S Rは、 例示に過ぎず、 様々な形態に て投写表示画面を実現することができる。 例えば、 投写表示画面 S Rの下端に再 生を予定しているファイルのショートカツトアイコンを並べ、 ショートカツトァ イコンが選択 ·実行された場合に、 対応するファイルをネットワーク回線 N Lを 介してサーバコンピュータ S Cから取得するようにしても良い。

Claims

請求の範囲
1 . ネットワークに接続可能なプロジェクタであって、
前記ネットワークとの間でデータを送受信するためのネットワーク接続部と、 前記ネットワーク接続部を介して受信したデータに基づいて表示すベき画像デ 一タを生成する画像データ生成部と、
前記生成された画像データを投写表示する投写表示部とを備えるプロジェクタ
2 . 請求の範囲第 1項に記載のプロジヱクタにおいて、
前記画像データ生成部が受信するデータは画面データであり、 前記画像データ 生成部は、 クライアントアプリケーションを実行して前記画面デ一タに基づいて 前記画像データを生成することを特徴とするプロジヱクタ。
3 . 請求の範囲第 1項に記載のプロジヱクタにおいて、
前記画像データ生成部は、 ビュヮ一アプリケーションを実行して前記受信した データに基づいて前記画像データを生成することを特徴とするプロジェクタ。
4 . 請求の範囲第 1項に記載のプロジェクタにおいて、
前記画像データ生成部は、 前記受信したデータのデータフォーマツトを識別し 、 識別したデータフォーマツトに適したアプリケーションを実行して前記画像デ ータを生成することを特徴とするプロジェクタ。
5 . 請求の範囲第 1項に記載のプロジヱクタはさらに、
前記ネットワーク接続部を介して受信したデータに基づいて再生すべき音声デ 一タを生成する再生音声データ生成部と、
前記生成された再生音声データを出力する音声データ再生部とを備えることを 特徴とするプロジェクタ。
6 . 請求の範囲第 5項に記載のプロジェクタにおいて、 前記データは動画データ と動画データに関連付けられた音声データを含むマルチメディアデータであり、 前記画像データ生成部は、 前記ネットワーク接続部を介して受信した動画デー タに基づいて表示すべき画像データを生成し、
前記音声データ再生部は、 前記ネットワーク接続部を介して受信した動画デー タに関連付けられた音声データに基づいて、 前記生成された画像データと関連付 けて再生音声データを生成することを特徴とするプロジェクタ。
7 . 請求の範囲第 1項ないし第 6項のいずれかに記載のプロジェクタはさらに、 外部入力部からの入力信号を受け取る外部入力信号受信部を有することを特徴 とするプロジェクタ。
8 . 請求の範囲第 7項に記載のプロジェクタはさらに、
他のプロジェクタと自身とをユニークに識別するための識別子を有し、 前記外部入力部は前記識別子を選択するための識別子選択部を有し、 複数のプ ロジェクタの中から所望する一のプロジェクタに対してユニークに入力可能であ ることを特徴とするプロジ-クタ。
9 . 請求の範囲第 7項または第 8項に記載のプロジェクタにおいて、
前記外部入力部は、 前記外部入力信号受信部に対して無線によって入力信号を 送信することを特徴とするプロジヱクタ。
1 0 . 請求の範囲第 7項ないし第 9項のいずれかに記載のプロジェクタはさらに 前記画像データの投写表示中および投写表示終了後の少なくともいずれか一方 において、 前記外部入力部を介して、 次に前記ネットワークを介して受信するデ ータを決定するためのデータ決定部を備えることを特徴とするプロジェクタ。
1 1 . 請求の範囲第 1項ないし第 1 0項のいずれかに記載のプロジェクタにおい て、
前記投写表示部は、 電気光学データ出力部、 その電気光学データ出力部に光を 照射する光源、 その光源により投写された映像を拡大するレンズとを有すること を特徴とするプロジェクタ。
1 2 . 請求の範囲第 1項ないし第 1 1項のいずれかに記載のプロジェクタはさら に、
投写表示されている画像を画像データに変換する画像データ変換部と、 前記変換された画像データを保存する記憶装置とを備えることを特徴とするプ ロジェクタ。
1 3 . 請求の範囲第 1 2項に記載のプロジェクタはさらに、
前記画像データに対して、 前記画像データが変換された日時および保存された 時のいずれか一方の日時を付加する日時付加部を備えることを特徴とするプロ ジェクタ。
1 4 . 請求の範囲第 1 3項に記載のプロジェクタはさらに、
投写表示されている画像に装飾処理を施すための装飾部を備え、
前記画像データ変換部は、 前記装飾処理の施された画像を装飾画像データに変 換し、
前記日時付加部は、 前記装飾処理が施された日時および前記装飾画像データが 保存された日時のいずれか一方の日時を付加することを特徴とするプロジェクタ
1 5 . 請求の範囲第 1 3項に記載のプロジェクタはさらに、
複数の前記画像データをマークアップ ' ランゲッジ (M L ) フォーマットで記 述された関連付けデータにより関連付ける画像データ関連付け部を備えることを 特徴とするプロジェクタ。
1 6 . 請求の範囲第 1 5項に記載のプロジェクタにおいて、
前記画像データ関連付け部は、 前記画像データが変換された日時および保存さ れた日時のいずれか一方の日時順にて複数の前記画像デ一タを関連づけることを 特徴とするプロジェクタ。
1 7 . 請求の範囲第 1 6項に記載のプロジェクタにおいて、
前記投写表示部は、 前記保存されている前記画像データを読み出して投写表示 することを特徴とするプロジェクタ。
1 8 · 請求の範囲第 1 4項に記載のプロジェクタはさらに、
複数の前記画像データおよび前記装飾画像データをマークアップ · ランゲッジ (M L ) フォーマツトで記述された関連付けデータにより関連付ける画像データ 関連付け部を備えることを特徴とするプロジェクタ。
1 9 . 請求の範囲第 1 5項に記載のプロジェクタにおいて、
前記画像データ関連付け部は、 前記装飾画像データについては前記装飾が施さ れた日時および前記装飾画像データが保存された日時のいずれか一方を用い、 前 記装飾画像データ以外の前記画像データについては、 前記画像データが変換され た日時および保存された日時のいずれか一方を用いて、 日時順にて複数の前記装 飾画像データおよぴ前記画像データを関連付けることを特徴とするプロジェクタ
2 0 . 請求の範囲第 1 9項に記載のプロジェクタにおいて、
前記投写表示部は、 前記保存されている前記装飾画像データおよび画像データ の少なくとも一方を読み出して投写表示することを特徴とするプロジェクタ。
2 1 . 請求の範囲第 1 2項ないし第 2 0項のいずれかに記載のプロジェクタにお いて、 前記ネットワークには記憶装置が接続されており、
前記装飾画像データは前記ネットワークに接続されている記憶装置に保存され ることを特徴とするプロジェクタ。
2 2 . 請求の範囲第 1項ないし第 2 1項のいずれかに記載のプロジェクタにおい て、 前記プロジェクタは、 アプリケーション 'サービス ♦プロバイダ (A S P ) に対応した端末装置として機能し得ることを特徴とするプロジェクタ。
2 3 . サーバにて実行された演算結果をネットワーク上に接続されている複数の プロジェクタを介して表示する表示システムであって、
前記サーバは、
前記各プロジェクタ毎に用意されていると共に前記各プロジェクタからの要 求に基づいて演算処理を実行し、 表示画面データを生成する表示画面データ生成 手段と、
前記演算処理を要求した前記プロジヱクタに対して、 前記生成した表示画面 データを送信するための表示画面データ送信手段を備え、
前記プロジェクタは、 前記ネットワークを介して前記サーバに対して前記演算処理の要求を送信す ると共に前記サーバから送信された前記表示画面データを受信するための送受信 手段と、
前記受信された表示画面データに基づいて表示すべき画像データを生成する 画像データ生成手段と、
前記生成された画像データを投写表示する投写表示手段とを備える 表示システム。
2 4 . 請求の範囲第 2 3項に記載の表示システムにおいて、
前記サーバの前記表示画面データ生成手段が生成する表示画面データは、 専用 フォーマツトを有すると共に前回の表示画面データと今回の表示画面データの差 分データであり、
前記プロジェクタの前記画像データ生成手段はクライアントアプリケーション を使用して前記表示画面データに基づいて前記画像データを生成することを特徴 とする表示システム。
2 5 . 請求の範囲第 2 3項または第 2 4項に記載の表示システムにおいて、 前記プロジェクタは、 アプリケーション .サービス .プロバイダ (A S P ) に 対応したプロジェクタであることを特徴とする表示システム。
2 6 . ネットワークに接続されているプロジェクタを介して画像を表示する方法 であって、
前記ネットワークに接続されているサーバにおいては
クライアントの要求に基づいてアプリケーションを実行し、
前記ネットワークを介して前記アプリケーションの実行結果として得られるュ ーザィンターフェースデ タを前記要求したクライアントおよび前記プロジェク タに送信し、
前記プロジェクタにおいては
前記送信されたユーザインターフ ースデータを受信し、
前記受信したユーザィンターフヱースデータに基づいて表示すべき画像データ を生成し、
前記生成した画像データを投写表示する方法。
2 7 . 請求の範囲第 2 6項に記載の方法において、
前記クライアントはプロジェクタであることを特徴とする方法。
2 8 . ネットワークに接続されているプロジェクタを介して静止画データ、 動画 データ、 音声データを含むマルチメディァデータを表示する方法であって、 前記ネットワークに接続されているサーバにおいては
クライアントの要求に基づいて要求された前記マルチメディァデータを前記要 求したクライアントおよび前記プロジェクタに送信し、
前記プロジェクタにおいては
前記送信されたマルチメディアデータを受信し、
前記受信したマルチメディアデータの再生に適切なアプリケーションを起動し 前記起動したアプリケーションを介して前記マルチメディアデータを再生し、 前記再生されたマルチメディァデータのうち再生静止画データまたは再生動画 データを投写表示し、
前記再生されたマルチメディアデータのうち再生音声データを出力する方法。
2 9 . 請求の範囲第 2 8項に記載の方法において、
前記クライアントはプロジヱクタであることを特徴とする方法。
PCT/JP2001/004628 2000-05-31 2001-05-31 Projecteur WO2001093583A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001588245A JP4186465B2 (ja) 2000-05-31 2001-05-31 プロジェクタ
US10/031,744 US7266772B2 (en) 2000-05-31 2001-05-31 Projector connected to a network, a display system, and a method for displaying images and/or image data via a projector connected to a network
EP01934475A EP1289298A4 (en) 2000-05-31 2001-05-31 PROJECTOR

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000161859 2000-05-31
JP2000-161859 2000-05-31
JP2000230905 2000-07-31
JP2000-230905 2000-07-31

Publications (1)

Publication Number Publication Date
WO2001093583A1 true WO2001093583A1 (fr) 2001-12-06

Family

ID=26593006

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/004628 WO2001093583A1 (fr) 2000-05-31 2001-05-31 Projecteur

Country Status (5)

Country Link
US (1) US7266772B2 (ja)
EP (1) EP1289298A4 (ja)
JP (1) JP4186465B2 (ja)
CN (1) CN1174621C (ja)
WO (1) WO2001093583A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198994A (ja) * 2001-12-25 2003-07-11 Seiko Epson Corp プロジェクタの制御システム及び制御方法
JP2006053313A (ja) * 2004-08-11 2006-02-23 Sharp Corp 撮影機能付き映像投射装置およびそれを用いたデータ管理システム
US7817156B2 (en) 2004-06-11 2010-10-19 Seiko Epson Corporation Image transfer using drawing command hooking
JP2013179646A (ja) * 2004-12-24 2013-09-09 Dap Realize:Kk 携帯情報通信装置
US8564501B2 (en) 2004-03-31 2013-10-22 Seiko Epson Corporation Image display system
US9033523B2 (en) 2012-01-06 2015-05-19 Ricoh Company, Ltd. Image output apparatus, method, and medium
JP2022008782A (ja) * 2020-06-28 2022-01-14 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド デバイスデバッグ環境の構築方法及び装置

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030117343A1 (en) * 2001-12-14 2003-06-26 Kling Ralph M. Mobile computer with an integrated micro projection display
US6957232B2 (en) * 2002-04-05 2005-10-18 Infocus Corporation Projector control markup language
US7663605B2 (en) 2003-01-08 2010-02-16 Autodesk, Inc. Biomechanical user interface elements for pen-based computers
CN100478938C (zh) * 2003-06-02 2009-04-15 富可视公司 图像捕捉方法、系统和装置
JP4176603B2 (ja) * 2003-09-24 2008-11-05 株式会社東芝 画像表示装置、画像表示システム、画像表示装置選択方法及びプログラム
EP1695201A1 (en) * 2003-12-12 2006-08-30 Koninklijke Philips Electronics N.V. Method and system for providing projector images
US20080109751A1 (en) * 2003-12-31 2008-05-08 Alias Systems Corp. Layer editor system for a pen-based computer
JP2005208823A (ja) * 2004-01-21 2005-08-04 Seiko Epson Corp プロジェクタのネットワークシステム
EP1557811A1 (de) * 2004-01-23 2005-07-27 Siemens Schweiz AG Übertragungseinrichtung zur drahtlosen Ankopplung eines Bildgerätes an einen Rechner
JP4214942B2 (ja) * 2004-04-13 2009-01-28 セイコーエプソン株式会社 プロジェクタ
KR101046586B1 (ko) * 2004-05-28 2011-07-06 삼성전자주식회사 디스플레이장치와 이를 이용한 디스플레이 시스템
US20060168661A1 (en) * 2005-01-25 2006-07-27 Kisley Richard V Apparatus and method to implement data management protocols using a projector
JP4626416B2 (ja) * 2005-06-20 2011-02-09 セイコーエプソン株式会社 プロジェクタ
JP4466507B2 (ja) * 2005-08-17 2010-05-26 セイコーエプソン株式会社 画像表示システム,画像表示方法および画像データ処理装置
CN101281353B (zh) * 2007-04-05 2010-06-16 深圳华强三洋技术设计有限公司 投影机及其网卡冷却方法
US20080303748A1 (en) * 2007-06-06 2008-12-11 Microsoft Corporation Remote viewing and multi-user participation for projections
JP4518181B2 (ja) * 2008-04-17 2010-08-04 セイコーエプソン株式会社 画像送信装置、表示システム、画像送信プログラム及び記録媒体
JP5075032B2 (ja) 2008-06-30 2012-11-14 キヤノン株式会社 通信装置及び通信方法
US20100205631A1 (en) * 2009-02-06 2010-08-12 Rien Heald Screen text messaging
KR101510723B1 (ko) * 2009-04-20 2015-04-20 삼성전자주식회사 프로젝터를 구비한 휴대 단말기 및 그 휴대 단말기에서 데이터 표시 방법
US8231233B2 (en) * 2009-06-17 2012-07-31 Motorola Mobility, Inc. Portable electronic device and method of power management for same to accommodate projector operation
US8909704B2 (en) 2010-04-29 2014-12-09 Cisco Technology, Inc. Network-attached display device as an attendee in an online collaborative computing session
CN102486602A (zh) * 2010-12-02 2012-06-06 长沙赛科电子科技有限公司 一种网络投影机
US9250768B2 (en) * 2012-02-13 2016-02-02 Samsung Electronics Co., Ltd. Tablet having user interface
US9013454B2 (en) 2012-03-02 2015-04-21 Ricoh Co., Ltd. Associating strokes with documents based on the document image
JP6286915B2 (ja) * 2013-08-05 2018-03-07 株式会社リコー 情報処理装置、プログラム及び画像表示システム
CN105898257B (zh) * 2016-06-28 2017-10-31 广景视睿科技(深圳)有限公司 一种可移动的投影广告装置及其投影广告方法
KR102445006B1 (ko) 2017-05-29 2022-09-19 미쓰비시덴키 가부시키가이샤 무선 송전 장치 및 공중 이동체로의 송전 시스템
CN110795053B (zh) * 2018-08-01 2023-07-18 昆山纬绩资通有限公司 计算机屏幕局部投影方法与系统
JP7394386B2 (ja) * 2020-03-30 2023-12-08 パナソニックIpマネジメント株式会社 プロジェクタおよび画像投影方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05173490A (ja) 1991-12-20 1993-07-13 Mitsubishi Electric Corp 表示装置
JPH05181770A (ja) * 1991-12-26 1993-07-23 Sony Corp 制御システム
JPH05249931A (ja) * 1992-02-14 1993-09-28 Nec Corp プロジェクタ装置
JPH07264527A (ja) * 1994-03-17 1995-10-13 Hitachi Ltd 液晶プロジェクタ
JPH1175145A (ja) * 1997-08-29 1999-03-16 Mitsubishi Electric Corp ビデオプロジェクター制御装置
JP2000023150A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp プロジェクタにおける画像データの再生方法及びプロジェクタ
JP2000023148A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp ネットワーク・プロジェクタ・システムにおける画像データの再生方法及びネットワーク・プロジェクタ・システム
JP2000023149A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp プロジェクタにおける画像データの再生方法及びプロジェクタ

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08265579A (ja) 1995-03-20 1996-10-11 Canon Inc ファクシミリ装置
US5658063A (en) * 1995-11-02 1997-08-19 Texas Instruments Incorporated Monitorless video projection system
JPH09244828A (ja) 1996-03-07 1997-09-19 Ricoh Co Ltd プリンタのセキュリティシステム
US6005534A (en) * 1996-04-26 1999-12-21 Dahlgren, Hylin & Jonason Media Ab Digital information system
US5668566A (en) 1996-10-11 1997-09-16 Yen; Kerl Wireless computer picture transmission device
US5956487A (en) * 1996-10-25 1999-09-21 Hewlett-Packard Company Embedding web access mechanism in an appliance for user interface functions including a web server and web browser
JPH10336375A (ja) 1997-05-29 1998-12-18 Ricoh Co Ltd 複合端末装置
US5924013A (en) * 1997-09-03 1999-07-13 Guido; Mary M. Method and apparatus for transmitting motion picture cinematic information for viewing in movie theaters and ordering method therefor
US6785814B1 (en) * 1998-07-28 2004-08-31 Fuji Photo Film Co., Ltd Information embedding method and apparatus
US6615239B1 (en) * 1998-12-16 2003-09-02 International Business Machines Corporation Automatic presentation exchanger
US6760045B1 (en) * 2000-02-22 2004-07-06 Gateway, Inc. Simultaneous projected presentation of client browser display
US6981041B2 (en) * 2000-04-13 2005-12-27 Aep Networks, Inc. Apparatus and accompanying methods for providing, through a centralized server site, an integrated virtual office environment, remotely accessible via a network-connected web browser, with remote network monitoring and management capabilities
US6489934B1 (en) * 2000-07-07 2002-12-03 Judah Klausner Cellular phone with built in optical projector for display of data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05173490A (ja) 1991-12-20 1993-07-13 Mitsubishi Electric Corp 表示装置
JPH05181770A (ja) * 1991-12-26 1993-07-23 Sony Corp 制御システム
JPH05249931A (ja) * 1992-02-14 1993-09-28 Nec Corp プロジェクタ装置
JPH07264527A (ja) * 1994-03-17 1995-10-13 Hitachi Ltd 液晶プロジェクタ
JPH1175145A (ja) * 1997-08-29 1999-03-16 Mitsubishi Electric Corp ビデオプロジェクター制御装置
JP2000023150A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp プロジェクタにおける画像データの再生方法及びプロジェクタ
JP2000023148A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp ネットワーク・プロジェクタ・システムにおける画像データの再生方法及びネットワーク・プロジェクタ・システム
JP2000023149A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp プロジェクタにおける画像データの再生方法及びプロジェクタ

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SAMPATH-KUMAR S. ET AL.: "WebPresent - a World Wide Web based telepresentation tool for physicians", PROCEEDINGS OF THE SPIE, SPIE, vol. 3031, 23 February 1997 (1997-02-23), pages 490 - 499
See also references of EP1289298A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198994A (ja) * 2001-12-25 2003-07-11 Seiko Epson Corp プロジェクタの制御システム及び制御方法
US8564501B2 (en) 2004-03-31 2013-10-22 Seiko Epson Corporation Image display system
US7817156B2 (en) 2004-06-11 2010-10-19 Seiko Epson Corporation Image transfer using drawing command hooking
US8416249B2 (en) 2004-06-11 2013-04-09 Seiko Epson Corporation Image transfer using drawing command hooking
JP2006053313A (ja) * 2004-08-11 2006-02-23 Sharp Corp 撮影機能付き映像投射装置およびそれを用いたデータ管理システム
JP2013179646A (ja) * 2004-12-24 2013-09-09 Dap Realize:Kk 携帯情報通信装置
US9033523B2 (en) 2012-01-06 2015-05-19 Ricoh Company, Ltd. Image output apparatus, method, and medium
US9307210B2 (en) 2012-01-06 2016-04-05 Ricoh Company, Ltd. Image output apparatus, method, and medium
JP2022008782A (ja) * 2020-06-28 2022-01-14 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド デバイスデバッグ環境の構築方法及び装置

Also Published As

Publication number Publication date
EP1289298A1 (en) 2003-03-05
CN1386374A (zh) 2002-12-18
US7266772B2 (en) 2007-09-04
JP4186465B2 (ja) 2008-11-26
EP1289298A4 (en) 2006-09-20
US20020122158A1 (en) 2002-09-05
CN1174621C (zh) 2004-11-03

Similar Documents

Publication Publication Date Title
WO2001093583A1 (fr) Projecteur
US8156437B2 (en) Creation of image designating file and reproduction of image using same
JP3382118B2 (ja) 情報機器、情報機器システム制御方法及び情報機器システム
US7434166B2 (en) Wireless presentation system
US20060109272A1 (en) Electronic presentation system
WO2001092953A1 (fr) Projecteur, systeme et procede d'affichage de projection, et support d'enregistrement
JP2004151769A (ja) 印刷システムの制御方法
WO2005022377A1 (en) Method and system to display media content data
JP2002532920A (ja) 電子機器の遠隔制御方法
JP5173475B2 (ja) リモートコントローラ装置、その制御方法及びプログラム
JP2004139386A (ja) 印刷システムの制御方法
KR102428934B1 (ko) 디스플레이 장치, 사용자 단말 장치, 시스템 및 그 제어 방법
US6728765B2 (en) Information device, information device system control method, and information device system
JP2007306088A (ja) 制御装置及び制御方法
JP2005538638A (ja) ワイヤレス投影システム
JP2005505205A (ja) オーディオ及び/又はビジュアルのシステム、方法及びコンポーネント
JP2009182436A (ja) プロジェクタ、画像投影システムおよびプログラム
JP2003332972A (ja) 携帯端末装置
CN113784198A (zh) 显示设备、智能设备及节目录制控制方法
JP5472569B2 (ja) 投写システム
CN113992963A (zh) 一种显示设备及投屏方法
WO2024109129A1 (zh) 电子设备及数据处理方法
JPH11143634A (ja) リモコン装置
JP2002175254A (ja) プレゼンテーションシステム及び方法
JP2002223430A (ja) コンテンツ表示装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 10031744

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001934475

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 01802243X

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2001934475

Country of ref document: EP