DE69432199T2 - Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen - Google Patents
Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen Download PDFInfo
- Publication number
- DE69432199T2 DE69432199T2 DE69432199T DE69432199T DE69432199T2 DE 69432199 T2 DE69432199 T2 DE 69432199T2 DE 69432199 T DE69432199 T DE 69432199T DE 69432199 T DE69432199 T DE 69432199T DE 69432199 T2 DE69432199 T2 DE 69432199T2
- Authority
- DE
- Germany
- Prior art keywords
- user
- portal
- user interface
- room
- remote
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 134
- 230000006870 function Effects 0.000 claims description 24
- 230000033001 locomotion Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000009877 rendering Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 23
- 230000009471 action Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 12
- 230000032258 transport Effects 0.000 description 11
- 239000003086 colorant Substances 0.000 description 10
- 230000003993 interaction Effects 0.000 description 8
- 235000013399 edible fruits Nutrition 0.000 description 7
- 230000005057 finger movement Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000004091 panning Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000003466 anti-cipated effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000029305 taxis Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/465—Distributed object oriented systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/14—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03J—TUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
- H03J1/00—Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general
- H03J1/0008—Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general using a central processing unit, e.g. a microprocessor
- H03J1/0025—Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general using a central processing unit, e.g. a microprocessor in a remote control unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/06—Receivers
- H04B1/16—Circuits
- H04B1/20—Circuits for coupling gramophone pick-up, recorder output, or microphone to receiver
- H04B1/202—Circuits for coupling gramophone pick-up, recorder output, or microphone to receiver by remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
- H04L12/282—Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/75—Indicating network or usage conditions on the user display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/40—Network security protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4113—PC
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
- H04N21/41265—The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4131—Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4314—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43622—Interfacing an external recording device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47214—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for content reservation or setting reminders; for requesting event notification, e.g. of sport results or stock market
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4821—End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
- H04N21/8586—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17318—Direct or substantially direct transmission and handling of requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03J—TUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
- H03J2200/00—Indexing scheme relating to tuning resonant circuits and selecting resonant circuits
- H03J2200/25—Remote control device with display
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03J—TUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
- H03J2200/00—Indexing scheme relating to tuning resonant circuits and selecting resonant circuits
- H03J2200/25—Remote control device with display
- H03J2200/26—Remote control device with touch screen display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2807—Exchanging configuration information on appliance services in a home automation network
- H04L12/2809—Exchanging configuration information on appliance services in a home automation network indicating that an appliance service is present in a home automation network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
- H04L12/2818—Controlling appliance services of a home automation network by calling their functionalities from a device located outside both the home and the home network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L2012/284—Home automation networks characterised by the type of medium used
- H04L2012/2841—Wireless
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/30—Definitions, standards or architectural aspects of layered protocol stacks
- H04L69/32—Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
- H04L69/322—Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions
- H04L69/329—Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions in the application layer [OSI layer 7]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72415—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S715/00—Data processing: presentation processing of document, operator interface processing, and screen saver display processing
- Y10S715/977—Dynamic icon, e.g. animated or live action
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Business, Economics & Management (AREA)
- Automation & Control Theory (AREA)
- Marketing (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- User Interface Of Digital Computer (AREA)
- Computer And Data Communications (AREA)
- Digital Computer Display Output (AREA)
- Processing Or Creating Images (AREA)
Description
- HINTERGRUND DER ERFINDUNG
- 1. Gebiet der Erfindung
- Die vorliegende Erfindung bezieht sich auf das Gebiet der grafischen Benutzerschnittstellen für Computersysteme und insbesondere auf ein Verfahren und eine Einrichtung zur Bereitstellung einer intuitiven Methodik für einen Anwender, um entfernte Einrichtungen mit einer computergesteuerten objektorientierten Benutzerschnittstelle unter Verwendung animierter grafischer Bilder zu steuern.
- 2. Technischer Hintergrund
- Die meisten populären grafischen Benutzerschnittstellen, die heute verfügbar sind, wie beispielsweise die grafischen Benutzerschnittstellen Xerox Star®, Apple Macintosh® und Microsoft Windows, basieren auf der „Schreibtisch-Metapher" bzw. „Desktop Metaphor". In einem Schreibtisch-Metapher-System wird der Anzeigebildschirm als ein virtueller Schreibtisch behandelt. Grafische Symbole, die auf dem virtuellen Schreibtisch (d. h. dem Anzeigebildschirm) angeordnet sind, werden zur Darstellung allgemein bekannter Objekte verwendet, die in einem Büroumfeld zu finden sind, wie beispielsweise Dateien, Dateiordner und Drucker. Diese Schreibtisch-Metapher-Systeme weisen verschiedene Beschränkungen auf, die die Effektivität der Mensch-Maschine-Schnittstelle zwischen dem menschlichen Anwender und dem Computersystem beeinträchtigen.
- Ein Problem bei den vorhandenen auf der Schreibtisch-Metapher basierenden grafischen Benutzerschnittstellen ist die Verwendung eines hierarchischen Dateisystems. Die meisten grafischen Benutzerschnittstellen mit Schreibtisch-Metapher basieren auf einem Computer mit einem Dateisystem, in welchem die Computerdateien in einer hierarchischen Struktur organisiert sind. Die Struktur des hierarchischen Dateisy stems weist ein Wurzelverzeichnis und mehrere Unterverzeichnisse in dem Wurzelverzeichnis auf. Jedes Unterverzeichnis kann Unter-Unterverzeichnisse haben und so weiter. Die Struktur des hierarchischen Dateisystems wird auf dem Bildschirm als eine Art von Wurzel-Dateischrank mit Dateiordnern darin grafisch dargestellt. Die Betriebssysteme Microsoft Windows und Apple Macintosh® verwenden beide hierarchische Dateisysteme, die als Dateiordner dargestellt werden.
- Die hierarchische Struktur von Dateiordnern ist für neue Benutzer häufig sehr verwirrend. Beispielsweise können sich viele Benutzer verirren, während sie durch die hierarchischen Dateisysteme navigieren, weil das System der Aufbewahrung von Dateien in Dateiordnern, welche sich in anderen Dateiordnern befinden, die bis zu einer beliebigen Tiefe ineinander angeordnet sind, von der Natur der Sache her verwirrend ist. Benutzer verirren sich, weil jeder Dateiordner aussieht wie jeder andere Dateiordner, und der Benutzer erhält wenig Rückmeldung über seinen Standort innerhalb der Hierarchie des Dateisystems. Ebenso liefert kein Dateiordner Informationen über seinen Inhalt, außer einer benutzerdefinierten Beschriftung. Beispielsweise ist, mit Ausnahme einer kurzen Text-Beschriftung, welche von einem anderen Benutzer definiert worden sein kann, der Benutzer im Allgemeinen nicht in der Lage, zu bestimmen, ob ein geöffneter Ordner ein Buchhaltungs-Dateiordner mit Tabellenkalkulationsdaten oder ein Datenbank-Dateiordner mit einer Kundendatenbank ist. Daher ist das Navigieren durch die komplexe Dateisystemhierarchie schwierig, da die aktuelle grafische Benutzerschnittstelle mit Schreibtisch-Metapher wenig Rückmeldung hinsichtlich des Standorts eines Benutzers innerhalb der Dateihierarchie bietet.
- Bei aktuellen auf der Schreibtisch-Metapher basierenden grafischen Benutzerschnittstellensystemen passen bestimmte Anwendungen häufig konzeptionell nicht gut in eine Schreibtisch-Metapher-Umgebung. Insbesondere nicht-bürobezogene An wendungen können für ein auf der Schreibtisch-Metapher basierendes System ungeeignet sein. Beispielsweise müßte in einer Schreibtisch-Metapher eine Anwendung, die ein Fernsehgerät steuert, in einem „Dokument"-Dateiordner auf dem Desktop plaziert werden.
- Ein weiteres allgemeines Problem mit Schreibtisch-Metapher-Benutzerschnittstellen besteht darin, daß die Anzeige einer großen Anzahl von Anwendungen auf dem Desktop zu einem überhäuften Desktop führt. Viele Benutzer von Schreibtisch-Metapher-Systemen bewahren eine große Zahl von Anwendungen und Dateien, üblicherweise in Icon-Form, auf dem Anzeigebildschirm. Ein Versuch wurde unternommen, eine grafische Darstellung zu verwenden, die die Art der Anwendung oder Datei identifiziert. Wenn jedoch ein Benutzer eine bestimmte Anwendung oder Datei öffnen möchte, muß der Benutzer den Anzeigebildschirm durchsuchen, um das gewünschte Icon zu finden, gerade so, als wenn der Benutzer versuchen würde, eine bestimmte Dokumentenakte auf einem unordentlichen Schreibtisch zu finden. Icons, die auf einem Desktop plaziert sind, haben keine erkennbare Hierarchie und sind alle gleich. Diese Gleichheit kann einen Benutzer verwirren und Probleme verursachen, wenn der Benutzer von einer Task bzw. Aufgabe zur nächsten wechseln möchte.
- Verschiedene Systeme sind zur Verbesserung der Organisation der grafischen Benutzerschnittstelle mit Schreibtisch-Metapher entstanden. Ein System ist das Konzept der „Räume". Siehe Patrick Chan, „Learning Considerations in User Interface Design: The Room Model", Bericht CS-84-16, Universität Waterloo, Abteilung Computerwissenschaften, Ontario, Kanada, Juli 1984; Brenda Laurel, „Computers as Theatre", Addison-Wesley Publishing Co., 1991; Brenda Laurel, "The Art of Human-Computer Interface Design", Addison-Wesley Publishing Co., 1990; US-Patent 5,072,412, Henderson, Jr. et. al; "User Interface with Multiple Workspaces for Sharing Display System Objects", und die hierin zitierten Referenzen.
- In Systemen, die auf dem Räume-Konzept basieren, erzeugt der Benutzer verschiedene Räume, wo der Benutzer eine einzelne Aufgabe oder eine Gruppe zusammenhängender Aufgaben ausführt. Jeder Raum repräsentiert einen individuellen virtuellen Schreibtisch mit einer Gruppe zugehöriger Aufgaben. Jeder Raum erhält eine Beschriftung, die den Raum mit dessen Funktionen identifiziert. Ein Benutzer kann beispielsweise einen Postraum, einen Schreibraum mit einem Textverarbeitungssystem und einen Buchhaltungsraum mit einer Tabellenkalkulation erzeugen. Jeder Raum hat nur solche Icons und Fenster, die mit der bestimmten Aufgabe des Raums verbunden sind, sowie alle Fenster, die von allen Räumen benutzt werden, wie beispielsweise eine Uhr.
- Um zwischen den Aufgaben in einem System zu wechseln, das das Räume-Konzept verwendet, bewegt sich ein Benutzer zu den verschiedenen Räumen, die mit den verschiedenen Aufgaben verbunden sind. Beispielweise bewegt sich ein Benutzer vom Buchhaltungsraum zum Postraum, um von einer Tabellenkalkulation zum Abrufen einer E-Mail zu gehen. Um sich zwischen den beiden Räumen zu bewegen, wählt ein Benutzer ein Icon aus, das eine Tür repräsentiert, die den aktuellen Raum mit dem anderen Raum verbindet. Benutzer können Türen zwischen allen verfügbaren Räumen erzeugen.
- Obwohl das Räume-Konzept zur Lösung des Problems des „überhäuften Desktop" beiträgt, basiert das Räume-Konzept noch auf der allgemeinen Schreibtisch-Metapher. Beispielsweise trägt das Räume-Schnittstellenkonzept nicht zur Vereinfachung der verwirrenden hierarchischen Dateistruktur bei, die zum Speichern der Informationen verwendet wird. Das Räume-Konzept bewirkt auch wenig bei der Lösung der Form- und Funktion-Widersprüchlichkeiten, die sichtbar sind, wenn Anwendungen, die nicht in die Schreibtisch-Metapher hineinpassen, zu dem System hinzugefügt werden.
- Bei dem Stand der Technik entsprechenden grafischen Benutzerschnittstellen muß jedes Mal, wenn ein neues Hardwareteil in das System eingeführt wird, ebenfalls ein neues Steuersoftwareteil vom Benutzer hinzugefügt werden. Wenn beispielsweise ein Benutzer von Apple®, Macintosh® oder ein Benutzer von Microsoft® Windows den Wunsch hat, einen neuen Drucker zu dem System hinzuzufügen, muß der Benutzer ebenfalls einen neuen Druckertreiber installieren, um den hinzugefügten Drucker zu steuern. Daher muß jedes Mal, wenn ein Benutzer den Wunsch hat, ein neues Gerät zu dem System hinzuzufügen, der Benutzer auch ein kompliziertes Verfahren befolgen, um die entsprechende Software hinzuzufügen.
- Wie beschrieben werden wird, stellt die vorliegende Erfindung eine verbesserte grafische Benutzerschnittstelle bereit, die verschiedene Probleme, die mit den Schreibtisch-Metapher-Systemen verbunden sind, überwindet. Es werden ebenfalls ein Verfahren und eine Einrichtung offenbart, um eine Benutzerschnittstelle einer entfernten Einrichtung zu erhalten, ohne daß der Benutzer die damit verbundene Software laden muß. Die entfernte Einrichtung kann gesteuert werden, indem die Benutzerschnittstelle der entfernten Einrichtung verwendet wird, wie auf dem Anzeigebildschirm der vorliegenden Erfindung angezeigt wird. Obwohl die Benutzerschnittstelle unter Bezugnahme auf die Steuerung entfernter Einrichtungen beschrieben wird, wird aus der folgenden Erörterung klar werden, daß die Benutzerschnittstelle auf eine Vielzahl von Anwendungen in Computer-Arbeitstationen, tragbaren Computern und Handsteuerungssystemen angewendet werden kann.
- Weitere Bespiele für verschiedene dem Stand der Technik entsprechende Anordnungen sind in EP-a-0439873 (IBM et. al) und IBM Technical Disclosure Bulletin, Bd. 36, Nr. 4, April 1993, New York, USA, Seiten 215-216, XP002012167, „Animated Command Execution Icon" beschrieben.
- ZUSAMMENFASSENDE DARSTELLUNG DER ERFINDUNG
- Die vorliegende Erfindung stellt eine intuitive grafische Benutzerschnittstelle und ein Verfahren zur Steuerung entfernter Einrichtungen bereit, wie es in den beigefügten Ansprüchen dargelegt wird.
- Die grafische Benutzerschnittstelle wird auf einer Handanzeigeeinrichtung angezeigt. Die Handanzeigeeinrichtung umfaßt wenigstens eine zentrale Verarbeitungseinheit (CPU), die mit einem grafischen Anzeigesystem gekoppelt ist. Das grafische Anzeigesystem ist berührungsempfindlich, um dem Benutzer zu gestatten, Informationen unter Verwendung einer Fingerspitze - ohne die Notwendigkeit zusätzlicher Eingabeeinrichtungen, wie beispielweise eine Tastatur - einzugeben. Eine Kommunikationsschaltung ist ebenfalls mit der CPU gekoppelt, die Informationen über ein Kommunikationsmedium überträgt. Die Kommunikationsschaltung wird verwendet, um entfernten Einrichtungen zu steuern und mit diesen zu kommunizieren.
- Die grafische Benutzerschnittstelle erzeugt eine Welt von Räumen, die in einer Struktur einer geographischen Karte organisiert sind, durch welche man problemlos navigieren kann, da jeder Raum bekannte geographische Umgebungen bereitstellt. Jeder Raum wird von einem Hintergrundbild repräsentiert, welches Navigations-Orientierungspunkte bereitstellt, die identifizieren, wo der Raum innerhalb der geographischen Kartenstruktur angeordnet ist. Beispielsweise enthält das Hintergrund eines Wohnzimmer-Raums Elemente, die üblicherweise in einem Wohnzimmer zu finden sind, wie beispielsweise eine Lampe, einen Stuhl und einen Tisch. Daher wird die Navigation durch diese „Welt" vereinfacht, weil der Benutzer sich orientieren kann, indem er sich umsieht und die Umgebung überprüft, genau so, wie es eine Person in der realen Welt tun würde.
- In jedem Raum stellt die Benutzerschnittstelle grafische Objekte bereit, die vom Benutzer ausgewählt und bearbeitet werden können. Die grafischen Objekte werden als animierte Karikatur-ähnliche grafische Objekte wiedergegeben, die problemlos als Objekte der realen Welt identifizierbar sind, wie beispielsweise ein Fernseher und VCRs. Es gibt mindestens drei Arten von Objekten, die in den Räumen der Benutzerschnittstelle existieren: Datenobjekte, Schaltflächen und Portale. Datenobjekte sind Objekte, die mit einer bestimmten Datenangabe verbunden sind. Schaltflächen sind Objekte, die mit einer bestimmten Funktion oder Aktion verbunden sind; wenn ein Benutzer eine Schaltfläche auswählt, führt die Benutzerschnittstelle die mit der Schaltfläche verbundene Funktion oder Aktion aus. Portale sind Objekte, die in einem ersten Raum angezeigt werden, aber mit einem zweiten Raum verknüpft sind; wenn ein Benutzer ein Portal auswählt, geht der Benutzer durch das Portal und bewegt sich in den zweiten mit diesem Portal verknüpften Raum. Die Benutzerumgebung wird ferner durch die Verwendung eines Klangs erweitert, der mit jeder Benutzeraktion koordiniert wird und die bereitgestellte visuelle Rückmeldung ergänzt.
- Um entfernte Einrichtungen der realen Welt zu steuern, sind viele der grafischen Objekte, die auf dem Bildschirm präsentiert werden, entfernten Einrichtungen der realen Welt zugeordnet. Um eine entfernte Einrichtung der realen Welt zu steuern, wählt ein Benutzer das grafische auf dem Anzeigebildschirm bildlich dargestellte Objekt aus, das der bestimmten entfernten Einrichtung zugeordnet ist. Nachdem der Benutzer ein grafisches Objekt ausgewählt hat, das der entfernten Einrichtung zugeordnet ist, zeigt die Handanzeigeeinrichtung eine Benutzerschnittstelle für das Steuern der entfernten Einrichtung an. Der Benutzer kann dann mit der Benutzerschnittstelle der entfernten Einrichtung interagieren. Um die entfernte Einrichtung zu steuern, ruft die vorliegende Erfindung ein Einrichtungstreiberverfahren für die entfernte Einrichtung auf. Das Geräte- bzw. Einrichtungstreiberverfahren kann in Abhängigkeit von der technischen Perfektion der entfernten Einrichtung in der entfernten Einrichtung oder in der lokalen Handanzeigeeinrichtung angeordnet sein.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
- Die Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden für einen Fachmann in Anbetracht der folgenden detaillierten Beschreibung deutlich werden, in welcher:
-
1a einen Überblick über die Fernsteuerungsfunktionalität darstellt, die die vorliegende Erfindung bereitstellt; -
1b einen Überblick über die Hardware darstellt, die zur Implementierung der Handanzeigeeinrichtung der vorliegenden Erfindung verwendet wird; -
1c eine Blockdarstellung einer intelligenten entfernten Einrichtung darstellt, die von der vorliegenden Erfindung gesteuert wird; -
1d eine Blockdarstellung einer einfachen entfernten Einrichtung darstellt, die von der vorliegenden Erfindung gesteuert wird; -
1a eine Blockdarstellung einer herkömmlichen elektronischen Einrichtung darstellt, die von der vorliegenden Erfindung ferngesteuert wird; -
2a eine Struktur verschiedener geographischer Räume darstellt; -
2b–2c ein Muster einer geographischen Kartenstruktur der Räume darstellen, die zur Breitstellung einer Benutzerschnittstelle verwendet wird; -
3 eine Ansicht des Weltraum-Raums der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in2b und2c darstellt; -
4 eine erste Ansicht des Erdoberflächen-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in2b und2c darstellt; -
5 eine zweite Ansicht des Erdoberflächen-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in2b und2c darstellt; -
6 eine Ansicht des Ersten-Haus-Raums der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in2b und2c darstellt; -
7 eine Ansicht eines Wohnzimmer-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in2b und2c darstellt; -
8 eine Ansicht eines Fernseh-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in2b und2c darstellt; -
9 eine Ansicht eines Fernsehprogramm-Listenverzeichnis-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in2b und2c darstellt; -
10 eine Ansicht eines Ein- bzw. Einzel-Fernsehprogramm-Beschreibungs-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in2b und2c darstellt; -
11 eine konzeptionelle Ansicht des Fernsehprogramm-Listenverzeichnis-Raums aus9 darstellt;12 eine Ansicht einer Mehrzahl von Objekten darstellt, die nicht auf eine einzelne Bildschirmanzeige passen; -
13 eine konzeptionelle Ansicht einer Mehrzahl von Objekten darstellt, die auf einem Objektrad plaziert sind; -
14 eine konzeptionelle Ansicht des Objektrads aus13 darstellt, wo das Objektrad rotiert hat und neue Objekte zeigt; -
15 die schnelle Drehgeste darstellt, die angewendet wird, um ein Objektrad schnell zu drehen; -
16a eine Aufnehmen-Geste darstellt, die angewendet wird, um ein Objekt von einem Objektrad aufzunehmen; -
16b eine Aufnehmen-Geste darstellt, die angewendet wird, um ein Objekt aus einem Raum aufzunehmen; -
17a das Assistenten-Portal der vorliegenden Erfindung darstellt, wobei die Kleidung eines Arztes getragen wird, um einen Diagnostik-Modus zu symbolisieren; -
17b das Assistenten-Portal der vorliegenden Erfindung darstellt, wobei ein Bleistift gehalten wird, um einen Schreib-Modus zu symbolisieren; -
17c das Assistenten-Portal der vorliegenden Erfindung darstellt, wobei versucht wird, den Benutzer wegen eines kürzlich eingetretenen Ereignisses zu alarmieren; -
18a eine intelligente Einrichtung darstellt, die ihre grafische Benutzerschnittstelle an eine Anzeigeeinrichtung übermittelt; -
18b eine Anzeigeeinrichtung darstellt, die die grafische Benutzerschnittstelle einer intelligenten steuerbaren Einrichtung anzeigt; -
18c die Anzeigeeinrichtung darstellt, die die Benutzerinteraktionen mit der Benutzerschnittstelle an die intelligente Einrichtung übermittelt; -
18d die intelligente Einrichtung darstellt, die Rückgabewerte oder eine Rückmeldung an die Anzeigeeinrichtung übermittelt; -
19a ein konzeptionelles Diagramm der Programmobjekte in der intelligenten Einrichtung darstellt, die an die Anzeigeeinrichtung gesendet werden; -
19b ein konzeptionelles Diagramm der Programmobjekte der intelligenten Einrichtung in der Anzeigeeinrichtung darstellt; -
19c ein konzeptionelles Diagramm der Anzeigeeinrichtung darstellt, die ein Verfahren in einem Objekt in der entfernten intelligenten Einrichtung aufruft; -
19d ein konzeptionelles Diagramm des Verfahrens in einem Objekt in dem Rückgabestatus der entfernten intelligenten Einrichtung darstellt; -
20 ein Flußdiagramm der Übertragung der Benutzerschnittstelle einer intelligenten Einrichtung darstellt;21a ein Zustandsdiagramm des RPC-Managers für einen Client, der einen Aufruf eines fernen Verfahrens verlangt, darstellt; -
21b ein Zustandsdiagramm des RPC-Managers für einen Server, der einen Aufruf eines fernen Verfahrens behandelt, darstellt; -
21c die Abfolge eines Aufrufs eines fernen Verfahrens darstellt; -
22a die einfache Einrichtung darstellt, die ihre grafische Benutzerschnittstelle an eine Anzeigeeinrichtung überträgt; -
22b eine Anzeigeeinrichtung darstellt, die die grafische Benutzerschnittstelle der einfachen steuerbaren Einrichtung anzeigt; -
22c die Anzeigeeinrichtung darstellt, die einfache Steuercodes an die einfache Einrichtung übermittelt; -
22d die einfache Einrichtung darstellt, die Rückgabewerte oder eine Rückmeldung an die Anzeigeeinrichtung übermittelt; -
23a ein konzeptionelles Diagramm der Programmobjekte in einer einfachen Einrichtung darstellt, die an die Anzeigeeinrichtung gesendet werden; -
23b ein konzeptionelles Diagramm der Programmobjekte der einfachen Einrichtung in der Anzeigeeinrichtung darstellt; -
23c ein konzeptionelles Diagramm der Anzeigeeinrichtung darstellt, die ein Verfahren in einem Programmobjekt aufruft und Steuercodes an die einfache Einrichtung übermittelt; -
23d ein konzeptionelles Diagramm der entfernten einfachen Einrichtung darstellt, die Statusinformationen zurückgibt; -
24 ein Flußdiagramm der Übertragung der Benutzerschnittstelle einer einfachen Einrichtung darstellt. - BEZEICHNUNG UND TERMINOLOGIE
- Die folgenden ausführlichen Beschreibungen werden in großem Umfang anhand von Anzeigebildern, Algorithmen und symbolischen Darstellungen der Operationen von Datenbits in einem Computerspeicher präsentiert. Diese algorithmischen Beschreibungen und Darstellungen sind die Mittel, die von den Fachleuten in der Datenverarbeitungstechnik verwendet werden, um das Wesen ihrer Arbeit am effektivsten an andere Fachleute zu übermitteln.
- Ein Algorithmus wird hier und allgemein als eine logische Abfolge von Schritten verstanden, die zu einem gewünschten Ergebnis führen. Diese Schritte sind diejenigen, die physikalische Manipulationen physikalischer Größen erfordern. Normalerweise, obwohl nicht notwendigerweise, nehmen diese Größen die Form elektrischer oder magnetischer Signale an, die gespeichert, übermittelt, kombiniert, verglichen, selektiert, ausgewählt, modifiziert und anderweitig verarbeitet werden können. Es erweist sich mitunter als zweckmäßig, hauptsächlich aus Gründen der allgemeinen Verwendung, diese Signale als Bits, Werte, Elemente, Symbole, Zeichen, Bilder, Begriffe, Zahlen oder dergleichen zu bezeichnen. Es sei jedoch angemerkt, daß alle diese sowie ähnliche Begriffe mit den geeigneten physikalischen Größen zu verknüpfen sind, und nur zweckmäßige Bezeichnungen sind, die diesen Größen zugeordnet werden.
- In dem vorliegenden Fall sind die Operationen Maschinenoperationen, die in Verbindung mit einem menschlichen Anwender ausgeführt werden. Zu den verwendbaren Maschi nen zur Ausführung der Operationen der vorliegenden Erfindung gehören digitale Mehrzweck-Computer oder andere ähnliche Einrichtungen. In allen Fällen sollte der Unterschied zwischen den Verfahrensoperationen der Bedienung eines Computers und dem Verfahren der Berechnung selbst beachtet werden. Die vorliegende Erfindung bezieht sich auf Verfahrensschritte für die Bedienung eines Computers und die Verarbeitung elektrischer oder anderer physikalischer Signale, um andere gewünschte physikalische Signale zu erzeugen.
- Die vorliegende Erfindung bezieht sich auch auf eine Einrichtung zur Ausführung dieser Operationen. Diese Einrichtung kann speziell für den erforderlichen Zweck konstruiert sein, oder kann einen Mehrzweck-Computer aufweisen, der gezielt durch ein im Computer gespeichertes Computerprogramm aktiviert oder rekonfiguriert wird. Die hierin dargestellten Algorithmen sind per se nicht auf einen speziellen Computer oder eine spezielle andere Einrichtung bezogen. Insbesondere können verschiedene Mehrzweck-Maschinen mit Programmen gemäß den hierin enthaltenen Lehren verwendet werden, oder es kann sich als zweckmäßiger erweisen, eine speziellere Einrichtung zu konstruieren, um die erforderlichen Verfahrensschritte auszuführen. Die erforderliche Struktur für eine Vielzahl dieser Maschinen wird aus der weiter unten gegebenen Beschreibung deutlich. Zu den Maschinen, die die Funktionen der vorliegenden Erfindung ausführen können, gehören die von dem Zessionar, FirstPerson, Inc., hergestellten Maschinen, sowie die anderer Hersteller von Computersystemen, einschließlich Sun Microsystems, Inc., Mountain View, Kalifornien.
- CODIERUNGSDETAILS
- Für die Ausführung der verschiedenen hierin beschriebenen Verfahren ist keine bestimmte Programmiersprache angegeben worden. Dies ist teilweise durch die Tatsache begründet, daß nicht alle Sprachen, die genannt werden könnten, universell verfügbar sind. Jeder Benutzer eines bestimmten Computers wird eine Sprache kennen, die für seinen unmittelbaren Zweck am besten geeignet ist. In der Praxis hat es sich als vorteilhaft erwiesen, die vorliegende Erfindung im Wesentlichen in einer höheren Sprache zu implementieren, welche dann in einen maschinen-ausführbaren Objektcode kompiliert wird. Da die Computer- und Monitorsysteme, welche bei der Ausführung der aktuellen Erfindung verwendet werden können, aus vielen verschiedenen Elementen bestehen, ist keine detaillierte Programmauflistung bereitgestellt worden. Es wird davon ausgegangen, daß die Operationen und anderen Prozeduren bzw. Verfahren, die hierin beschrieben und in den zugehörigen Zeichnungen dargestellt werden, ausreichend offenbart worden sind, um einem Fachmann zu gestatten, die aktuelle Erfindung auszuführen.
- DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
- Es wird ein computerbasiertes Fernsteuerungssystem mit einer intuitiven grafischen Benutzerschnittstelle offenbart. In der folgenden Beschreibung wird für Zwecke der Erläuterung eine spezifische Terminologie dargelegt, um ein umfassendes Verständnis der vorliegenden Erfindung zu gewährleisten. Es wird jedoch für einen Fachmann offensichtlich sein, daß diese spezifischen Details nicht erforderlich sind, um die vorliegende Erfindung auszuführen. In anderen Fällen werden bekannte Schaltungen, Funktionen, Prozesse und Einrichtungen in Form von Blockdarstellungen und konzeptionellen Diagrammen gezeigt, um die vorliegende Erfindung nicht unnötigerweise zu verschleiern.
- Systemüberblick
-
1a stellt einen Überblick über das computerbasierte Fernsteuerungssystem der vorliegenden Erfindung dar. Die Hauptkomponenten der vorliegenden Erfindung bestehen aus einer Handanzeigeeinrichtung170 , wie in1a dargestellt. In dem vorliegenden Ausführungsbeispiel umfaßt die Handanzeigeeinrichtung170 ein Computersystem mit einer Farbgrafik-Berührungsbildschirmanzeige. Die Handanzeigeeinrichtung170 ist ausgelegt, um jede beliebige kompatible, entfernte Einrichtung zu steuern, wie beispielsweise ein Thermostat150 , einen Videokassettenrecorder39 und ein Stereosystem152 . Die Handanzeigeeinrichtung170 kommuniziert mit den entfernten Einrichtungen unter Verwendung eines Kommunikationsmediums160 . - Das Fernsteuerungssystem der vorliegenden Erfindung, wie in
1a dargestellt, unterscheidet sich wesentlich von den dem Stand der Technik entsprechenden Fernsteuerungssystemen, da es auf modularer objekt-orientierter Software basiert. Die objekt-orientierte Software stellt Eigenschaften bereit, die vorher in dem Stand der Technik entsprechenden Fernsteuerungssystemen nicht verfügbar waren. Wenn beispielsweise ein Anwender (hierin manchmal als „Benutzer" bezeichnet) zu dem System eine neue kompatible, entfernte Einrichtung, wie beispielsweise Thermostat150 , hinzufügt, übermittelt die neue entfernte Einrichtung Informationen über sich selbst an die Handanzeigeeinrichtung170 . Die übermittelten Informationen beinhalten ein Benutzerschnittstellenobjekt, das verwendet werden kann, um eine grafische Benutzerschnittstelle für die entfernte Einrichtung wiederzugeben. Die vorliegende Erfindung verwendet das Benutzerschnittstellenobjekt, um eine grafische Benutzerschnittstelle für die neue entfernte Einrichtung auf der Handanzeigeeinrichtung170 anzuzeigen. Die übermittelten Informationen können ebenfalls ein Einrichtungstreiberobjekt beinhal ten, das verwendet wird, um die neue entfernte Einrichtung zu steuern. Um alle verfügbaren Benutzerschnittstellenobjekte zu organisieren, erzeugt die Handanzeigeeinrichtung170 eine „Welt" geographischer Räume, durch welche man unter Verwendung eines Satzes von Gesten problemlos navigieren kann. - Diese Patentbeschreibung wird zuerst die Hardware offenbaren, die benötigt wird, um die Handanzeigeeinrichtung
170 und die kompatiblen entfernten Einrichtungen der vorliegenden Erfindung zu konstruieren. Die geographische Räume und Objekte aufweisende grafische Benutzerschnittstelle, welche auf der Handanzeigeeinrichtung170 angezeigt wird, wird dann beschrieben. Ein Satz von Gesten, der von den Anwendern verwendet wird, um rund um die Benutzerschnittstelle der vorliegenden Erfindung zu navigieren, wird ebenfalls definiert. Um die Benutzerschnittstellenelemente zu kombinieren, wird eine Reise durch ein Ausführungsbeispiel der Benutzerschnittstelle der vorliegenden Erfindung unternommen, um zu erläutern, wie die Navigationsgesten verwendet werden, um mit den auf der Handanzeigeeinrichtung170 angezeigten Objekten zu interagieren. Schließlich wird das System zum Gewinnen von Informationen von den entfernten Einrichtungen definiert, so daß die Handanzeigeeinrichtung170 mit den entfernten externen Einrichtungen kommunizieren und diese steuern kann. - Aufgrund der Beschränkungen einer schriftlichen Patentbeschreibung hinsichtlich der Beschreibung animierter Ereignisse auf einer Schnittstelle, wird der Leser auf ein Videoband mit dem Titel „Green Project User Interface" hingewiesen, das vom Anmelder zusammen mit dem Einreichen der Anmeldung, auf welcher dieses Patent basiert, vorgelegt wurde. Zusätzlich muß auch angemerkt werden, daß die Eigenschaften der vorliegenden Erfindung in den begleitenden Zeichnungen in schwarzweiß dargestellt werden. Jedoch in dem gegenwärtig bevorzugten Ausführungsbeispiel, und wie unten beschrieben, werden Objekte und Eigenschaften in Farbe angezeigt.
- Hardware-Konfiguration
- Die Handanzeigeeinrichtung
170 der vorliegenden Erfindung weist ein Computersystem auf, wie beispielweise das, das in1b dargestellt wird. Das Computersystem170 von1b enthält eine zentrale Verarbeitungseinheit (CPU)30 , eine Speichereinheit33 und eine Eingabe/Ausgabe (I/O)-Einheit34 . Diese Elemente sind diejenigen, die üblicherweise in den meisten Mehrzweck-Computern zu finden sind, und in der Tat ist es beabsichtigt, daß das Handcomputersystems170 für eine ausgedehnte Kategorie von Datenverarbeitungseinrichtungen repräsentativ ist, die in der Lage sind, Grafikanzeigen zu erzeugen. - Mit der Eingabe/Ausgabe(I/O)-Einheit
34 von Computersystem170 ist eine Farbgrafikbildschirmanzeige37 gekoppelt. Die Bildschirmanzeige37 weist teilweise eine Farbrasterbildschirmeinrichtung auf, wie beispielsweise, einen Kathodenstrahlröhren(CRT)-Monitor oder eine Flüssigkristallanzeige (LCD). Die Bildschirmanzeige37 muß über eine ausreichende Auflösung derart verfügen, daß die Bildschirmanzeige37 Grafikbilder wiedergeben kann. - In dem bevorzugten Ausführungsbeispiel weist die Bildschirmanzeige
37 ferner ein Berührungsbildschirmanzeigesystem auf. Die Berührungsbildschirmanzeige beinhaltet ein Merkmal bzw. eine Eigenschaft, die das Vorhandensein eines Fingers, der den Anzeigebildschirm37 berührt, erfassen kann. Ferner kann der Berührungsbildschirm den genauen Ort identifizieren, an dem der Finger den Anzeigebildschirm37 berührt, so daß der Anzeigebildschirm Fingergesten erfassen kann, die vom Finger eines Benutzers auf dem Anzeigebildschirm37 ausgeführt werden. Die Berührungsbildschirmanzeige37 kann einen aus einer Vielzahl von berührungsempfindlichen Anzeigebildschirmen aufweisen, die auf dem Markt handelsüblich sind. - Alternativ kann das Handcomputersystem
170 mit einem herkömmlichen grafischen Anzeigesystem ohne einen berührungsempfindlichen Anzeigeschirm konstruiert werden. Ein derartiges System benötigt ein alternatives Eingabesystem, um die Interaktionen des Benutzers zu erhalten.1b stellt eine alternative Eingabeeinrichtung42 dar. Obwohl die Benutzerschnittstelle der vorliegenden Erfindung mit alternativen Eingabeeinrichtungen42 , wie beispielsweise Mäusen, Trackballs und Joysticks, verwendet werden kann, wird das System in dieser Patentbeschreibung als das bevorzugte Ausführungsbeispiel mit einer Berührungsbildschirmanzeige37 beschrieben. - Im Betrieb erzeugt die CPU
30 durch die Ausführung des Computercodes, der im Speicher33 gespeichert ist, eine grafische Benutzerschnittstelle und zeigt diese auf der Berührungsbildschirmanzeige37 an. Der im Speicher33 gespeicherte Computercode wird hierin nicht offenbart, da die Beschreibung der vorliegenden Erfindung in dieser Patentbeschreibung für einen Fachmann in der Computertechnik ausreichend ist, um die Lehren der Erfindung in einer Vielzahl von Computersystemen unter Verwendung einer der vielen Computersprachen anzuwenden. - Eine externe Kommunikationsschaltung
35 ist mit der Eingabe/Ausgabe(I/O)-Einheit34 von Computersystem170 , in1b , gekoppelt. Die externe Kommunikationsschaltung35 stellt ein System für das Senden und Empfangen von Informationen an das und von dem Handcomputersystem170 bereit. Die vorliegende Erfindung verwendet die externe Kommunikationsschaltung35 im Computersystem170 , um mit entfernten Geräten, wie beispielsweise einem Videokassettenrecorder39 und einem Thermostaten150 , über ein Kommunikationsmedium160 zu kommunizieren. Die Kommunikationsschaltung35 kann eine der vielen bekannten Kommunikationstechnologien, wie beispiels weise Funkwellen, leistungsarme, mobile, infrarote Signale oder Datensignale, die auf den vorhandenen Stromleitungen transportiert werden, verwenden. - Um von der vorliegenden Handanzeigeeinrichtung
170 der vorliegenden Erfindung gesteuert zu werden, muß eine entfernte Einrichtung wenigstens über ein Verfahren für das Empfangen von Informationen, die von der Handanzeigeeinrichtung170 gesendet werden, verfügen. Idealerweise sind die entfernten Einrichtungen intelligente Einrichtungen, die Informationen sowohl senden als auch empfangen können. Die Handanzeigeeinrichtung170 kann jedoch jede beliebige entfernte Einrichtung steuern, die einem der folgenden drei „Typen" entfernter Einrichtungen entspricht:
Der erste Typ einer entfernten Einrichtung, die von der vorliegenden Erfindung gesteuert werden kann, ist eine „intelligente entfernte Einrichtung", die speziell konzipiert wurde, um mit der Handanzeigeeinrichtung170 zu arbeiten. In der vorliegenden Erfindung ist eine „intelligente entfernte Einrichtung" als eine entfernte Einrichtung definiert, die einen Mikroprozessor, ein Kommunikationssystem und einen Speicher enthält.1c stellt eine Blockdarstellung der Komponenten in einer intelligenten entfernten Einrichtung150 bereit. Wie in1c dargestellt, umfaßt die intelligente entfernte Einrichtung150 eine CPU403 , einen Speicher404 , eine Kommunikationsschaltung401 und eine Einrichtungssteuerschaltung405 . - Die Handanzeigeeinrichtung
170 der vorliegenden Erfindung kommuniziert mit einer intelligenten entfernten Einrichtung150 über die Kommunikationsschaltung401 der intelligenten entfernten Einrichtung. Der Speicher404 speichert Programme und Daten, die von der CPU403 verwendet werden, einschließlich eines Benutzerschnittstellenobjekts303 und eines Einrichtungstreiberobjekts301 . Die CPU403 in der intelligenten entfernten Einrichtung ruft Verfahren in dem Einrichtungstreiberobjekt301 auf, um die entfernte Einrichtung zu steuern. - Der zweite Typ einer entfernten Einrichtung, die von der vorliegenden Erfindung gesteuert werden kann, ist eine „einfache entfernte Einrichtung", die speziell konzipiert wurde, um mit der Handanzeigeeinrichtung
170 zu arbeiten. In der vorliegenden Erfindung wird eine entfernte Einrichtung als eine „einfache entfernte Einrichtung" definiert, wenn die entfernte Einrichtung keinen Mikroprozessor aufweist, oder die entfernte Einrichtung einen solchen primitiven Prozessor aufweist, daß die Handanzeigeeinrichtung170 keine Verfahren in einem Einrichtungstreiberobjekt innerhalb der entfernten Einrichtung aufrufen kann. -
1d stellt ein Blockdarstellung der Komponenten in einer typischen einfachen entfernten Einrichtung155 bereit. Wie in1d dargestellt, umfaßt die einfache entfernte Einrichtung155 einen Sender420 , einen Empfänger421 , einen Speicher424 und eine Einrichtungssteuerschaltung425 . Der Emitter420 in der einfachen entfernten Einrichtung155 wird verwendet, um den Inhalt des Speichers424 an die Handanzeigeeinrichtung170 zu senden. Daher sendet die einfache entfernte Einrichtung155 sowohl das Benutzerschnittstellenobjekt353 als auch das Einrichtungstreiberobjekt351 in dem Speicher424 in der Weise, daß die Handanzeigeeinrichtung beide Objekte empfängt. - Um die einfache entfernte Einrichtung
155 zu steuern, ruft die Anzeigeeinrichtung170 ein Verfahren in dem Einrichtungstreiberobjekt351 auf, um die Interaktionen des Benutzers in einfache vordefinierte Steuercodes zu übersetzen. Die Anzeigeeinrichtung170 sendet dann die einfachen vordefinierten Steuercodes an die einfache entfernte Einrichtung155 , welche die Steuercodes über Empfänger421 empfängt und die Informationen an die Einrichtungssteuerschaltung425 leitet. - Schließlich ist der dritte Typ einer entfernten Einrichtung, die von der vorliegenden Erfindung gesteuert werden kann, eine herkömmliche elektronische Einrichtung, die von gesendeten Signalen, wie beispielsweise Infrarotsignalen, gesteuert werden kann. Daher ist die vorliegende Erfindung mit den meisten existierenden Einrichtungen, die ferngesteuert werden können, abwärtskompatibel.
1e stellt eine typische elektronische Einrichtung157 dar, die von codierten Signalen gesteuert werden kann. Die Einrichtung hat einen Empfänger450 für das Empfangen gesendeter codierter Steuersignale und eine Einrichtungssteuerschaltung455 für das Antworten auf die codierten Steuersignale. Die Handanzeigeeinrichtung170 steuert die elektronische Einrichtung157 durch Senden codierter Steuersignale. Die entfernte elektronische Einrichtung157 empfängt die gesendeten Signale und antwortet entsprechend. - Die Anzeigeinrichtungsbenutzerschnittstelle
- Um ein neues Produkt zu erzeugen, das einfach im Gebrauch ist, versuchen Produktdesigner das neue Produkt so zu gestalten, daß es in einer ähnlichen Weise wie ein altes Produkt funktioniert, von dem der vorgesehene Anwender bereits weiß, wie es zu bedienen ist. Beispielsweise sind Tonbandkassettenrecorder seit einer so langen Zeit erhältlich, daß die meisten Menschen wissen, wie ein Tonbandkassettenrecorder zu verwenden ist. Daher sind die Wiedergabe-, Stop-, Rückspulen-, Vorspulen- und Aufnahme-Tasten auf Kassettenrecordern den meisten Menschen bekannt. Die Hersteller von Videokassettenrecordern stellten einfach zu verwendende Videokassettenrecorder her, indem sie sich dieses allgemein bekannte Wissen zunutze machten. Die Videokassettenrecorder sind einfach zu verwenden, da bei den Videokassettenrecordern dieselben Tasten – d. h. die Wiedergabe-, Stop-, Rückspulen-, Vorspulen- und Aufnahme-Tasten – verwendet werden, die für die Bedienung von Tonbandkassettenrecordern verwendet werden.
- Um eine Handanzeigeeinrichtung
170 einfach im Gebrauch zu machen, zeigt die vorliegende Erfindung eine intuitive grafische Benutzerschnittstelle auf der Handanzeigeeinrichtung170 an. Dieser Abschnitt definiert die grafische Benutzerschnittstelle, welche für Benutzer auf einer Handanzeigeeinrichtung170 bereitgestellt wird. - Um eine grafische Benutzerschnittstelle zu entwerfen, die einfach zu navigieren ist, sollten Designer die grafische Benutzerschnittstelle mit einer Struktur organisieren, die die meisten Benutzer bereits verstehen. Menschen leben in einer dreidimensionalen geographischen Welt. Um in unserer dreidimensionalen geographischen Welt zu überleben, müssen die Menschen lernen, wie man in dem lokalen geographischen Gebiet, einschließlich solcher geographischen Räume wie ihr Haus, ihre Nachbarschaft und ihre Stadt, navigiert. Um dies zu tun, erzeugt jede Person eine mentale Karte der geographischen Räume ihrer relevanten lokalen Welt.
- Die mentalen Karten der geographischen Räume, die die Menschen erzeugen, sind de facto geographische Kartenstrukturen.
2a stellt eine typische geographische Kartenstruktur dar. Beispielsweise weiß jeder Mensch auf diesem Planeten, daß er auf der Erde lebt. Jeder Mensch lebt auch in einer bestimmten Stadt, aber jede Person ist sich der Tatsache bewußt, daß andere Städte auf der Erde existieren. Jeder Mensch lebt in einem bestimmten Haus in einer bestimmten Straße, aber jeder Mensch ist sich der Tatsache bewußt, daß es andere Straßen in der Stadt mit anderen Häusern in jeder Straße gibt. Die Identifizierung eines bestimmten Hauses in einer Straße innerhalb einer Stadt auf der Erde ist eine natürlich vorkommende geographische Kartenstruktur, wie in2a dargestellt. - Die geographische Kartenstruktur kann bis in das Haus ausgedehnt werden. Beispielsweise ist das Wohnzimmer ein Raum von vielen innerhalb des Hauses. Das Fernsehgerät, das Fernsehprogrammverzeichnis und der Videokassettenrecorder sind Objekte innerhalb des Wohnzimmers. Jedes Objekt kann seinen eigenen geographischen Raum haben. Die Kartenstruktur kann auch auf abstrakte Räume sowie auf geographische Räume ausgedehnt werden. Jedes Fernsehprogramm, das in einem Programmverzeichnis aufgeführt ist, hat eine Programmbeschreibung. Die Programmbeschreibung kann als ein Raum innerhalb des Fernsehprogrammverzeichnisses betrachtet werden. Die meisten Menschen verstehen sowohl die Struktur geographischer Räume als auch das Detail, das in jedem geographischen Raum zu finden ist. Daher repräsentiert die de facto geographische Kartenstruktur der Räume eine Struktur, die den meisten Menschen bekannt ist.
- Die vorliegende Erfindung verwendet die bekannte geographische Kartenstruktur unserer dreidimensionalen Welt in einer grafischen Benutzerschnittstelle. Die vorliegende Erfindung beschreibt eine Technik der Benutzernavigation in einer beliebig großen und komplexen geographischen Kartenstruktur mit grafischen Hintergrundbildern, die geographische Räume darstellen. Derartige geographische Kartenstrukturen verbessern das Erinnerungsvermögen eines Benutzers für die Organisation komplexer Daten. Der Vorteil der Einbeziehung derartiger geographischer Kartenstrukturen besteht darin, daß die bekannten Strukturen eine größere Anzahl von Menschen in die Lage versetzen, eine Informationsspeicherung zu nutzen, die von einem Computer unterstützt wird.
-
2b und2c stellen ein Muster einer geographischen Kartenstruktur dar, die von der vorliegenden Erfindung verwendet wird. In der vorliegenden Erfindung wird jeder Raum in der geographischen Kartenstruktur der2b und2c als ein Hintergrundbild auf dem Anzeigebildschirm der Handanzeigeeinrichtung, wie beispielsweise der in1b dargestellten, repräsentiert. In jedem geographischen Raum sind Objekte angeordnet, die von einem Benutzer ausgewählt und bearbeitet werden können. - Benutzerschnittstellenanzeigeelemente
- Die Benutzerschnittstellenumgebung der vorliegenden Erfindung besteht aus zwei Hauptanzeigeelementen: „Räumen" und auswählbaren „Objekten". Jedes Gebiet der geographischen Kartenstruktur der
2b und2c repräsentiert einen Raum. Der Raum stellt eine geographische Referenz bereit, die den Benutzer über dessen aktuellen Standort innerhalb der geographischen Kartenstruktur informiert. In jedem Raum gibt es ein oder mehrere „Objekte". Ein Benutzer kann die Objekte in jedem Raum auswählen und manipulieren. In dem vorliegenden Ausführungsbeispiel der Handanzeigeeinrichtung170 mit Berührungsbildschirmanzeige37 kann ein Benutzer Objekte auswählen, indem er die Objekte berührt, die auf der Berührungsbildschirmanzeige37 angezeigt werden. Andere Zeigeeinrichtungen als der Finger des Benutzers und andere Eingabeeinrichtungen als ein Berührungsbildschirm könnten die Auswahl und die Benutzereingabe auf eine andere Weise ausführen. - Räume
- Jeder Raum in den
2b und2c weist ein verknüpftes Hintergrundbild auf, das eine entsprechende Symbolik für den Raum enthält. Wenn ein Benutzer einen Raum betritt, wird das Hintergrundbild des Raums auf dem Anzeigebildschirm37 wiedergegeben. Jedes Hintergrundbild enthält Orientierungspunkte, die dem Benutzer helfen, festzustellen, wo er sich befindet. Beispielsweise wird der Erdoberflächen-Raum32 von2b als Hintergrundbild in4 und5 dargestellt. Das Erdoberflächen-Hintergrundbild der4 und5 ähnelt einer Straße auf der Erdoberfläche, wodurch ein Benutzer informiert wird, daß sich der Benutzer in dem Erd oberflächen-Raum der Kartenstruktur befindet. Das System gibt das Hintergrundbild unter Verwendung ungesättigter oder gedämpfter Farben in der Weise wieder, daß das Hintergrundbild problemlos von auswählbaren Objekten unterschieden werden kann. Das Hintergrundbild für einen Raum kann größer als der Anzeigebildschirm37 sein; daher stellt die vorliegende Erfindung eine Geste für das „Schwenken" in der Weise bereit, daß sich ein Benutzer in einem Raum bewegen kann, wie später erläutert werden wird. - Objekte
- Objekte sind einzelne grafische Icons, die in den Hintergrundbildern der Räume wiedergegeben werden. Jedes Objekt ist tatsächlich ein objekt-orientierter Programmierungstyp eines Objekts, der Datenverfahren bzw. -methoden enthält, welche aufgerufen werden können, um auf die Daten einzuwirken. Ein Benutzer kann jedes der Objekte auswählen und bearbeiten, die in dem Hintergrundbild eines Raums erscheinen. Jedes Objekt weist leuchtende Farben auf und ist schwarz umrandet. Die leuchtenden Farben unterscheiden die Objekte in einem Raum von dem Hintergrundbild des Raums, das unter Verwendung ungesättigter Farben gezeichnet wurde. Wenn ein Benutzer auf ein Objekt zeigt, erzeugt die Benutzerschnittstelle einen Klang für ein „Auswählbares Objekt", der den Benutzer informiert, daß das Objekt ausgewählt und bearbeitet werden kann. Es wird erneut auf
4 Bezug genommen; in dem vorliegenden Beispiel sind die Häuser47 und48 Objekte, die von einem Benutzer ausgewählt und bearbeitet werden können. - In der vorliegenden Erfindung wird eine „Aktionsvorwegnahme-Animation" verwendet, um den Benutzer zu informieren, wenn eine Aktion stattfindet. Die Aktionsvorwegnahme-Animation ist eine kurze auf dem Anzeigebildschirm
37 angezeigte Animation, die von der CPU30 erzeugt wird. In den meisten Fällen besteht die Aktionsvorwegnahme-Animation aus der Ver größerung des Icons eines Objekts in der Weise, daß es den Anschein hat, als ob sich das Icon näher auf den Benutzer zu bewegt, wenn das Objekt ausgewählt wird. - Es wird beispielsweise auf
3 Bezug genommen; wenn das Erd-Portal100 ausgewählt wird, expandiert das Erd-Portal100 in der Weise, daß es den Anschein hat, als ob es sich näher auf den Benutzer zu bewegt. Nachdem das Erd-Portal100 antizipiert bzw. aktionsvorweggenommen wurde, bewegen die Benutzerschnittstellen den Benutzer zu dem Erdoberflächen-Raum32 , der mit dem Erd-Portal100 verknüpft ist, wie in4 dargestellt ist. - Wenn ein Benutzer ein Objekt auswählt, indem er für einen vorherbestimmten Mindestzeitraum auf das Objekt zeigt, wird ein Klang erzeugt, das Objekt antizipiert, und die CPU ruft ein Verfahren in dem Objekt auf, welches eine mit dem Objekt verknüpfte Aktion ausführt.
- Es gibt mindestens drei Arten von Objekten, die in der Benutzerschnittstelle des vorliegenden Ausführungsbeispiels existieren: Datenobjekte, Schaltflächen und Portale. Das einfachste Objekt ist ein Datenobjekt. Datenobjekte sind Objekte, die mit einem Satz von Daten verknüpft sind. Schaltflächen sind Objekte, die Mittel für die Ausführung von Funktionen bereitstellen. Portale stellen ein Verfahren für die Bewegung zwischen verschiedenen Räumen bereit. Jede Objektart wird unten einzeln erläutert.
- Datenobjekte
- Ein Datenobjekt ist ein einfaches Objekt, das verwendet wird, um eine Information zu repräsentieren. Ein Datenobjekt kann beispielsweise eine Farbe oder einen Fernsehkanal repräsentieren. Die Datenobjekte enthalten keine Verfahren, die aufgerufen werden können, um eine zugeordnete Aktion oder Funktion auszuführen, wenn das Datenobjekt ausgewählt wird. Ein Datenobjekt kann jedoch auf anderen Objekten abgesetzt werden, die die Informationen in dem Datenobjekt verwenden. Beispielsweise kann ein Fernsehprogrammverzeichnis-Datenobjekt auf einem Videokassettenrecorderobjekt abgesetzt werden, um den Videokassettenrecorder so zu programmieren, daß er das Fernsehprogramm aufzeichnet.
- Schaltflächen
- Ein Schaltflächenobjekt ist ein spezielles Objekt, das eine zugeordnete Aktion oder Funktion hat. Wenn ein Benutzer eine Schaltfläche auswählt, ruft die CPU
30 das Aktionsverfahren in dem Schaltflächenobjekt auf, um die Ausführung der Aktion oder Funktion, die der Schaltfläche zugeordnet ist, zu veranlassen. Wenn die Schaltfläche ausgewählt wird, antizipiert die CPU auch die Schaltfläche und erzeugt einen Klang für die „Schaltflächenaktion", der die Rückmeldung für den Benutzer bereitstellt, daß die Schaltfläche ausgewählt worden ist. Bestimmte Schaltflächen stellen eine zusätzliche visuelle Rückmeldung bereit, um den Benutzer über die Ergebnisse des von der CPU aufgerufenen Verfahrens, die der Schaltfläche zugeordnete Aktion auszuführen, zu informieren. - Es wird beispielsweise auf
8 Bezug genommen; eine Fernseher-„Ein-"Schalt-Schaltfläche61 und eine Fernseher„Aus-"Schalt-Schaltfläche62 werden angezeigt. Wenn ein Benutzer die Fernseher-„Ein-"Schalt-Schaltfläche61 auswählt, antizipiert die Fernseher-„Ein-"Schalt-Schaltfläche61 , und die CPU30 erzeugt einen Klang für die „Schaltflächenaktion". Die CPU ruft ebenfalls ein Verfahren in dem Schaltflächenobjekt auf, das die notwendigen Informationen sendet, um ein reales Fernsehgerät einzuschalten, das mit dem in8 dargestellten Fernseher-Bedienungsfeld verbunden ist. - Wenn das reale Fernsehgerät eine „intelligente entfernte Einrichtung" ist, kann das Fernsehgerät einen Ergebniswert an die Anzeigeeinrichtung zurücksenden, der den Benutzer informiert, ob das Fernsehgerät eingeschaltet wurde oder nicht. Die Benutzerschnittstelle kann dann die Fernseher „Ein-"Schalt-Schaltfläche
61 erhellen und einen „Summ"-Ton erzeugen, um den Benutzer zu informieren, daß das reale Fernsehgerät tatsächlich eingeschaltet wurde. - Schaltflächen können kopiert und in verschiedene Räume verlagert werden, so daß ein Benutzer die „Welt" der Benutzerschnittstelle individuell anpassen kann. Beispielsweise könnten die Fernseher-„Ein-"Schalt-Schaltfläche
61 und die Fernseher-„Aus-"Schalt-Schaltfläche62 kopiert werden und dann die Schaltflächenkopien aus dem Fernsehsteuerungs-Raum in jeden anderen Raum verlagert werden. Ein Benutzer kann die Kopien dieser Fernseher-„Ein-"Schalt-Schaltfläche61 und der Fernseher-„Aus-"Schalt-Schaltfläche62 in dem neuen Raum verwenden, um den Fernseher zu steuern. - Portale
- Portale sind Objekte, die ein einfaches Verfahren der Bewegung aus dem aktuellen Raum in einen anderen Raum, der dem Portal zugeordnet ist, bereitstellen. Ein Benutzer bewegt sich aus dem aktuellen Raum in einen anderen Raum, der einem Portal zugeordnet ist, indem er einfach das Portal auswählt. Nachdem der Benutzer das Portal ausgewählt hat, antizipiert das Portal, erzeugt einen „Bewegung-durch-das-Portal-Klang", und die CPU ruft ein Verfahren auf, das den Benutzer in den Raum bewegt, der dem Portal zugeordnet ist.
- Es wird beispielsweise auf die geographische Karte von
2b Bezug genommen; um sich aus dem Erdoberflächen-Raum32 in den Haus-Raum50 zu bewegen, wählt der Benutzer einfach das Haus-Portal48 aus. Es wird auf den Erdoberflächen-Raum32 , wie in4 dargestellt, Bezug genommen; ein Benutzer führt die Bewegung aus, indem er das Haus-Portal48 innerhalb des Erdoberflächen-Raums32 auswählt. Nachdem das Haus-Portal 48 ausgewählt worden ist, antizipiert das Haus-Portal48 , erzeugt einen „Bewegung-durch-das-Portal-Klang", und dann wird der Benutzer in den Haus-Raum50 , wie in6 dargestellt, bewegt. - Portale können kopiert und in der Weise verlagert werden, daß ein Benutzer die „Welt" der Benutzerschnittstelle individuell anpassen kann. Beispielweise wird in
7a ein Fernsehprogrammverzeichnis-Portal71 in dem Wohnzimmer-Raum60 dargestellt. Das TV-Programmverzeichnis-Portal71 ist einem Raum zugeordnet, der TV-Programmverzeichnisinformationen enthält. Ein Benutzer kann eine Kopie des Fernsehprogrammverzeichnis-Portals71 anfertigen und die Kopie in einen anderen Raum verlagern, in welchem der Benutzer in der Lage sein möchte, auf das Fernsehprogrammverzeichnis zuzugreifen. Der Benutzer kann dann die Kopie des Fernsehprogrammverzeichnis-Portals verwenden, um auf dieselben Informationen zuzugreifen, auf die unter Verwendung des ursprünglichen Fernsehprogrammverzeichnis-Portals zugegriffen werden könnte. Somit wäre ein Benutzer in der Lage, aus verschiedenen Räumen auf dieselben Informationen zuzugreifen. - Es gibt zwei spezielle Portale, die für einen Anwender der Benutzerschnittstelle fast immer verfügbar sind: ein Rückweg-Portal und ein Assistenten-Portal.
- Das Rückweg-Portal
- Das Rückweg-Portal stellt einen Weg für einen Benutzer bereit, um einen Pfad zurückzuverfolgen, auf dem sich der Benutzer zwischen verschiedenen Räumen bewegt hat. Das Rückweg-Portal
45 besteht aus einem kleinen rechteckigen Einzelbild, das eine Momentaufnahme des vorherigen Raums entlang dem Pfad durch die Räume, auf dem sich der Benutzer bewegt hat, einschließt. Da das Hintergrundbild für einen Raum größer sein kann, als bei einer einzigen Ansicht zu erkennen ist, zeigt das Rückweg-Portal eine Momentaufnahme der Ansicht des vorhergehenden Raums, genauso wie er erschien, als der Benutzer durch ein Portal in diesen vorherigen Raum gegangen ist. Bei dem vorliegenden Ausführungsbeispiel ist das Rückweg-Portal für den Benutzer in jedem Raum in der unteren rechten Ecke des Anzeigebildschirms verfügbar. Falls ge wünscht, kann der Benutzer das Rückweg-Portal an einen anderen Ort auf dem Anzeigebildschirm in der Weise verlagern, daß das Rückweg-Portal dann an dem neuen Ort auf dem Bildschirm in jedem Raum erscheint. - Um sich auf dem aktuellen Pfad einen Schritt rückwärts zu bewegen, wählt der Benutzer das Rückweg-Portal
45 . Nach der Auswahl antizipiert die CPU30 das Rückweg-Portal45 , erzeugt einen „Bewegung-durch-das-Rückweg-Portal"-Klang und bewegt den Benutzer in den Raum, der in dem Rückweg-Portal dargestellt ist. Bei dem vorliegenden Ausführungsbeispiel ist der „Bewegung-durch-das-Rückweg-Portal"-Klang eigentlich derselbe Klang wie der „Bewegung-durch-das-Portal"-Klang mit der Ausnahme, daß er rückwärts gespielt wird. Indem der „Bewegung-durch-das-Portal"-Klang bei der Bewegung durch das Rückweg-Portal rückwärts gespielt wird, wird die Rückwärtsbewegung auf dem aktuellen Pfad für den Benutzer hervorgehoben. - Wenn Benutzer durch Portale gehen, hinterlassen sie eine Spur von unsichtbaren Markierungen. Jede Markierung repräsentiert einen Besuch in einem Raum. Das Rückweg-Portal verwaltet diese Markierungen und erhält sie in der Reihenfolge aufrecht, in der die Räume besucht wurden. Die Markierungen und die Reihenfolge der Markierungen definieren den Pfad, den der Benutzer durch die Welt der Benutzerschnittstelle genommen hat. Somit wird, wenn ein Benutzer durch das Rückweg-Portal geht, der von den Markierungen definierte Pfad jeweils eine Markierung zurückverfolgt. Jedes Mal, wenn der Benutzer durch das Rückweg-Portal in einen Raum geht, wird eine der Markierungen, die von dem Rückweg-Portal verwaltet werden, entfernt.
- Es wird beispielsweise auf eine in
2b dargestellte geographische Kartenstruktur Bezug genommen; wenn ein Benutzer in dem Weltraum-Raum99 startet, sich in den Erdoberflächen-Raum32 bewegt, und sich dann in den Haus-Raum50 bewegt, wird ein Pfad von dem Weltraum-Raum99 in den Erdoberflächen-Raum32 in den Haus-Raum50 erzeugt. Nach dem Durchlaufen dieses Pfades zeigt der Anzeigebildschirm37 den Haus-Raum50 , wie in6 dargestellt, an. In der unteren rechten Ecke von Haus-Raum50 befindet sich das Rückweg-Portal45 . Wie in6 dargestellt, zeigt das Rückweg-Portal45 eine Miniaturmomentaufnahme des vorherigen Raums entlang dem Raumpfad an. In diesem Fall ist der vorherige Raum entlang dem Raumpfad der Erdoberflächen-Raum32 ; daher zeigt das Rückweg-Portal45 eine Miniaturmomentaufnahme des Erdoberflächen-Raums32 an, wie er erschien, als der Benutzer durch das Haus-Portal ging. Wenn der Benutzer dann das Rückweg-Portal45 auswählt, antizipiert das Rückweg-Portal45 , erzeugt den „Bewegung-durch-das-Rückweg-Portal"-Klang und bewegt den Benutzer dann in den Erdoberflächen-Raum32 , wie in4 dargestellt. Bei Erdoberflächen-Raum32 , wie in4 dargestellt, zeigt das Rückweg-Portal nun eine Miniaturmomentaufnahme des Weltraum-Raums99 an, welcher der erste Raum entlang dem Pfad war. Daher stellt das Rückweg-Portal45 einen „Rückweg " entlang dem Pfad durch die Räume, durch die der Benutzer gegangen ist, bereit. - Die vorliegende Erfindung implementiert das Rückweg-Portal
45 als einen Stapel von Datenstrukturen, wobei jede Datenstruktur einen Zeiger und ein Koordinatenpaar enthält. Der Zeiger in jeder Datenstruktur auf dem Stapel zeigt auf einen Raum, den der Benutzer vorher besucht hat. Das Koordinatenpaar in jeder Datenstruktur auf dem Stapel spezifiziert genau, wo sich der Benutzer in dem Raum, auf den der Zeiger zeigt, aufgehalten hat, als der Benutzer den Raum durch ein Portal verließ. Jedes Mal, wenn der Benutzer sich durch ein Portal aus einem bestimmten Raum herausbewegt, „schiebt" die Benutzerschnittstelle eine Datenstruktur, die den Zeiger auf den Raum und das Koordinatenpaar enthält, welches genau definiert, wo sich der Benutzer in dem Raum aufgehalten hat, als der Benutzer durch das Portal ging, auf den Rückweg-Sta pel. Das Rückweg-Portal45 zeigt eine Miniaturmomentaufnahme des Raums an, auf den der Zeiger in der Datenstruktur auf der Oberseite des Stapels zeigt. Zur Rückverfolgung entlang dem Pfad durch die Räume „nimmt" die Benutzerschnittstelle jedes Mal, wenn der Benutzer das Rückweg-Portal45 auswählt, eine Datenstruktur von dem Stapel „weg" und bewegt sich in den Raum, der von dem Zeiger in der Datenstruktur angezeigt wird. - Das Assistenten-Portal
- Das Assistenten-Portal ist ein anthropomorphisches Zeichen, das den Benutzer beim Navigieren auf der Benutzerschnittstelle und bei der Behandlung von Ereignissen unterstützt, die in der von der Benutzerschnittstelle erzeugten „Welt" auftreten. Es wird auf den Erdoberflächen-Raum von
4 Bezug genommen; der Assistent ist in der unteren linken Ecke dargestellt. Der Assistent41 transportiert Objekte für den Benutzer. Diese Transportfunktion wird durch eine Aktentasche repräsentiert, die der Assistent ebenfalls trägt. Ein Benutzer kann auf Objekte zugreifen, die der Assistent transportiert, indem er das Assistenten-Portal41 auswählt, wodurch er einen Assistenten-Raum betritt, der dem Assistenten-Portal41 zugeordnet ist. Wenn ein Benutzer das Assistenten-Portal41 auswählt, antizipiert der Assistent, indem scheinbar die Aktentasche herauszieht und öffnet. Die CPU erzeugt dann den „Bewegung-durch-das-Portal"-Klang und bewegt den Benutzer in den Assistenten-Raum. - Um ein Objekt in die Aktentasche des Assistenten zu legen, nimmt der Benutzer das Objekt auf und „setzt" dann das Objekt auf dem Assistenten-Portal
41 „ab". Das auf dem Assistenten-Portal41 abgesetzte Objekt ist dann für den Benutzer aus jedem Raum immer verfügbar, indem er den Assistenten-Raum betritt. Der Assistent wird weiter unten in dem Abschnitt „Der Assistent" umfassender diskutiert. - Objektrad
- Häufig ist es erforderlich, daß ein Benutzer eine Auswahl unter einer beliebig großen Anzahl von Objekten trifft. Daher muß die Benutzerschnittstelle sowohl ein Verfahren für das Anzeigen einer großen Anzahl von Objekten als auch ein Verfahren bereitstellen, das dem Benutzer gestattet, jedes der angezeigten Objekte auszuwählen.
- Es wird beispielsweise auf den in
8 dargestellten Fernsehsteuerungs-Raum64 Bezug genommen; die Benutzerschnittstelle der vorliegenden Erfindung muß ein Verfahren zum Anzeigen einer beliebigen Anzahl von Fernsehkanälen bereitstellen, aus der der Benutzer auswählen kann. In jedem System ist der Bildschirmplatz sehr gefragt. Wenn der Benutzer unter vielen möglichen Optionen wählen muß, müssen daher die Optionen kompakt präsentiert werden. Wenn bei der vorliegenden Erfindung500 Fernsehkanalobjekte für einen Benutzer zur Auswahl stehen, würde eine umfassende gleichzeitige Präsentation dieser nicht nur beträchtlichen Bildschirmplatz in Anspruch nehmen, sondern es ginge auch der visuelle Kontext der Liste (d. h. der Grund, weshalb der Benutzer diese Liste zuerst anschaut) verloren. Somit wird ein Verfahren benötigt, das dem Benutzer ein Blättern durch alle verfügbaren Objekte gestattet. - Die Benutzerschnittstelle der vorliegenden Erfindung führt ein „Objektrad" ein, um ein Verfahren bereitzustellen, das dem Benutzer gestattet, eine Auswahl aus einer großen Gruppe von Objekten zu treffen. Bei dem Objektrad werden ein paar sofort zugreifbare Objekte in einem Objektrad auf dem Anzeigebildschirm angezeigt, während die übrigen Objekte in der Gruppe auf dem Bildschirm nicht wiedergegeben werden. Um auf die Objekte zuzugreifen, die auf dem Bildschirm nicht wiedergegeben werden, „dreht" der Benutzer das Objektrad „schnell", um die vorher nicht zugreifbaren Objekte zur Ansicht auf den Anzeigebildschirm zu bewegen.
- Es wird auf
12 Bezug genommen; eine große Anzahl von Fruchtobjekten ist zur Auswahl für einen Benutzer verfügbar, aber nur vier Fruchtobjekte passen auf einmal horizontal auf den Anzeigebildschirm37 . Um dem Benutzer den Zugriff auf alle verfügbaren Fruchtobjekte zu ermöglichen, plaziert die vorliegende Erfindung den Streifen mit den Fruchtobjekten auf einem „Objektrad" 38, wie es in dem konzeptionellen Diagramm von13 angezeigt wird. Einige dieser Fruchtobjekte auf dem Objektrad38 sind für einen Benutzer auf dem Anzeigebildschirm37 sofort zugreifbar. Um auf die Objekte zuzugreifen, die auf dem Anzeigebildschirm37 nicht angezeigt werden, dreht der Benutzer das Objektrad38 . Wenn sich das Objektrad38 dreht, werden neue Objekte zur Ansicht gebracht und andere Objekte verschwinden aus der Ansicht, wie in14 dargestellt. Ein Anwender verwendet die Navigationsgesten Zeigen, schnelles Drehen und Aufnehmen, um das Objektrad zu handhaben, das auf der Berührungsbildschirmanzeige37 präsentiert wird. Diese drei Navigationsgesten werden im folgenden Abschnitt erläutert. - Um den Eindruck des Benutzers zu verstärken, daß ein echtes Rad schnell gedreht wird, folgen Objekträder den Gesetzen der Physik. Beispielsweise verfügen die Objekträder über Masse und daher über Trägheit; Objekträder drehen sich schneller, wenn der Benutzer mehr „Kraft" aufwendet, wenn er das Rad dreht; Objekträder reagieren aus Reibung, da ein sich drehendes Objektrad allmählich zum Stillstand kommt.
- Während sich ein Objektrad dreht und sich die Objekte über den Bildschirm bewegen, erzeugt bei dem vorliegenden Ausführungsbeispiel die Benutzerschnittstelle einen „Klick"-Ton. Der von der Benutzerschnittstelle erzeugte „Klick"-Ton simuliert den Ton, den Rasten am Rad eines Spielautomaten hervorrufen, welche das Rad zum Anhalten und zur Ausrichtung zwingen. Wie ein echtes Rad halten die Objekträder der vorliegenden Erfindung immer ausgerichtet und halten niemals zwischen zwei Objektauswahlvorgängen an. Ein Benutzer kann ein sich schnell drehendes Objektrad zu jeder Zeit anhalten, indem er auf ein sich bewegendes Objekt auf dem Objektrad Zeigt, während sich das Objektrad schnell dreht.
- Ein Objektrad kann vertikal oder horizontal auf dem Anzeigebildschirm ausgerichtet werden. Bei vertikaler Ausrichtung kann das Objektrad sowohl nach oben als auch nach unten schnell gedreht werden. Bei horizontaler Ausrichtung kann das Objektrad sowohl nach links als auch nach rechts schnell gedreht werden.
- Benutzerschnittstellen-Navigationsgesten
- Die Navigation und Objekthandhabung in der Benutzerschnittstelle werden unter Verwendung einer Bildschirmzeigereinrichtung ausgeführt. Bei dem bevorzugten Ausführungsbeispiel ist die Handanzeigeeinrichtung
170 mit einer Berührungsbildschirmanzeige37 konstruiert, und die verwendete Zeigeeinrichtung ist der Finger eines Benutzers. Alternativ kann die Benutzerschnittstelle implementiert werden, indem jede andere Art von Bildschirmzeigereinrichtung verwendet wird, wie beispielsweise eine Maus, ein Trackball oder ein Joystick. Diese Patentbeschreibung beschreibt jedoch nur das bevorzugte Ausführungsbeispiel, das den Finger des Benutzers als Zeigeeinrichtung auf einem Berührungsbildschirm verwendet. - Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung enthält die Handanzeigeeinrichtung
170 teilweise eine Berührungsbildschirmanzeige37 , wie in1b dargestellt. Die Berührungsbildschirmanzeige37 erfaßt, wenn ein Finger auf dem Anzeigebildschirm plaziert worden ist und identifiziert, wo der Finger plaziert worden ist. Benutzer wählen Objekte auf dem Berührungsbildschirm aus und handhaben die Objekte, indem sie einen Satz von sechs Navigationsgesten verwenden: Zeigen, Auswählen, Schwenken, schnelles Drehen, Aufnehmen und Absetzen. Jede Navigationsgeste, die von der Benutzerschnittstelle verwendet wird, wird unten einzeln erläutert. (Da die Namen der Navigationsgesten dieselben sind wie Wörter des allgemeinen Sprachgebrauchs, werden in dieser Patentbeschreibung alle Bezugnahmen auf die Navigationsgesten mit großem Anfangsbuchstaben geschrieben.) - Zeigen
- Zeigen ist die einfachste Geste in der Benutzerschnittstelle der vorliegenden Erfindung. Ein Anwender verwendet die Zeigen-Geste, um Objekte auszusuchen, die auf dem Anzeigebildschirm wiedergegeben werden. Wenn beispielsweise die Benutzerschnittstelle der vorliegenden Erfindung den Benutzer auffordert, eines der vielen Objekte auszusuchen, die auf dem Anzeigebildschirm wiedergegeben werden, Zeigt der Benutzer auf ein Objekt, um das Objekt auszuwählen.
- Ein Benutzer Zeigt auf ein Objekt, indem er einfach einen Finger auf das auf dem Berührungsbildschirm angezeigte Objekt plaziert. Wenn ein Benutzer erfolgreich auf ein Objekt Gezeigt hat, erzeugt die Benutzerschnittstelle einen „Auswählbares-Objekt"-Klang. Der Auswählbares-Objekt-Klang stellt eine Rückmeldung für den Benutzer bereit, die anzeigt, daß der Benutzer erfolgreich auf das Objekt Gezeigt hat.
- Auswählen
- Die Auswählen-Geste ist der Zeigen-Geste sehr ähnlich. Ein Anwender verwendet die Auswählen-Geste, um ein Objekt ein Verfahren zur Ausführung einer Funktion oder einer mit dem Objekt verknüpften Aktion aufrufen zu lassen. Beispielsweise ruft ein Ausgewähltes Portal ein Verfahren auf, das den Benutzer in den Raum bewegt, der dem Portal zugeordnet ist, und eine Ausgewählte Schaltfläche ruft ein Verfahren auf, das die Aktion oder Funktion ausführt, die der Schaltfläche zugeordnet ist.
- Um ein Objekt Auszuwählen, Zeigt ein Benutzer zuerst auf ein Objekt, indem er das Objekt mit einem Finger berührt. Wenn der Benutzer für einen vorherbestimmten Mindestzeitraum weiter auf das Objekt Zeigt, wird das Objekt ein Ausgewähltes Objekt. Nachdem ein Benutzer ein Objekt Ausgewählt hat, „antizipiert" das Objekt, erzeugt einen Klang für die Benutzer-Rückmeldung, und dann wird ein Verfahren in dem Objekt aufgerufen. Wenn das Objekt eine Schaltfläche ist, dann führt das aufgerufene Verfahren eine Funktion aus, die der Schaltfläche zugeordnet ist. Wenn das Objekt ein Portal ist, dann bewegt das aufgerufene Verfahren den Benutzer in den Raum, der diesem Portal zugeordnet ist.
- Alternativ kann ein Benutzer ein Objekt auf dem Anzeigebildschirm Auswählen, indem er nacheinander zweimal schnell auf das Objekt Zeigt. Wenn ein Benutzer ein Objekt Auswählt, indem er zweimal schnell auf das Objekt Zeigt, antizipiert das Objekt nicht. Statt dessen erzeugt die Benutzerschnittstelle nur den entsprechenden Rückmeldungs-Klang und führt dann die Aktion aus, die mit dem Objekt verknüpft ist. Dies stellt dem Benutzer ein Verfahren zum schnellen Auswählen eines Objekts zur Verfügung.
- Schwenken
- Um sich in einem Raum zu bewegen, verwendet ein Benutzer die Schwenken- bzw. Fahren-Navigationsgeste. Ein Benutzer Schwenkt bzw. Fährt durch einen Raum, indem er einen Finger auf das Hintergrundbild eines Raumes plaziert, der auf dem Berührungsanzeigebildschirm
37 angezeigt wird, und mit dem Finger in die gewünschte Bewegungsrichtung gleitet. Die Benutzerschnittstelle der vorliegenden Erfindung reagiert, indem sie einen „Schwenken-Aktiv"-Klang erzeugt und das Hintergrundbild des Raumes und alle Objekte in dem Raum in die entgegengesetzte Richtung der Fingerbewegung bewegt. Durch Bewegung des Raums in die entgegengesetzte Richtung simuliert die Benutzerschnittstelle die Bewegung der Perspektive des Benutzers in die andere Richtung. -
4 und5 stellen die Verwendung der Schwenken-Geste dar. Wenn ein Benutzer seinen Finger auf den Hintergrund von4 plaziert und dann mit dem Finger auf dem Berührungsbildschirm nach rechts gleitet, wird die Ansicht entsprechend nach rechts schwenken, indem das Hintergrundbild des Raums und alle Objekte in dem Raum nach links bewegt werden.5 stellt das Ergebnis der Schwenken-nach-Rechts-Operation dar, wo das Haus48 sich von der rechten Seite des Anzeigebildschirms zur linken Seite des Anzeigebildschirms hinüberbewegt hat. - Das Hintergrundbild für jeden Raum in der vorliegenden Erfindung kann beliebig groß sein. Wenn das Hintergrundbild eines Raums eine endliche Größe hat, stellt die Benutzerschnittstelle der vorliegenden Erfindung eine Rückmeldung bereit, daß die weiteste Ausdehnung des Hintergrundbildes erreicht worden ist. Wenn ein Benutzer in einer Richtung ganz bis zum Ende des Hintergrundbildes Schwenkt, bewegt die Schwenken-Geste den Benutzer nicht weiter in diese Richtung. Um den Benutzer über diese Tatsache zu informieren, erzeugt die Benutzerschnittstelle anstelle des „Schwenken-Aktiv"-Klangs einen „Ende-der-Ausdehnung"-Klang, wenn ein Benutzer versucht, über das Ende eines Hintergrundbildes hinaus zu Schwenken. Der „Ende-der-Ausdehnung"-Klang klingt wie ein „dumpfer Schlag", der erzeugt wird, wenn irgend etwas gegen eine wand stößt. Der „Ende-der-Ausdehnung"-Klang informiert dadurch den Benutzer, daß er das Ende des Hintergrundbildes getroffen hat und nicht weitergehen kann.
- Schnelles Drehen
- Ein Anwender verwendet die Schnell-Drehen-Geste zum Blättern durch mehrere Objekte, die auf einem Objektrad plaziert sind. Wenn ein Benutzer ein Schnell-Drehen eines Objektrades ausführt, bewegen sich die sichtbaren Objekte auf dem Objektrad über den Anzeigebildschirm und verschwinden an dem einen Ende vom Bildschirm, und vorher unsichtbare Objekte bewegen sich an dem anderen Ende auf den Bildschirm.
- Ein Benutzer führt ein Schnell-Drehen eines Objektrades aus, indem er einen Finger auf dem Objektrad plaziert und dann den Finger über den Anzeigebildschirm in eine Richtung parallel zur Bewegung des Objektrades bewegt.
15 stellt die Schnell-Drehen-Geste dar. In15 plaziert ein Benutzer einen Finger zuerst auf dem Objektrad (wie durch Sternchen96 gezeigt). Der Benutzer gleitet dann mit dem Finger über das Objektrad (wie durch den Pfeil97 gezeigt). Diese Fingergeste veranlaßt das Objektrad zu einer Schnellen Drehung in Richtung der Fingerbewegung. Je schneller der Benutzer mit dem Finger über das Objektrad auf der Anzeige gleitet, desto schneller dreht sich das Objektrad. Wenn sich das Objektrad dreht, erscheinen die Objekte auf dem Objektrad an einem Ende des Objektrades, bewegen sich über den Anzeigebildschirm und verschwinden dann am anderen Ende des Objektrades, ähnlich den Figuren, die auf dem Rad eines Spielautomaten erscheinen. - Aufnehmen
- Die Aufnehmen-Geste wird verwendet, um ein in einem Raum oder auf einem Rad befindliches Objekt in der Weise aufzunehmen, da ein Benutzer das Objekt durch die von der Benutzerschnittstelle der vorliegenden Erfindung definierte „Welt" transportieren kann. Bei dem bevorzugten Ausführungsbeispiel werden verschiedene Verfahren verwendet, um ein Objekt aus einem Raum oder von einem Objektrad Aufzunehmen. Jedes Verfahren wird unten einzeln erläutert. Es ist jedoch klar, daß dieselbe Geste verwendet werden könnte, um Objekte in beiden Situationen Aufzunehmen.
- Die Geste, die verwendet wird, um ein Objekt von einem Objektrad Aufzunehmen, ist in
16a dargestellt.16a stellt ein Objektrad91 mit einer Anzahl von Fruchtob jekten zur Auswahl dar. Um eines der auf dem Objektrad91 angeordneten Fruchtobjekte Aufzunehmen, plaziert ein Benutzer zuerst einen Finger auf dem Objekt (wie durch das Sternchen92 bezeichnet) und bewegt den Finger in eine Richtung senkrecht zur Bewegung des Objektrades. Die Bewegung des Fingers in eine Richtung senkrecht zur Bewegung des Objektrades wird durch den Pfeil93 dargestellt. Die senkrechte Fingerbewegung „reißt" das Objekt in der Weise von dem Objektrad los, daß der Benutzer das Objekt bewegen kann. Wenn sich das Objekt von dem Objektrad löst, erzeugt die Benutzerschnittstelle einen „Losreißen"-Klang, der den Benutzer informiert, daß das Objekt von dem Objektrad entfernt worden ist. Wenn ein Objekt Aufgenommen worden ist, wirft das Objekt einen Schatten auf das Hintergrundbild des Raums und bewegt das Objekt in Übereinstimmung mit dem Finger des Benutzers. - Die Geste zum Aufnehmen eines Objekts aus einem Raum wird in
16b dargestellt.16b stellt einen Raum mit einem Objekt in der Mitte dar. Um das Objekt Aufzunehmen, umkreist ein Benutzer das Objekt mit dem Finger, wie durch den Pfeil203 dargestellt und berührt dann das Objekt, wie durch das Sternchen201 dargestellt. Wenn sich das Objekt aus dem Raum löst, erzeugt die Benutzerschnittstelle den Losreißen-Klang, der den Benutzer informiert, daß das Objekt Aufgenommen worden ist. Nachdem ein Objekt von einem Benutzer aus einem Raum Aufgenommen worden ist, verbleibt ein fiktives Bild des Objekts an dem ursprünglichen Ort des Objekts. Das fiktive Bild des Objekts wird in ungesättigten Farben gezeichnet, was dem Benutzer anzeigt, daß das fiktive Objekt nicht Ausgewählt werden kann. - Nachdem ein Benutzer ein Objekt, entweder von einem Objektrad oder aus einem Raum, Aufgenommen hat, erzeugt die Benutzerschnittstelle einen „Transportieren-Objekt"-Klang, der den Benutzer informiert, daß das Objekt transportiert wird. Der Benutzer kann das transportierte Objekt innerhalb eines Raums bewegen, von Raum zu Raum bewegen, oder das transportierte Objekt auf einem anderen Objekt Absetzen.
- Absetzen
- Die letzte Geste, die zur Interaktion mit der Benutzerschnittstelle der vorliegenden Erfindung verwendet wird, ist das Absetzen. Nachdem ein Benutzer die Aufnehmen-Geste verwendet hat, um ein Objekt aus einem Raum oder von einem Objektrad Aufzunehmen, muß der Benutzer den Finger weiter gegen den Bildschirm drücken, um das Objekt zu transportieren. Der Benutzer bewegt das transportierte Objekt, indem er mit dem Finger über das Berührungsbildschirmanzeigesystem gleitet. Nach der Verlagerung des transportierten Objekts an einen gewünschten Ort, verwendet der Benutzer dann die Absetzen-Geste, um das Objekt an dem gewünschten Ort zu plazieren. Um das Objekt Abzusetzen, hebt der Benutzer den Finger von der Berührungsbildschirmanzeige ab. Wenn der Benutzer ein Objekt Absetzt, fällt das Objekt in das Hintergrundbild eines Raums, als ob es durch die Schwerkraft angezogen wird, und das Objekt wirft keinen Schatten mehr.
- Ein Benutzer der vorliegenden Erfindung verwendet die Absetzen-Geste, um eine Reihe verschiedener Funktionen auszuführen. Die Absetzen-Geste kann verwendet werden, um ein Objekt zu kopieren, indem das Objekt aufgenommen und in ein Portal in der Weise Abgesetzt wird, daß eine Kopie des Objekts in dem Raum erzeugt wird, der dem Portal zugeordnet ist. Die Absetzen-Geste kann verwendet werden, um ein Objekt an einen neuen Ort zu verlagern, indem das Objekt aufgenommen und an dem gewünschten Ort Abgesetzt wird. Die Absetzen-Geste kann ebenfalls verwendet werden, um ein Datenobjekt, das Informationen enthält, einem anderen Objekt bereitzustellen, welches die Informationen verwendet, um eine Funktion auszuführen. Die verschiedenen Verwendungsmöglichkeiten der Absetzen-Geste werden unten erläutert.
- Um eine Kopie von eine Objekt unter Verwendung der Absetzen-Geste anzufertigen, muß ein Benutzer zuerst das Objekt Aufnehmen und dann das Objekt auf einem Portal Absetzen. Ein Objekt, das aufgenommen worden ist, wird über das Portal transportiert, indem der Finger über den Bildschirm gleitet. Wenn das transportierte Objekt über dem Portal ist, wird das Portal in der Weise hervorgehoben, daß es eine Rückmeldung für den Benutzer bereitstellt, die signalisiert, daß sich das transportierte Objekt über dem Portal befindet. Bei dem vorliegenden Ausführungsbeispiel strahlt das Portal ein grünes Leuchten aus. Um das transportierte Objekt in das Portal Abzusetzen, hebt der Benutzer den Finger von der Berührungsbildschirmanzeige ab. Das Objekt wird dann in der Weise angezeigt, daß es das Portal mit einer entsprechenden Animation passiert. Während der Animation erzeugt die CPU
30 einen „Durch-das-Portal-Gesaugt"-Klangeffekt. Wenn das Objekt vollständig durch das Portal verschwunden ist, ändert sich das in ungesättigten Farben gezeichnete fiktive Bild des Objekts in dem gegenwärtigen Raum wieder in ein Bild mit leuchtenden Farben. Dies liefert eine visuelle Rückmeldung an den Benutzer, daß das ursprüngliche Objekt in dem vorliegenden Raum verbleibt, obwohl eine Kopie des Objekts durch das Portal in einen anderen Raum gesendet worden ist. - Benutzer können Objekte entweder innerhalb eines einzelnen Raums oder von einem Raum in einen anderen bewegen. Um ein Objekt innerhalb eines einzelnen Raums zu bewegen, verwendet der Benutzer zuerst die Aufnehmen-Geste, um ein Objekt aufzunehmen, verlagert das Objekt an den gewünschten neuen Ort und Setzt dann das Objekt unter Verwendung der Absetzen-Geste ab. Nachdem das Objekt Abgesetzt worden ist, verschmilzt das fiktive Bild des Objekts mit dem Abgesetzten Objekt an dem neuen Ort und es entsteht ein einzelnes Bild des Objekts an dem neuen Ort in leuchtenden Farben. Dies informiert den Benutzer, daß das Objekt an einen neuen Ort verlagert worden ist und daß keine Kopie angefertigt worden ist.
- Die Bewegung eines Objekts in einen anderen Raum wird ausgeführt, indem das Objekt durch ein Portal in einen anderen Raum transportiert wird. Um ein Objekt in einen anderen Raum zu bewegen, muß ein Benutzer zuerst das Objekt Aufnehmen und dann das Objekt über ein Portal transportieren. Wenn sich das transportierte Objekt über dem Portal befindet, wird das Portal in der Weise hervorgehoben, daß es eine Rückmeldung an den Benutzer bereitstellt, die signalisiert, daß sich das transportierte Objekt über dem Portal befindet, und das Portal strahlt ein grünes Leuchten aus. Um das transportierte Objekt durch das Portal zu bewegen, hält der Benutzer das Objekt über dem Portal für einen vorherbestimmten Mindestzeitraum. Das Portal antizipiert schließlich, indem es den Benutzer und das transportierte Objekt in den Raum bewegt, der dem Portal zugeordnet ist. Das fiktive Bild des in ungesättigten Farben gezeichneten transportierten Objekts wird ebenfalls mit dem Benutzer und dem transportierten Objekt in den Bestimmungsraum bewegt. Wenn der Benutzer das transportierte Objekt Absetzt, indem er seinen Finger von dem Berührungsbildschirmanzeigesystem abhebt, verschmelzen das transportierte Objekt und das fiktive Bild zu einem einzelnen Bild des Objekts in leuchtenden Farben. Dies stellt eine Rückmeldung an den Benutzer bereit, daß das Objekt in den Raum verlagert und nicht kopiert worden ist.
- Die Absetzen-Geste kann ebenfalls verwendet werden, um Informationen an ein Objekt bereitzustellen. Ein Benutzer stellt Informationen an ein Objekt bereit, indem er ein Objekt, das Daten enthält (d. h. ein Datenobjekt), auf dem Objekt absetzt, das die Daten verwenden wird.
- Um Informationen an ein Objekt bereitzustellen, muß ein Benutzer zuerst ein Datenobjekt Aufnehmen, das die notwendigen Informationen enthält. Der Benutzer transportiert dann das Datenobjekt über das Objekt, welches die Informa tionen verwenden kann. Wenn sich das transportierte Datenobjekt über dem Objekt, das die Informationen verwenden kann, befindet, wird das Objekt, das die Informationen verwenden kann, hervorgehoben, wenn das transportierte Datenobjekt die richtige Objektklasse aufweist. Indem das Objekt, das die Informationen verwenden kann, hervorgehoben wird, stellt es eine Rückmeldung an den Benutzer bereit, daß das transportierte Datenobjekt die richtige Objektklasse aufweist. Um das Datenobjekt in das Objekt, das die Informationen verwenden kann, Abzusetzen, hebt der Benutzer seinen Finger, der zum Transport des Datenobjekts verwendet wurde, von dem Berührungsbildschirm ab. Das Datenobjekt wird dann mit entsprechenden Animations- und Klangeffekten durch und in das Portal geleitet. Wenn das Datenobjekt in dem Empfängerobjekt vollständig verschwunden ist, welches die Informationen verwenden kann, führt dann das Empfängerobjekt die entsprechende Funktion an den bereitgestellten Daten aus.
- Beispielsweise kann die Absetzen-Geste verwendet werden, um Fernsehprogramminformationen an das Videokassettenrecorderobjekt bereitzustellen, welches mit einem physischen Videokassettenrecorder in der Weise verknüpft ist, daß sich der Videokassettenrecorder selbst programmiert, um das Fernsehprogramm aufzuzeichnen. Um den Videokassettenrecorder zu programmieren, verwendet ein Benutzer zuerst die Aufnehmen-Geste, um ein Datenobjekt aufzunehmen, das Fernsehprogramminformationen enthält. Der Benutzer transportiert dann ein Fernsehprogrammdatenobjekt über das Videokassettenrecorderobjekt. Das Videokassettenrecorderobjekt modifiziert dann sein Erscheinungsbild, um anzuzeigen, daß es ein „Programmier-Videokassettenrecorder"-Modus ist. Dies informiert den Benutzer, daß der Videokassettenrecorder die Informationen „versteht", die über ihm sind (d. h. der Videokassettenrecorder wird so programmiert, daß er das Fernsehprogramm aufzeichnet, wenn der Benutzer das Fernsehprogrammdatenobjekt auf dem Videokassettenrecorder Absetzt).
- Wenn der Benutzer das Fernsehprogrammobjekt in den Videokassettenrecorder Absetzt, erkennt das Videokassettenrecorderobjekt, daß das Fernsehprogrammdatenobjekt Informationen enthält, die er verwenden kann. Der Videokassettenrecorder extrahiert dann die Zeit- und Kanalinformationen aus dem Fernsehprogrammdatenobjekt in der Weise, daß das Videokassettenrecorderobjekt sich selbst so programmiert, daß es das Fernsehprogramm aufzeichnet.
- Ein Rundgang durch das vorliegende Ausführungsbeispiel im Betrieb
- Um das Aussehen und den Eindruck der Benutzerschnittstelle der vorliegenden Empfindung am besten zu übermitteln, wird ein „Rundgang" durch eine Musterumgebung unter Bezugnahme auf die
3–10 ausgeführt. Die Musterumgebung, die während des Rundgangs erkundet wird, basiert auf der geographischen Kartenstruktur der Räume, die in den2b und2c grafisch dargestellt sind. Der Rundgang durch die hierin beschriebene Musterumgebung soll den Schutzumfang der vorliegenden Erfindung nicht einschränken, sondern statt dessen ein Beispiel für ein mögliches Ausführungsbeispiel der vorliegenden Erfindung geben. Aufgrund der Beschränkungen einer schriftlichen Patentbeschreibung hinsichtlich der Beschreibung der animierten Benutzersehnittstelle der vorliegenden Erfindung, wird der Leser aufgefordert, sich ein Videoband mit dem Titel „Green Project User Interface" anzuschauen, das vom Anmelder zusammen mit der. Einreichung der Anmeldung, auf welcher dieses Patent basiert, vorgelegt wurde. - Es wird auf
3 Bezug genommen; wenn der Benutzer die Benutzerschnittstelle der vorliegenden Erfindung zum ersten Mal betritt, positioniert die Benutzerschnittstelle den Benutzer zu Anfang in einem Weltraum-Raum99 . Dieser Raum wird in der geographischen Kartenstruktur der Räume dargestellt, die in2b grafisch dargestellt sind. Obwohl der Benutzer zu Anfang in dem Weltraum-Raum99 plaziert wird, wird die Benutzerschnittstelle den Benutzer später als erstes in dem letzten Raum setzen, in dem der Benutzer war, als er die Verwendung der Handanzeigeeinrichtung beendete. Es wird erneut auf3 Bezug genommen; bei dem Weltraum-Raum99 gibt die Benutzerschnittstelle ein Erd-Portal100 mit leuchtenden Farben vor einem dunklen Weltraum-Hintergrundbild auf dem Anzeigebildschirm wieder. - Bald nach dem Betreten der Benutzerschnittstelle erscheint eine Kontur einer Hand
31 auf dem Anzeigebildschirm, um den Benutzer zu unterrichten, wie auf der Benutzerschnittstelle navigiert wird. Die Hand31 , die auf dem Anzeigebildschirm erscheint, ist die Hand des Assistenten. Die Hand31 des Assistenten streckt einen Finger aus, um den Bildschirm zu berühren und gleitet dann mit dem Finger über den Bildschirm, wodurch der Raum und die Objekte auf der Bildschirmanzeige zum Schwenken und die Benutzerschnittstelle zum Ausgeben des „Schwenken-Aktiv"-Klangs veranlasst werden. Es wird auf3 Bezug genommen; die Konturhand31 des Assistenten wird bei der Bewegung über den Bildschirm gezeigt. Durch Berühren des Anzeigebildschirms und Bewegen eines Fingers über den Anzeigebildschirm zeigt die Hand31 des Assistenten einem neuen Benutzer, wie die Schwenken-Geste verwendet wird, um sich in der Ansicht eines Raums zu bewegen. - Nachdem demonstriert worden ist, wie die Schwenken-Geste verwendet wird, um sich in einem Raum zu bewegen, demonstriert die Hand
31 des Assistenten als nächstes, wie die Zeigen- und Auswählen-Gesten verwendet werden. Der Assistent demonstriert, wie die Zeigen-Geste verwendet wird, um auf ein Objekt zu Zeigen, indem ein Finger auf dem Erd-Portal100 plaziert wird. Nachdem der Assistent auf das Erd-Portal100 Gezeigt hat, gibt die Benutzerschnittstelle den „Auswählbares-Objekt"-Klang aus, um eine Rückmeldung bereitzustellen, die den Benutzer informiert, daß das Erd-Portal100 ein Auswählbares Objekt ist. Der Assistent demonstriert dann, wie die Auswählen-Geste verwendet wird, um ein Objekt Auszuwählen, indem das Zeigen auf das Erd-Portal100 fortgesetzt wird. Nachdem die Hand31 des Assistenten für den vorherbestimmten Mindestzeitraum auf das Erd-Portal100 Gezeigt hat, antizipiert das Erd-Portal100 , und die CPU erzeugt den „Bewegen-durch-das-Portal"-Klang. Das Erd-Portal100 antizipiert, indem es schnell in der Weise expandiert, daß es den Anschein hat, als ob sich das Erd-Portal100 näher auf den Benutzer zu bewegt. Der Bildschirm verblaßt dann, und es erscheint ein neues Hintergrundbild, das den Erdoberflächen-Raum32 anzeigt, der dem Erd-Portal100 zugeordnet ist, wie in4 dargestellt. - Bei dem Erdoberflächen-Raum
32 scheint das Assistenten-Portal41 auf die Berührungsbildschirmanzeige37 zu „springen" und bewegt sich in die untere linke Ecke des Anzeigebildschirms. Der Assistent41 ist für den Benutzer immer erreichbar, da der Assistent in jedem Raum außer dem Assistenten-Raum erscheint. Falls gewünscht, kann der Benutzer den Assistenten aus der linken unteren Ecke an einen anderen Ort auf dem Anzeigebildschirm verlagern. Diese Verlagerung des Assistenten verändert den Ort des Assistenten in jedem Raum. - Es wird auf
4 Bezug genommen; in der unteren rechten Ecke der Anzeige befindet sich das Rückweg-Portal45 . Das Rückweg-Portal45 zeigt eine Einzelbild-Momentaufnahme des Weltraum-Raums99 aus3 , aus welchem der Benutzer gerade kam. Wenn der Benutzer das Rückweg-Portal45 Auswählt, bewegt die Benutzerschnittstelle der vorliegenden Erfindung den Benutzer auf dem durchlaufenen Pfad zurück in den Raum, der in dem Rückweg-Portal45 dargestellt ist. Wenn beispielsweise der Benutzer den Wunsch hat, in den Weltraum-Raum99 zurückzukehren, der in dem Rückweg-Portal45 ange zeigt wird, Wählt der Benutzer einfach das Rückweg-Portal45 aus. - Der Erdoberflächen-Raum
32 , der in4 bildlich dargestellt ist, besteht aus einer Anzahl von Häusern und Gebäuden für die Allgemeinheit, wie beispielsweise Geschäften, Banken, Schulen etc. Jedes Gebäude in dem Erdoberflächen-Raum32 repräsentiert ein Portal, das von dem Benutzer Ausgewählt werden kann, um den Benutzer zu einem Raum zu bewegen, der dem Portal zugeordnet ist. Beispielweise sind in dem Erdoberflächen-Raum, der in4 bildlich dargestellt ist, das erste Haus47 und das zweite Haus48 Portale, die von dem Benutzer Ausgewählt werden können. Wenn der Benutzer entweder das erste Haus47 oder das zweite Haus48 Auswählt, wird der Benutzer in einen zugeordneten Haus-Raum bewegt. - Während sich der Benutzer in dem Erdoberflächen-Raum, der in
4 bildlich dargestellt ist, befindet, kann er sich in dem Raum bewegen, indem er die Schwenken-Geste auf dem Berührungsbildschirm verwendet, wie es von der Hand31 des Assistenten in3 demonstriert wurde. Um zu Schwenken, plaziert der Benutzer einfach einen Finger auf dem Bildschirm und bewegt den Finger in die Richtung, in die er sich bewegen möchte. Die Benutzerschnittstelle reagiert auf die Fingerbewegung des Benutzers, indem sie den „Schwenken-Aktiv"-Klang erzeugt und das Hintergrundbild und die Objekte auf dem Bildschirm in die entgegengesetzte Richtung der Fingerbewegung bewegt, wodurch andere Objekte zur Ansicht gebracht werden. - Wenn beispielsweise ein Benutzer, der den Erdoberflächen-Raum
32 im Blick hat, wie in4 bildlich dargestellt, den Wunsch hat, sich nach rechts zu bewegen, plaziert der Benutzer einfach einen Finger auf dem Hintergrundgebiet des Erdoberflächen-Raums32 und gleitet mit dem Finger nach rechts. Die Benutzerschnittstelle reagiert in umgekehrter Weise auf die Fingerbewegung des Benutzers, indem sie das Hintergrundbild des Raums und die Objekte in dem Raum nach links bewegt.5 stellt die Ansicht des Erdoberflächen-Raums32 bildlich dar, nachdem der Benutzer einen Finger auf das Hintergrundgebiet von4 plaziert hat und mit dem Finger nach rechts geglitten ist. Ein Erstes-Haus-Portal47 , das in4 angezeigt wird, hat sich aus dem Blickfeld herausbewegt und ist in5 nicht sichtbar. Ein Zweites-Haus-Portal48 , das auf der rechten Seite der Ansicht in4 angezeigt wird, hat sich auf die linke Seite der Ansicht in5 bewegt und ist nun nur teilweise sichtbar. Ein Bank-Portal49 , das in4 nicht sichtbar war, hat sich von rechts in die Ansicht bewegt, wie in5 dargestellt. Das Assistenten-Portal41 und das Rückweg-Portal45 bleiben in der Ansicht in derselben unteren linken beziehungsweise rechten Position. - Wenn der Benutzer irgendein Portal aus dem Erdoberflächen-Raum
32 Auswählt, wie in4 und5 bildlich dargestellt, antizipiert das Ausgewählte Portal, um eine Rückmeldung an den Benutzer bereitzustellen, und die Benutzerschnittstelle bewegt den Benutzer in einen Raum, der dem Ausgewählten Portal zugeordnet ist. Wenn beispielsweise ein Benutzer an dem Erdoberflächen-Raum32 , der in4 bildlich dargestellt ist, das Erste-Haus-Portal47 Auswählt, antizipiert das Haus-Portal47 , und dann bewegt die Benutzerschnittstelle den Benutzer in einen Haus-Raum, der dem Haus-Portal47 zugeordnet ist.6 stellt einen Haus-Raum50 dar, der dem Haus-Portal47 aus4 zugeordnet ist. - Der in
6 angezeigte Haus-Raum50 besteht aus einem Haus mit entfernten Außenwänden, so daß die einzelnen Räume im Inneren des Hauses sichtbar sind. Alle Räume im Inneren des Hauses, wie beispielsweise das in6 bildlich dargestellte Wohnzimmer54 , Schlafzimmer53 , Badezimmer55 , Mansarde52 und Küche56 , sind Portale, die von dem Benutzer Ausgewählt werden können. Wie in6 dargestellt, enthält das Rückweg-Portal45 eine Miniaturmomentaufnahme des Erdoberflächen-Raums32 , wie er erschien, als der Benutzer den vorhergehenden Raum verließ. Somit enthält das in6 bildlich dargestellte Rückweg-Portal45 nicht nur eine Miniaturansicht des Erdoberflächen-Raums32 , sondern auch eine Ansicht des Teils des Erdoberflächen-Raums32 , der in der Ansicht war, als der Benutzer das Haus-Portal47 aus4 Auswählte. Um sich in den Erdoberflächen-Raum aus4 zurückzubewegen, Wählt der Benutzer das Rückweg-Portal45 aus, das ein Momentaufnahmebild des Erdoberflächen-Raums enthält. - Es wird auf
6 Bezug genommen; wenn der Benutzer das Wohnzimmer-Portal54 Auswählt, antizipiert das Wohnzimmer-Portal54 , der „Bewegen-durch-das-Portal"-Klang wird erzeugt, und die Benutzerschnittstelle bewegt den Benutzer in einen Wohnzimmer-Raum, der dem Wohnzimmer-Portal54 zugeordnet ist. Es wird auf7 Bezug genommen; es wird ein Ausführungsbeispiel eines Wohnzimmer-Raums60 bildlich dargestellt. In dem Wohnzimmer-Raum60 aus7 befinden sich ein Fernsehgerät73 , ein Videokassettenrecorder75 und ein Fernsehprogramm-Listenverzeichnis71 . Das Fernsehgerät73 , der Videokassettenrecorder75 und das Fernsehprogramm-Listenverzeichnis71 sind jeweils Portale, die von dem Benutzer ausgewählt werden können. Das Fernsehgerät-Portal73 und das Videokassettenrecorder-Portal75 sind einem realen Fernsehgerät beziehungsweise Videokassettenrecorder zugeordnet. - Wenn ein Benutzer das Fernsehgerät-Portal
73 Auswählt, das in dem Wohnzimmer-Raum60 von7 angezeigt wird, antizipiert das Fernsehgerät-Portal73 , und die Benutzerschnittstelle zeigt eine grafische Benutzerschnittstelle an, die dem realen Fernsehgerät zugeordnet ist.8 stellt den Fernsehsteuerungs-Raum64 bildlich dar, welcher die grafische Benutzerschnittstelle des Fernsehgeräts in dem vorliegenden Ausführungsbeispiel aufweist. Die im Fernseh-Raum64 verfügbaren Objekte umfassen eine grüne „Ein"-Schaltflä che61 , eine rote „Aus"-Schaltfläche62 und verschiedene Fernsehkanal-Schaltflächen66–69 . Die Fernsehkanal-Schaltflächen66–69 befinden sich auf einem horizontal ausgerichteten Objektrad63 in der Weise, daß ein Benutzer das Objektrad63 schnell nach links oder rechts Drehen kann, um zusätzliche Fernsehkanal-Schaltflächen sichtbar zu machen, die auf dem Anzeigebildschirm aktuell nicht angezeigt werden. - Das Ein-Schaltflächenobjekt
61 , das Aus-Schaltflächenobjekt62 und die Fernsehkanal-Schaltflächenobjekte66–69 , die in dem Fernseh-Raum64 verfügbar sind, sind keine Portale, die den Zugang zu anderen Räumen in der Raum-Karte aus1b ermöglichen. Statt dessen sind die Ein-Schaltfläche61 , die Aus-Schaltfläche62 und die Fernsehkanal-Schaltflächen66–69 Schaltflächen, denen Funktionen zugeordnet sind. Beispielsweise sind die grüne „Ein"-Schaltfläche61 und die rote „Aus"-Schaltfläche62 den Funktionen „Schalte das Fernsehgerät ein" beziehungsweise „Schalte das Fernsehgerät aus" zugeordnet. Wenn ein Benutzer entweder die Ein- oder Aus-Schaltfläche Auswählt, antizipiert die Schaltfläche, um eine Rückmeldung für den Benutzer bereitzustellen, daß die Schaltfläche Ausgewählt wurde. Die Handanzeigeeinrichtung sendet dann die entsprechenden Befehle, die das Fernsehgerät ein- oder ausschalten. In ähnlicher Weise antizipiert die Fernsehkanal-Schaltfläche, wenn der Benutzer irgendeine der Fernsehkanal-Schaltflächen66–69 Auswählt, und die Handanzeigeeinrichtung sendet dann die entsprechenden Befehle an das reale Fernsehgerät, womit das Fernsehgerät auf den Ausgewählten Kanal eingestellt wird. Der Prozeß des Sendens von Befehlen an das physische Fernsehgerät wird im folgenden Abschnitt im Detail erläutert. - Es wird wieder auf
7 Bezug genommen; wenn ein Benutzer das Fernsehprogramm-Listenverzeichnis-Portal71 Auswählt, antizipiert das Fernsehprogramm-Listenverzeichnis-Portal71 , und die Benutzerschnittstelle bewegt den Benutzer in den Fernsehprogramm-Listenverzeichnis-Raum.9 stellt den Fernsehprogramm-Listenverzeichnis-Raum der vorliegenden Erfindung bildlich dar. In dem Fernsehprogramm-Listenverzeichnis-Raum von9 wird dem Benutzer ein zweidimensionaler Bereich von Fernsehprogramm-Listen präsentiert. In dem Bereich sind die Fernsehprogramm-Listen vertikal nach Fernsehkanal und horizontal nach der Zeit geordnet. Jede Fernsehprogramm-Liste ist ein Portal, das von dem Benutzer Ausgewählt werden kann. Jede Fernsehprogramm-Liste kann auch vom Benutzer transportiert werden und auf einem Videokassettenrecorder-Portal in der Weise Abgesetzt werden, daß die Handanzeigeeinrichtung den Videokassettenrecorder so programmiert, daß das Fernsehprogramm aufgezeichnet wird. - Der Fernsehprogramm-Listenverzeichnis-Raum von
9 ist tatsächlich als ein Paar verbundener, vertikal orientierter Objekträder organisiert. Es wird auf11 Bezug genommen; es wird eine konzeptionelle Darstellung des Fernsehprogramm-Listenverzeichnis-Raums dargestellt. Die Fernsehkanäle aus9 sind auf einem ersten Objektrad72 plaziert, wie in11 dargestellt. Die Fernsehprogrammlisten sind auf einem zweiten Objektrad85 plaziert. Die zwei Objekträder72 und85 sind in der Weise verbunden, daß, wenn der Benutzer ein Objektrad schnell Dreht, sich das andere Objektrad mit derselben Geschwindigkeit dreht, so daß die Fernsehkanäle und die Fernsehprogramm-Listen immer ausgerichtet sind. - Jede Fernsehprogrammliste auf dem Fernsehprogramm-Verzeichnisobjektrad
85 ist ein Portal. Wenn ein Benutzer eines der Fernsehprogrammlisten-Portale Auswählt, antizipiert das Fernsehprogrammlisten-Portal, und die Benutzerschnittstelle bewegt den Benutzer in einen Fernsehprogramminformations-Raum.10 stellt einen typischen Fernsehprogramminformations-Raum dar. Der Fernsehprogramminformations-Raum enthält eine Uhr81 , ein Datum82 und einen Fernsehkanal83 , welche den Benutzer informieren, wann das Fernsehprogramm läuft und auf welchem Kanal es läuft. Der Fernsehprogramminformations-Raum enthält ebenfalls eine Beschreibung des Fernsehprogramms, wie in10 dargestellt. - Der Assistent
- Der Assistent ist ein anthropomorphisches Zeichen, das dazu bestimmt ist, einem Benutzer der vorliegenden Erfindung auf eine mehrere zu helfen. Der Assistent unterstützt Benutzer, indem er Hilfe bereitstellt, indem er Zustandsinformationen bereitstellt, indem er den Benutzer bezüglich bestimmter Ereignisse alarmiert, und indem er als Depot wirkt. Jede Funktion, die der Assistent ausführt, wird einzeln erläutert.
- Hilfe
- Wie vorher in dem Rundgang des vorliegenden Ausführungsbeispiels unter Bezugnahme auf
3 beschrieben wurde, demonstriert der Assistent, wenn ein Benutzer zum ersten Mal die Benutzerschnittstelle der vorliegenden Erfindung betritt, wie die Zeigen-Geste und Auswählen-Geste verwendet werden. Ferner demonstriert der Assistent, wie die Schwenken-Geste verwendet wird, um sich in einem Raum zu bewegen. Der Assistent kann ebenfalls demonstrieren, wie andere Eigenschaften der Benutzerschnittstelle verwendet werden, je nach Notwendigkeit. - Um Benutzer weiter zu unterstützen, transportiert der Assistent ein Hilfe-Handbuch in seiner Aktentaschen, das dem Benutzer jederzeit zur Verfügung steht. Um auf das Hilfe-Handbuch zuzugreifen, Wählt der Benutzer einfach das Assistenten-Portal aus. Der Assistent antizipiert, indem er eine Animation des Assistenten bereitstellt, in der er seine Aktentasche öffnet. Der Benutzer Wählt dann das Hilfe-Handbuch aus der Aktentasche des Assistenten aus.
- Zustand- und Modusinformationen
- Der Assistent wird ebenfalls verwendet, um den aktuellen Zustand oder Modus der Benutzerschnittstelle auszudrücken. Um den aktuellen Zustand oder Modus auszudrücken, verändert der Assistent seine Kleidung, verändert seinen Ausdruck, oder verändert die Requisiten, die er trägt.
- Wenn beispielweise die Benutzerschnittstelle der vorliegenden Erfindung in einen Diagnostik-Modus versetzt wird, wird die Kleidung verändert, die der Assistent trägt, um diese Tatsache zu mitzuteilen. Es wird auf
17a Bezug genommen; der Assistent wird in Arztkleidung dargestellt, um zu symbolisieren, daß sich die Benutzerschnittstelle in einem Diagnostik-Modus befindet. -
17b stellt ein anderes Beispiel dafür bereit, wie das Erscheinungsbild des Assistenten Zustandsinformationen mitteilen kann. Wenn sich die Benutzerschnittstelle in einem Schreib-Zustand befindet, wird dem Assistenten ein Bleistift gegeben, um zu symbolisieren, daß sich die Benutzerschnittstelle in einem Schreib-Zustand befindet. - Alarme
- Während ein Benutzer die Handanzeigeeinrichtung der vorliegenden Erfindung verwendet, können bestimmte Ereignisse eintreten, die es erforderlich machen, daß der Benutzer unverzüglich informiert wird. Derartige Ereignisse werden üblicherweise als Alarme bezeichnet. Wenn beispielsweise die Handanzeigeeinrichtung mit einem elektronischen Nachrichtendienst gekoppelt ist, sollte die Handanzeigeeinrichtung den Benutzer alarmieren, wenn eine Nachricht eingegangen ist, die an den Benutzer adressiert ist.
- In der Benutzerschnittstelle der vorliegenden Erfindung wird der Assistent verwendet, um die Aufmerksamkeit des Benutzers zu erhalten, um den Benutzer über Alarme zu informieren. Um die Aufmerksamkeit des Benutzers zu erhalten, winkt der Assistent mit der Hand. Zusätzlich kann der Assi stent mit beiden Armen winken oder Klänge erzeugen, wenn der Alarm sehr wichtig ist, um weiterhin die Aufmerksamkeit des Benutzers auf sich zu ziehen.
- Wenn beispielsweise ein Ereignis eintritt, das die Aufmerksamkeit des Benutzers erfordert, beginnt der Assistent zu winken, wie in
17c dargestellt. Um zu erklären, was den Alarm verursacht hat, kann ferner das Erscheinungsbild des Assistenten verändert werden, wie im vorhergehenden Abschnitt demonstriert, um Informationen über den spezifischen Alarm mitzuteilen. Wenn beispielsweise eine dringende Nachricht eingeht, kann der Assistent mit einer Hand winken, während er in der anderen Hand ein Telegramm hält. - Da Alarme im Allgemeinen wichtiger sind als Zustands- oder Modusinformationen erhalten Alarme den Vorrang gegenüber Zustands- oder Modusinformationen. Wenn das Bild des Assistenten aktuell verwendet wird, um Zustands- oder Modusinformationen mitzuteilen, verändert sich daher beim Eintreten eines wichtigen Ereignisse das Bild des Assistenten, um die Aufmerksamkeit des Benutzers auf sich zulenken und den Benutzer über den Alarm zu informieren. Wenn der Assistent beispielsweise im Schreib-Modus einen Bleistift hält, wie in
17b dargestellt, wird der Assistent beim Eingang einer dringenden Nachricht sofort in die Wink-Animation wechseln, wie in17c dargestellt, um den Benutzer über die Nachricht zu informieren. - Steuerung entfernter Einrichtungen
- Die Handanzeigeeinrichtung der vorliegenden Erfindung ist für die Steuerung entfernter Einrichtungen konzipiert. Dementsprechend ist die Benutzerschnittstelle, die in dem vorhergehenden Abschnitt für die Handanzeigeeinrichtung definiert wurde, so konzipiert, daß sie eine ideale grafische Benutzerschnittstelle für die Steuerung entfernter Geräte ist. Um beispielsweise eine Einrichtung im Wohnzimmer des Benutzers zu steuern, bewegt sich ein Benutzer zuerst in den Wohnzimmer-Raum
60 der Benutzerschnittstelle, wie in7 dargestellt. Dann Wählt der Benutzer ein Objekt aus, das einer Einrichtung entspricht, die der Benutzer steuern möchte. Wenn der Benutzer beispielsweise den Wunsch hat, ein Fernsehgerät zu steuern, Wählt der Benutzer das Fernseh-Portal73 aus, das einem realen Fernsehgerät zugeordnet ist. Wenn der Benutzer das Fernseh-Portal73 Auswählt, antizipiert das Fernseh-Portal73 und zeigt dann eine grafische Benutzerschnittstelle für die Steuerung des physischen Fernsehgeräts im Wohnzimmer des Benutzers an.8 stellt ein mögliches Ausführungsbeispiel für einen Satz von Fernsehsteuerungen für das Steuern eines Fernsehgeräts dar. Der Benutzer steuert dann das Fernsehgerät, indem er den Satz von Fernsehsteuerungen verwendet, der auf der Handanzeigeeinrichtung angezeigt wird. - Damit eine entfernte Einrichtung von der Handanzeigeeinrichtung gesteuert werden, muß die Handanzeigeeinrichtung bestimmte Informationen über die entfernte Einrichtung haben. Insbesondere muß die Handanzeigeeinrichtung mit einem Objekt-orientierten Programmierungstyp des Objekts versehen sein, dem die entfernte Einrichtung zugeordnet ist. Das Objekt weist eine Mehrzahl von Verfahren auf, einschließlich eines Verfahrens zum Anzeigen des Objekts auf dem Anzeigebildschirm der Handanzeigeeinrichtung und eines Verfahrens zum Anzeigen der grafischen Benutzerschnittstelle für die entfernte Einrichtung.
- Um den Betrieb der vorliegenden Erfindung zu vereinfachen, sendet jede kompatible entfernte Einrichtung automatisch den benötigten Objekt-orientierten Programmierungstyp des Objekts an die Handanzeigeeinrichtung. Wenn eine entfernte Einrichtung das Objekt an die Handanzeigeeinrichtung sendet, ruft die Handanzeigeeinrichtung das Verfahren zum Anzeigen des Objekts auf dem Anzeigebildschirm auf. Der Benutzer kann dann das Objekt in einen entsprechenden Raum be wegen. Wenn der Benutzer das Objekt Auswählt, antizipiert das Ausgewählte Objekt, und dann wird das Verfahren zum Anzeigen der grafischen Benutzerschnittstelle aufgerufen. Das Verfahren zeigt die grafische Benutzerschnittstelle der entfernten Einrichtung auf der Berührungsbildschirmanzeige der Handanzeigeeinrichtung an. Der Benutzer kann dann die entfernte Einrichtung durch Interagieren mit der grafischen Benutzerschnittstelle der entfernten Einrichtung auf der Berührungsbildschirmanzeige steuern.
- Die Handanzeigeeinrichtung der vorliegenden Erfindung erhält automatisch eine grafische Benutzerschnittstelle von zwei Typen kompatibler entfernter Einrichtungen. Der erste Typ einer kompatiblen entfernten Einrichtung ist die intelligente entfernte Einrichtung mit einem speziellen Computersteuerungssystem. Der zweite Typ einer kompatiblen entfernten Einrichtung ist eine einfache entfernte Einrichtung, die nur auf einfache codierte Befehle reagieren kann.
- Die Handanzeigeeinrichtung interagiert unterschiedlich mit den zwei Typen von kompatiblen entfernten Einrichtungen. Die Handanzeigeeinrichtung kommuniziert mit intelligenten entfernten Einrichtungen unter Verwendung der Peer-to-Peer-Kommunikation mit entferntem Methoden- bzw. Verfahrensaufruf für die Steuerung der entfernten Einrichtung. Die Handanzeigeeinrichtung kommuniziert mit einfachen entfernten Einrichtungen durch Verwenden nur einfacher Steuercodes. Aus der Perspektive des Benutzers können die Unterschiede zwischen intelligenten entfernten Einrichtungen und einfachen entfernten Einrichtungen nicht gesehen werden, und die Interaktion des Benutzers mit der grafischen Benutzerschnittstelle ist für beide Typen von entfernten Einrichtungen identisch. Das Implementierungsdetail, ob die Aktion eines Benutzers einen entfernten Verfahrensaufruf oder die Übertragung von Steuercodes über einen Kommunikationsmechanismus veranlagt, bleibt dem Benutzer verborgen.
- Dieser Abschnitt wird erläutern, wie die zwei Typen von entfernten Einrichtungen Informationen an die Handanzeigeeinrichtung senden. Ferner wird ein dritter Typ einer entfernten Einrichtung erläutert. Der dritte Typ der Einrichtung besteht aus irgendeiner elektrischen Einrichtung, die von codierten Infrarotsignalen gesteuert werden kann.
- In diesem Abschnitt wird auf objekt-orientierte Programmierungstypobjekte Bezug genommen. Jeder objekt-orientierte Programmierungstyp des Objekts enthält Daten und Verfahren, die aufgerufen werden können, um Funktionen auszuführen. Um die verwendete Terminologie zu vereinfachen, wird der Begriff „Programmobjekt" verwendet, wenn auf einen objektorientierten Programmierungstyp des Objekts Bezug genommen wird. Um Verwirrung zu beseitigen, werden die Objekte, die auf der Berührungsbildschirmanzeige in der Benutzerschnittstelle, die in der vorherigen Benutzerschnittstelle offenbart wurde, in diesem Abschnitt als „Anzeigeobjekte" bezeichnet.
- Peer-to-Peer-Kommunikation mit entferntem Verfahrensaufruf
- In der vorliegenden Erfindung wird eine entfernte Einrichtung als eine „intelligente entfernte Einrichtung" bezeichnet, wenn diese entfernte Einrichtung einen Mikroprozessor, ein Kommunikationssystem und einen ausreichenden Speicherumfang enthält, so daß sie Verfahren in einem Programmobjekt aufrufen kann.
1c stellt in einer Blockdarstellung die Komponenten in einer intelligenten entfernten Einrichtung dar. Die Handanzeigeeinrichtung der vorliegenden Erfindung kommuniziert mit intelligenten entfernten Einrichtungen in einer Peer-to-Peer-Weise. - Die intelligente entfernte Einrichtung hat eine zugeordnete grafische Benutzerschnittstelle, die Berührungsbildschirm-Steuerelemente, wie beispielsweise Wähleinrichtungen, Schalter, Schieber etc., aufweist. Die grafische Be nutzerschnittstelle der intelligenten entfernten Einrichtung ist in einem Benutzerschnittstellen-Programmobjekt
303 definiert, das im Speicher404 der intelligenten entfernten Einrichtung gespeichert ist. Wenn eine intelligente entfernte Einrichtung zum ersten Mal eingeschaltet wird, sendet die intelligente entfernte Einrichtung automatisch ihr Benutzerschnittstellen-Programmobjekt303 an die Handanzeigeeinrichtung. Die Handanzeigeeinrichtung kann dann die Benutzerschnittstelle für die intelligente entfernte Einrichtung, wie sie durch das Benutzerschnittstellen-Programmobjekt definiert ist, anzeigen. - Wenn ein Benutzer mit der grafischen Benutzerschnittstelle der intelligenten entfernten Einrichtung interagiert, die auf der Handanzeigeeinrichtung angezeigt wird, ruft die Handanzeigeeinrichtung Verfahren in einem Einrichtungstreiber-Programmobjekt
301 in der intelligenten entfernten Einrichtung auf, um die entfernte Einrichtung zu steuern. Somit ist die Software, die tatsächlich eine intelligente entfernte Einrichtung „steuert", in der intelligenten entfernten Einrichtung selbst angeordnet. - Das Verfahren, das Benutzerschnittstellen-Programmobjekt
303 von einer intelligenten entfernten Einrichtung an die Handanzeigeeinrichtung zu senden, wird unter Bezugnahme auf die18a–18d ,19a–19d und das Flußdiagramm in20 offenbart.18a–18d stellen auf hoher Ebene dar, wie die intelligente entfernte Einrichtung150 und die Handanzeigeeinrichtung170 der vorliegenden Erfindung miteinander kommunizieren.19a–19d stellen in konzeptioneller Form dar, wie das Benutzerschnittstellen-Programmobjekt303 in der intelligenten entfernten Einrichtung150 an die Handanzeigeeinrichtung170 gesendet wird. - Es wird auf Schritt
101 von20 Bezug genommen; wenn eine neue intelligente entfernte Einrichtung150 , wie beispielsweise die intelligente Thermostat-Steuereinrichtung in18a , zum ersten Mal eingeschaltet wird, sendet die neue intelligente entfernte Einrichtung150 über das Kommunikationsnetzwerk160 , daß sie ein Benutzerschnittstellen-Programmobjekt zu exportieren hat. Wie im Abschnitt über die Hardware dargelegt, kann die Kommunikation auf dem Kommunikationsnetzwerk160 unter Verwendung von Funkwellen, leistungsarmen, mobilen, infraroten Signalen oder elektrischen Signalen auf den vorhandenen Stromleitungen im Fall eines Echelon®baseLON®-Systems stattfinden. In Schritt102 empfängt eine Handanzeigeeinrichtung170 die Schnittstellen-Export-Nachricht. Die Handanzeigeeinrichtung170 signalisiert über das Kommunikationsnetzwerk160 an die neue intelligente entfernte Einrichtung150 zurück und fordert die neue intelligente entfernte Einrichtung150 auf, mit dem Senden des Benutzerschnittstellenobjekts303 zu beginnen. - Die intelligente entfernte Einrichtung
150 sendet dann das Benutzerschnittstellenobjekt303 an die Anzeigeeinrichtung170 , wie in Schritt103 von20 spezifiziert und in18a dargestellt wird. Es wird auf19a Bezug genommen; die intelligente entfernte Einrichtung150 sendet auch einen Zeiger (wie durch gepunktete Linien angezeigt) an ein Einrichtungstreiber-Programmobjekt301 in der intelligenten entfernten Einrichtung150 . Das Benutzerschnittstellen-Programmobjekt303 definiert, wie die Benutzerschnittstelle für die intelligente entfernte Einrichtung150 auf einem Anzeigebildschirm erscheinen sollte. Das Benutzerschnittstellen-Programmobjekt303 ruft Verfahren in einem Einrichtungstreiber-Programmobjekt301 auf, um die Benutzerschnittstellen-Interaktionen zu behandeln. Das Einrichtungstreiber-Programmobjekt301 enthält Verfahren, die die aktuelle intelligente entfernte Einrichtung150 steuern. Es wird auf19b Bezug genommen; die Anzeigeeinrichtung170 hat nun eine Kopie des Benutzerschnittstellen-Programmobjekts der intelligenten Einrichtung313 und einen Einrichtungstreiber-Programmobjektzeiger311 . - Nach dem Empfang des Benutzerschnittstellen-Programmobjekts
313 ruft die Handanzeigeeinrichtung170 ein Verfahren in dem Benutzerschnittstellen-Programmobjekt313 auf, das ein Anzeigeobjekt in dem aktuellen Raum wiedergibt, wie in Schritt104 dargelegt. Die neue intelligente Einrichtung150 registriert sich auch bei einem entfernten Namen-Server, der mit dem Kommunikationsnetzwerk160 verbunden ist. - Wenn ein Benutzer das Anzeigeobjekt Auswählt, das der neuen intelligenten entfernten Einrichtung
150 zugeordnet ist, ruft die Handanzeigeeinrichtung170 ein Verfahren in dem Benutzerschnittstellen-Programmobjekt313 auf, wie in Schritt105 dargelegt (das Objekt mit einem aufgerufenen Verfahren ist im Fettdruck dargestellt). Das Verfahren, das in dem Benutzerschnittstellen-Programmobjekt313 aufgerufen wird, zeigt die grafische Benutzerschnittstelle der entfernten intelligenten Einrichtung auf dem Anzeigeschirm171 der Anzeigeeinrichtung170 an, wie in Figur 18b dargestellt. Ein Benutzer kann mit der grafischen Benutzerschnittstelle der entfernten intelligenten Einrichtung, die auf der Anzeigeeinrichtung170 angezeigt wird, interagieren, wie in Schritt106 dargelegt. - Der Benutzer steuert die intelligente entfernte Einrichtung
150 , indem er mit der grafischen Benutzerschnittstelle, die auf der Handanzeigeeinrichtung170 angezeigt wird, interagiert. Um die Interaktionen des Benutzers aufzulösen, benötigt das Benutzerschnittstellen-Programmobjekt313 Steuerungsverfahren in dem Einrichtungstreiber-Programmobjekt301 der intelligenten entfernten Einrichtung. Um auf die Steuerungsverfahren des Einrichtungstreiber-Programmobjekts301 der intelligenten entfernten Einrichtung zuzugreifen, verwendet die Handanzeigeeinrichtung170 den Einrichtungstreiber-Programmobjektzeiger311 . Der Einrichtungstreiber-Programmobjektzeiger311 ruft die Verfahren in dem realen Einrichtungstreiber-Programmobjekt301 auf. Das Einrichtungstreiber-Programmobjekt301 der intelligenten entfernten Einrichtung wird aufgerufen, indem eine Nachricht über das Kommunikationsnetzwerk160 gesendet wird, wie in18c und19c dargestellt (wieder ist das Objekt mit einem aufgerufenen Verfahren im Fettdruck dargestellt). Die aufgerufenen Verfahren in dem Einrichtungstreiber-Programmobjekt301 der intelligenten entfernten Einrichtung steuern die intelligente Einrichtung150 , wie in Schritt108 dargelegt. - Schließlich werden in Schritt
109 alle Rückgabewerte oder Rückmeldungen, die von dem Einrichtungstreiber-Programmobjekt301 in der intelligenten entfernten Einrichtung150 erzeugt werden, an die Handanzeigeeinrichtung170 über das Kommunikationsnetzwerk160 zurückgesendet, wie in18d und19d dargestellt. Das Benutzerschnittstellen-Programmobjekt313 verändert die grafische Benutzerschnittstelle auf dem Anzeigebildschirm171 als Reaktion auf die Rückgabewerte oder Rückmeldungen, die von Einrichtungstreiber-Programmobjekt301 in der intelligenten entfernten Einrichtung150 empfangen wurden. - Ein stabiles Kommunikationsprotokoll über das Kommunikationsnetzwerk
160 ist erforderlich, um entfernte Verfahrensaufrufe zwischen der Handanzeigeeinrichtung170 und der intelligenten entfernten Einrichtung150 zu übermitteln. Sowohl die Handanzeigeeinrichtung170 , die den Verfahrensaufruf anfordert, als auch die intelligente entfernte Einrichtung150 , die das Verfahren ausführt, müssen in der Lage sein, einen unterbrochenen Kommunikationspfad zu behandeln. Daher verfügt sowohl die Handanzeigeeinrichtung170 als auch die intelligente entfernte Einrichtung150 über einen speziellen Aufruf-einer-entfernten-Prozedur(RPC)-Manager, der den Aufruf entfernter Verfahren behandelt. Es wird auf19a–19d Bezug genommen; der Aufruf-Manager309 für eine entfernte Prozedur sendet die Anforderung für den Aufruf eines entfernten Verfahrens für die Handanzeigeeinrichtung170 . Auf der anderen Seite verarbeitet ein Server- Aufruf-Manager307 für eine entfernte Prozedur den empfangenen Aufruf für das entfernte Verfahren in einer intelligenten entfernten Einrichtung150 . -
21a und21b stellen Zustandsdiagramme dar, die zur Steuerung der Aufruf-einer-entfernten-Prozedur(RPC)-Manager verwendet werden, die den Aufruf entfernter Verfahren sowohl auf der Seite der Handanzeigeeinrichtung170 als auch auf der Seite der entfernten Einrichtung behandeln. Zusammen genommen offenbaren die Zustandsdiagramme in den21a und21b einen Handshake, der zwischen der Handanzeigeeinrichtung170 und der intelligenten entfernten Einrichtung150 verwendet wird, um eine zuverlässige Kommunikationen zu sichern. -
21a stellt einen Automaten für den Aufruf-einer-entfernten-Prozedur-Manager309 in der Handanzeigeeinrichtung170 dar, der die Seite der Anzeigeeinrichtung eines Aufrufs für ein entferntes Verfahren behandelt. Bei der vorliegenden Erfindung verlangt das Benutzerschnittstellen-Programmobjekt313 in der Handanzeigeeinrichtung170 Aufrufe für entfernte Verfahren für die Einrichtungstreiber-Programmobjekte301 , die in den intelligenten entfernten Einrichtung angeordnet sind. Es wird auf21a Bezug genommen; wenn ein Benutzerschnittstellenobjekt den Aufruf eines entfernten Verfahrens verlangt, tritt der RPC-Manager der Handanzeigeeinrichtung in den „Bereit-zum-Senden"-Zustand403 ein. Der RPC-Manager der Anzeigeeinrichtung setzt dann einen Fehler-Zeitkontroll-Zeitgeber und sendet ein Paket, das eine Nachricht mit einem Verfahrensselektor und zugehörigen Daten enthält. Nach dem Senden des Pakets tritt der RPC-Manager der Anzeigeeinrichtung in einen „Warten-auf-Rückantwort"-Zustand405 ein. Wenn die richtige Rückantwortnachricht zurückgesendet wird, ist der Verfahrensaufruf abgeschlossen und die Rückantwortnachricht wird bei Zustand407 analysiert. - Aufrufe für entfernte Verfahren sind nicht immer so problemlos abzuschließen. Wenn das Einrichtungstreiber-Programmobjekt
301 in der intelligenten entfernten Einrichtung150 mehr Zeit benötigt, um das Verfahren abzuschließen, sendet es eine Nachricht zurück, um mehr Zeit anzufordern. Der RPC-Manager der Anzeigeeinrichtung antwortet, indem er sich in den Zustand409 bewegt, wo er den Zeitüberschreitungswert erhöht. Wenn der RPC-Manager der Anzeigeeinrichtung bis zu dem Zeitpunkt, wenn der Fehler-Zeitkontroll-Zeitgeber abläuft, keine Rückantwort erhält, bewegt sich der RPC-Manager der Anzeigeeinrichtung in einen „Fehlerbehebung"-Zustand411 . Wenn der Fehler-Zeitkontroll-Zeitgeber weniger oft als eine vorherbestimmte Zahl abläuft, kehrt der RPC-Manager in den „Bereit-zum-Senden"-Zustand403 zurück. Wenn der Fehler-Zeitkontroll-Zeitgeber einen vorherbestimmten Grenzwert erreicht, gibt der RPC-Manager der Anzeigeeinrichtung den Aufruf für das entfernte Verfahren auf und tritt in einen Fehlgeschlagen-Zustand413 ein. Der Benutzer wird dann normalerweise über das Kommunikationsproblem informiert. -
21b stellt eine Zustandsmaschine bzw. einen Automaten für einen Aufruf-einer-entfernten-Prozedur-Manager307 in einer intelligenten entfernten Einrichtung dar, der die Seite der entfernten Einrichtung eines Aufrufs für ein entferntes Verfahren behandelt. Der RPC-Manager307 der entfernten Einrichtung beginnt in einem „Warten-auf-Empfangen"-Zustand451 . Wenn ein Paket empfangen wird, analysiert der RPC-Manager der entfernten Einrichtung das Paket bei Zustand453 . Wenn das empfangene Paket eine neue Nachricht enthält, die einen Verfahrensaufruf anfordert, übergibt der RPC-Manager der entfernten Einrichtung das Paket an ein Objekt, das das Verfahren der Anforderung bei Zustand455 ausführt. Der RPC-Manager der entfernten Einrichtung sendet dann ein Ergebnis und kehrt in den Wartezustand451 zurück. - Wenn das empfangene Paket eine Nachricht enthält, die die entfernte Einrichtung bereits gesehen hat, bewegt sich der RPC-Manager der intelligenten entfernten Einrichtung in Zustand
457 , wo die intelligente entfernte Einrichtung bestimmt, ob die Methodenaufrufanforderung bereits abgeschlossen war oder ob sie noch an der Anforderung arbeitet. Wenn die intelligente entfernte Einrichtung die Anforderung bereits abgeschlossen hat, sendet das Teilsystem die Ergebnisse bei Zustand459 erneut und kehrt in den Wartezustand451 zurück. Wenn andernfalls die intelligente entfernte Einrichtung noch an dem Methodenaufruf arbeitet, bewegt sich der RPC-Manager der entfernten Einrichtung in Zustand461 , wo der RPC-Manager der entfernten Einrichtung mehr Zeit anfordert, um das aufgerufene Verfahren abzuschließen und kehrt dann in den Wartezustand451 zurück. -
21c stellt die Abfolge eines Aufrufs für ein entferntes Verfahren dar, wenn es keine Kommunikationsprobleme gibt. Bei Schritt501 fordert ein Benutzerschnittstellenobjekt in der Handanzeigeeinrichtung den Aufruf für ein entferntes Verfahren an. Daher sendet das Benutzerschnittstellenobjekt eine Nachricht mit einem Verfahrensselektor und einem Argument an den RPC-Manager der Anzeigeeinrichtung. Der RPC-Manager der Anzeigeeinrichtung verpackt bei Schritt 502 die empfangene Nachricht in ein Paket und sendet das Paket bei Schritt503 über das Kommunikationsnetzwerk. - Der RPC-Manager der intelligenten entfernten Einrichtung empfängt das gesendete Paket bei Schritt
504 . Der RPC-Manager der entfernten Einrichtung entpackt bei Schritt505 die Nachricht aus dem Paket und richtet das Paket an das Einrichtungstreiber-Programmobjekt in der intelligenten entfernten Einrichtung. Das Einrichtungstreiber-Programmobjekt ruft bei Schritt506 das Verfahren auf, das von dem Verfahrensselektor in der Nachricht spezifiziert wird. Das Einrichtungstreiber-Programmobjekt erzeugt eine Erwiderungsnachricht, die an den RPC-Manager der entfernten Einrichtung zurückgeleitet wird. Bei Schritt507 packt der RPC-Manager der entfernten Einrichtung die Erwiderungsnachricht in einen Rückantwortpuffer. Der RPC-Manager der entfernten Einrichtung sendet den Rückantwortpuffer bei Schritt508 . - Der RPC-Manager der Anzeigeeinrichtung empfängt den Rückantwortpuffer bei Schritt
509 und entpackt bei Schritt510 den Rückantwortpuffer, um einen Rückgabewert zu extrahieren. Der RPC-Manager der Anzeigeeinrichtung liefert den Rückgabewert an das anfordernde Benutzerschnittstellen-Programmobjekt, welches das Verfahren in dem Einrichtungstreiber-Programmobjekt aufgerufen hat. Schließlich analysiert das Benutzerschnittstellen-Programmobjekt den Rückgabewert bei Schritt511 . - Wie dargestellt, kann die vorliegende Erfindung eine intelligente entfernte Einrichtung durch entferntes Aufrufen von Verfahren in einem Einrichtungstreiber-Programmobjekt, das in der intelligenten entfernten Einrichtung angeordnet ist, steuern. Außerdem wird dem Leser klar sein, daß die entfernte Einrichtung ebenfalls entfernt Verfahren in der Anzeigeeinrichtung aufrufen kann. Beispielsweise kann das Einrichtungstreiberobjekt in einer entfernten Einrichtung ein Verfahren in einem Benutzerschnittstellenobjekt in der Anzeigeinrichtung aufrufen, um eine Nachricht anzuzeigen.
- Viele entfernte Einrichtungen sind technisch nicht genügend fortgeschritten, um über interne Steuerungsverfahren zu verfügen, die von der Anzeigeeinrichtung aufgerufen werden können. Daher stellt die vorliegende Erfindung andere Verfahren für das Steuern einfacher Einrichtungen bereit.
- Steuerung einfacher Einrichtungen
- In der vorliegenden Erfindung wird eine entfernte Einrichtung als eine „einfache Einrichtung" definiert, wenn die entfernte Einrichtung keinen Mikroprozessor aufweist, oder wenn die entfernte Einrichtung einen derart primitiven Prozessor aufweist, daß die Anzeigeeinrichtung in der entfernten Einrichtung keine Steuerungsverfahren aufrufen kann.
1d zeigt in Form einer Blockdarstellung die Komponenten einer einfachen entfernten Einrichtung. Um eine einfache Einrichtung zu steuern, sendet die Handanzeigeeinrichtung der vorliegenden Erfindung einfache vordefinierte Steuercodes, anstatt Steuerungsverfahren in der einfachen entfernten Einrichtung aufzurufen. Daher muß die Handanzeigeeinrichtung zur Steuerung einer einfachen entfernten Einrichtung sowohl ein Benutzerschnittstellen-Programmobjekt als auch ein Einrichtungstreiber-Programmobjekt von der einfachen entfernten Einrichtung erhalten. - Ein Beispiel für den Erhalt eines Benutzerschnittstellen-Programmobjekts und eines Einrichtungstreiber-Programmobjekts von einer einfachen entfernten Einrichtung wird unter Bezugnahme auf die
22a–22d ,23a–23d und das Flußdiagramm24 gegeben. Die22a–22d stellen auf hoher Ebene dar, wie die einfache entfernte Einrichtung155 und die Handanzeigeeinrichtung170 der vorliegenden Erfindung miteinander kommunizieren. Die23a–23d stellen in konzeptioneller Form dar, wie das Benutzerschnittstellen-Programmobjekt353 und das Einrichtungstreiber-Programmobjekt351 der entfernten externen Einrichtung150 zu der Handanzeigeeinrichtung170 transportiert und verwendet werden. - Es wird auf
22a Bezug genommen; es wird ein Thermostat dargestellt, der als eine einfache entfernte Einrichtung155 implementiert ist. Wie von Schritt124 in24 spezifiziert wird, sendet die einfache entfernte Einrichtung155 von22a sowohl ein Benutzerschnittstellen-Programmobjekt als auch ein Einrichtungstreiber-Programmobjekt an die Handanzeigeeinrichtung170 . Wie in23a konzeptionell dargestellt, sendet die einfache Einrichtung155 das Benutzerschnittstellen-Programmobjekt353 und das Einrichtungstreiber-Programmobjekt351 . Die Übertragung der Programmobjekte erfolgt unter Verwendung von Kommunikationsmitteln162 , die ein Kommunikationsnetzwerk oder jedes an dere Mittel der Informationsübermittlung an die Handanzeigeeinrichtung170 sein können. - Die Handanzeigeeinrichtung
170 empfängt die Kopie des Benutzerschnittstellen-Programmobjekts363 , das die grafische Benutzerschnittstelle der einfachen Einrichtung beschreibt. Die Handanzeigeeinrichtung170 ruft dann ein Verfahren in dem Benutzerschnittstellen-Programmobjekt363 auf, das ein Anzeigeobjekt in einem Raum wiedergibt, der auf der Handanzeigeeinrichtung170 gezeigt wird. Wenn ein Benutzer das Anzeigeobjekt Auswählt, das der einfachen entfernten Einrichtung155 zugeordnet ist, ruft die Anzeigeeinrichtung170 ein Verfahren in dem Benutzerschnittstellen-Programmobjekt363 auf, wie in Schritt 125 von24 dargelegt und in22b dargestellt. Das Verfahren, das in dem Benutzerschnittstellen-Programmobjekt363 aufgerufen wird, zeigt eine grafische Benutzerschnittstelle an, die der einfachen entfernten Einrichtung auf dem Anzeigebildschirm171 der Anzeigeeinrichtung170 zugeordnet ist. Der Benutzer kann dann mit der grafischen Benutzerschnittstelle der einfachen entfernten Einrichtung auf der Anzeigeeinrichtung170 interagieren, wie in Schritt127 dargelegt. - Die Interaktionen des Benutzers mit der grafischen Benutzerschnittstelle der einfachen Einrichtung werden von dem Einrichtungstreiber-Programmobjekt
361 der einfachen Einrichtung in der Anzeigeeinrichtung150 analysiert. Das Einrichtungstreiber-Programmobjekt361 löst die Interaktionen des Benutzers in Steuercodes auf, auf die die einfache entfernte Einrichtung155 antworten wird. Wie in23c dargestellt, analysiert das Einrichtungstreiber-Programmobjekt361 , das in der Anzeigeeinrichtung170 angeordnet ist, die Aktionen des Benutzers. - Es wird auf
22c und23c Bezug genommen; die Handanzeigeeinrichtung170 sendet die Steuercodes an die einfache entfernte Einrichtung155 . Die einfache entfernte Einrichtung155 verändert sich als Antwort auf die empfangenen Steuercodes, wie in Schritt130 dargelegt. Wenn schließlich die einfache entfernte Einrichtung155 und die Anzeigeeinrichtung170 von einem Kommunikationsnetzwerk miteinander gekoppelt werden, kann die einfache Einrichtung155 jegliche Rückgabewerte oder Rückmeldungen senden, die von der einfachen entfernten Einrichtung155 erzeugt werden, wie in22d dargestellt. - Herkömmliche Einrichtungssteuerung
- Existierende entfernte Einrichtungen, die nicht für die Handanzeigeeinrichtung der vorliegenden Erfindung ausgelegt sind, verfügen nicht über ein Benutzerschnittstellen-Programmobjekt, das sie an die Handanzeigeeinrichtung senden können. Beispielsweise stellt
1e eine typische existierende entfernte Einrichtung dar, die nur auf codierte Befehlssignale, wie beispielweise Infrarotsignale, reagieren kann. In derartigen Fällen muß die Handanzeigeeinrichtung manuell über die entfernte Einrichtung informiert werden. Die Handanzeigeeinrichtung verwendet dann ein allgemeines Benutzerschnittstellen-Programmobjekt für den Typ der entfernten Einrichtung. - Wenn beispielweise ein Benutzer über ein herkömmliches Fernsehgerät verfügt, das durch Infrarotsignale gesteuert wird, gibt der Benutzer eine Typennummer des Fernsehgeräts ein, um die Handanzeigeeinrichtung über das herkömmliche Fernsehgerät zu informieren. Die Handanzeigeeinrichtung greift dann auf eine Datenbank zu, um eine Liste der Steuercodes zu erhalten, die das herkömmliche Fernsehgerät versteht. Es wird dann ein Fernsehanzeigeobjekt erzeugt, um das herkömmliche Fernsehgerät zu steuern. Wenn der Benutzer das Fernsehanzeigeobjekt auswählt, ruft die Handanzeigeeinrichtung ein Verfahren auf, das eine allgemeine Fernsehbenutzerschnittstelle anzeigt. Wenn der Benutzer mit der allgemeinen Fernsehbenutzerschnittstelle interagiert, sendet die Anzei geeinrichtung die richtigen Infrarot-Steuercodes, um das Fernsehgerät zu steuern.
- Zusammenfassung
- Im gehenden wurde eine intuitive grafische Benutzerschnittstelle beschrieben, die auf einer geographischen Kartenstruktur und einem System zur Steuerung entfernter externer elektronischer Einrichtungen basiert. In der Benutzerschnittstelle der vorliegenden Erfindung wird jeder Raum einer geographischen Kartenstruktur auf einer Berührungsbildschirmanzeige als ein Raum wiedergegeben. In jedem Raum befinden sich farbige Icons, „Objekte" genannt, die von dem Benutzer Ausgewählt und gehandhabt werden können. Bestimmte Objekte, die als Portale bezeichnet werden, befördern den Benutzer von einem Raum in einen anderen Raum, wenn sie Ausgewählt werden. Andere Objekte, die als Schaltflächen bezeichnet werden, führen zugeordnete Aktionen oder Funktionen aus, wenn sie Ausgewählt werden. Die Benutzerschnittstelle wird auf einer Handanzeigeeinrichtung angezeigt, die entfernte elektronische Einrichtungen steuern kann. Jede entfernte elektronische Einrichtung sendet ein Benutzerschnittstellen-Programmobjekt an die Anzeigeeinrichtung, das eine grafische Benutzerschnittstelle definiert. Die Handanzeigeeinrichtung zeigt die grafische Benutzerschnittstelle an, die der entfernten Einrichtung zugeordnet ist, wenn ein Benutzer ein Icon auswählt, das der entfernten Einrichtung auf der Berührungsbildschirmanzeige der Anzeigeeinrichtung zugeordnet ist. Es ist in Betracht zu ziehen, daß von einem Durchschnittsfachmann Veränderungen und Modifikationen hinsichtlich der Materialien und Anordnungen der Elemente der vorliegenden Erfindung vorgenommen werden können, ohne den Schutzumfang der Erfindung zu verlassen.
Claims (10)
- Ein Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ), wobei das Computersystem eine CPU (30 ), einen Speicher (33 ) und einen Graphikanzeigebildschirm (37 ) aufweist, wobei das Verfahren die Schritte umfaßt: Bereitstellen einer Mehrzahl von Räumen (32 ,50 ,60 ...), wobei jeder der Räume ein graphisches Hintergrundbild aufweist; Organisieren der Räume (32 ,50 ,60 ...) in einer gerichteten Graphenstruktur, wobei die Räume miteinander über eine Mehrzahl von Portalen (47 ,48 ,49 ,52 ,54 , ...) verbunden sind; Lokalisieren der Mehrzahl von Portalen (47 ,48 ,49 ...) in den Räumen (32 ,50 ,60 ...), wobei jedes der Portale einen zugehörigen Zielraum derart aufweist, daß das Portal den Raum, in dem es sich befindet, mit dem zugehörigen Zielraum verbindet, wobei jedes der Portale ein graphisches Icon aufweist; Wiedergeben eines graphischen Hintergrundbilds, eines ersten Raums und der in dem ersten Raum angeordneten Portale auf dem Graphikanzeigebildschirm, wobei der erste Raum wenigstens ein erstes Portal aufweist; Empfangen einer Eingabe von einem Benutzer, wobei die Eingabe ein aus den in dem ersten Raum angeordneten Portalen ausgewähltes Portal umfaßt; und Wiedergeben eines graphischen Hintergrundbildes eines dem ausgewählten Portal zugeordneten Zielraums auf dem Graphikanzeigebildschirm (37 ); so daß sich der Benutzer zwischen den Räumen in der gerichteten Graphenstruktur bewegen kann, indem er die Portale in den Räumen auswählt; und Übertragen ausgewählter Objekte in dem ersten Raum in den Zielraum unter Verwendung eines zweiten Portals, wobei die Schnittstelle Zustandsinformationen an den Benutzer übermittelt, indem sie ein visuelles Erscheinungsbild des zweiten Portals animiert, um die Aufmerksamkeit des Benutzers darauf zu lenken. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 1, wobei ferner die Schritte des Wiedergebens eines Hintergrundbildes die Schritte umfassen: Wiedergeben einer ersten Teilmenge des Hintergrundbildes auf dem Graphikanzeigebildschirm (37 ), wobei die erste Teilmenge aus einem ersten Ort in dem Hintergrundbild herrührt; Empfangen einer Richtungseingabe von dem Benutzer, wobei die Richtungseingabe eine Bewegungsrichtung umfaßt; und Wiedergeben einer zweiten Teilmenge des Hintergrundbildes auf dem Graphikanzeigebildschirm (37 ), wobei die zweite Teilmenge aus einem zweiten Ort in dem Hintergrundbild herrührt, wobei der zweite Ort dem ersten Ort plus einem der Bewegungsrichtung entsprechenden Versatz entspricht; so daß dieser Benutzer sich in einem Hintergrundbild, das einem Raum zugeordnet ist, bewegen kann. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 2, wobei ferner der Schritt des Empfangens einer Richtungseingabe von dem Benutzer das Erfassen des Gleitens eines Fingers des Benutzers über den Anzeigebildschirm (37 ) umfaßt. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 1, ferner umfassend die Schritte: Bereitstellen eines Rückwegportals (45 ), wobei das Rückwegportal in jedem der Räume (32 ,50 ,60 ...) angezeigt wird, wobei das Rückwegportal (45 ) einen Stapel von Daten strukturen aufweist, wobei jede der Datenstrukturen einen Zeiger aufweist, wobei jeder der Zeiger auf einen der Räume verweist; Schieben einer ersten Datenstruktur auf den Rückwegportalstapel, wenn sich der Benutzer in den ersten Raum bewegt, wobei die erste Datenstruktur einen Zeiger auf den ersten Raum enthält; Wegnehmen einer zweiten Datenstruktur von dem Rückwegportalstapel, wenn der Benutzer das Rückwegportal auswählt, wobei die zweite Datenstruktur einen Zeiger auf einen zweiten Raum enthält; und Bewegen des Benutzers in den zweiten Raum, auf den durch den Zeiger in der zweiten Datenstruktur, die von dem Rückwegportalstapel weggenommen worden ist, verwiesen wird; so daß der Benutzer entlang eines Pfades von Räumen zurückgeführt werden kann, durch die sich der Benutzer bewegt. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 4, wobei die Datenstrukturen in dem Rückwegportal (45 ) ferner eine Koordinate aufweisen, wobei die Koordinate einen Ort in dem ersten Raum identifiziert, an dem der Benutzer war, als der Benutzer den ersten Raum verließ. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 4, wobei das Rückwegportal (45 ) als Momentaufnahme eines Raumes, auf den durch einen Zeiger in einer Datenstruktur an der Oberseite des Rückwegportalstapels verwiesen wird, wiedergegeben wird. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 1, ferner umfassend die Schritte: Bereitstellen einer Mehrzahl von Schaltflächenobjekten (61 ,62 ,66 ,67 ,68 ,69 ), wobei jedem der Schaltflächenobjekte eine Funktion zugeordnet ist; Wiedergeben der Schaltflächenobjekte in den Räumen, wobei die Schaltflächenobjekte graphische Icons umfassen; und Ausführen der Funktion, die einem Schaltflächenobjekt zugeordnet ist, wenn das Schaltflächenobjekt von einem Benutzer ausgewählt wird. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 1, wobei der Anzeigebildschirm (37 ) ein berührungsempfindlicher Anzeigebildschirm ist. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 8, wobei die Eingabe von dem Benutzer eine Fingerberührung des berührungsempfindlichen Anzeigebildschirms (37 ) umfaßt. - Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (
170 ) nach Anspruch 1, wobei das Verfahren ferner die Schritte umfaßt: Wiedergeben eines anthropomorphischen graphischen Zeichens auf der Anzeige; Wecken der Aufmerksamkeit des Benutzers, indem das anthropomorphische graphische Zeichen animiert wird; und Übermitteln von Zustandsinformationen an den Benutzer, indem das visuelle Erscheinungsbild des anthropomorphischen Zeichens geändert wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US67574 | 1979-08-17 | ||
US6757493A | 1993-05-24 | 1993-05-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69432199D1 DE69432199D1 (de) | 2003-04-10 |
DE69432199T2 true DE69432199T2 (de) | 2004-01-08 |
Family
ID=22076936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69432199T Expired - Fee Related DE69432199T2 (de) | 1993-05-24 | 1994-04-13 | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen |
Country Status (4)
Country | Link |
---|---|
US (7) | US6160551A (de) |
EP (1) | EP0626635B1 (de) |
JP (2) | JP3898235B2 (de) |
DE (1) | DE69432199T2 (de) |
Families Citing this family (1100)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69432199T2 (de) * | 1993-05-24 | 2004-01-08 | Sun Microsystems, Inc., Mountain View | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen |
CN100545828C (zh) * | 1993-07-30 | 2009-09-30 | 佳能株式会社 | 控制连接到网络的网络设备的控制设备及其控制方法 |
US5682469A (en) * | 1994-07-08 | 1997-10-28 | Microsoft Corporation | Software platform having a real world interface with animated characters |
US8280682B2 (en) | 2000-12-15 | 2012-10-02 | Tvipr, Llc | Device for monitoring movement of shipped goods |
DE19539172C2 (de) * | 1995-03-13 | 1998-06-18 | Nsm Ag | Multimedia-Box |
US5671378A (en) * | 1995-03-31 | 1997-09-23 | International Business Machines Corporation | Method and system for sizing of graphical user interface objects for localization |
JP3671259B2 (ja) * | 1995-05-31 | 2005-07-13 | カシオ計算機株式会社 | 表示装置 |
US6072521A (en) * | 1995-06-15 | 2000-06-06 | Intel Corporation | Hand held apparatus for simulating two way connectivity for one way data streams |
JP3735890B2 (ja) * | 1995-06-16 | 2006-01-18 | ソニー株式会社 | オンライン端末装置及び画像表示方法 |
JPH096575A (ja) * | 1995-06-16 | 1997-01-10 | Sony Corp | 情報通信方法及び装置 |
JP3755164B2 (ja) * | 1995-06-16 | 2006-03-15 | ソニー株式会社 | 画像表示装置及び方法、並びに情報提供装置及び方法 |
US6359636B1 (en) | 1995-07-17 | 2002-03-19 | Gateway, Inc. | Graphical user interface for control of a home entertainment system |
EP0840909B1 (de) * | 1995-07-22 | 1999-03-31 | KUKA Roboter GmbH | Steuer- und programmiereinrichtung |
DE19530955A1 (de) * | 1995-08-23 | 1997-02-27 | Miro Computer Prod Ag | Bedienungsanordnung für eine Mehrzahl von Multimediageräten |
JP3786294B2 (ja) * | 1995-10-02 | 2006-06-14 | ソニー株式会社 | 画像制御装置および方法 |
JPH0997162A (ja) * | 1995-10-02 | 1997-04-08 | Sony Corp | 画像制御装置および方法 |
JP3834849B2 (ja) * | 1995-10-02 | 2006-10-18 | ソニー株式会社 | 画像制御装置および方法 |
JPH09116791A (ja) * | 1995-10-23 | 1997-05-02 | Nikon Corp | 情報処理機器 |
US6267673B1 (en) * | 1996-09-20 | 2001-07-31 | Nintendo Co., Ltd. | Video game system with state of next world dependent upon manner of entry from previous world via a portal |
DE19548776A1 (de) * | 1995-12-23 | 1997-06-26 | Thomson Brandt Gmbh | Verfahren zur Fernbedienung von elektronischen Geräten und Vorrichtung zur Fernbedienung von elektronischen Geräten sowie elektronisches Gerät |
US7035914B1 (en) | 1996-01-26 | 2006-04-25 | Simpleair Holdings, Inc. | System and method for transmission of data |
US5905442A (en) * | 1996-02-07 | 1999-05-18 | Lutron Electronics Co., Inc. | Method and apparatus for controlling and determining the status of electrical devices from remote locations |
JP2000512039A (ja) * | 1996-03-15 | 2000-09-12 | ザパ デジタル アーツ リミテッド | プログラム可能なコンピュータグラフィックオブジェクト |
JP3911047B2 (ja) * | 1996-04-30 | 2007-05-09 | ソニー株式会社 | 録画予約制御システム及び録画予約制御方法 |
US5859982A (en) * | 1996-06-05 | 1999-01-12 | Sun Microsystems, Inc. | Computer system and method for executing methods of downloaded programs with reduced run-time memory space requirements |
US5922050A (en) * | 1996-07-02 | 1999-07-13 | Sun Microsystems, Inc. | Method and apparatus for controlling a device on a network |
US6229533B1 (en) * | 1996-08-02 | 2001-05-08 | Fujitsu Limited | Ghost object for a virtual world |
US6411308B1 (en) * | 1996-08-14 | 2002-06-25 | Samsung Electronics Co., Ltd. | Television graphical user interface having variable channel control bars |
JP3941178B2 (ja) | 1996-09-05 | 2007-07-04 | ソニー株式会社 | 記録媒体、デジタル記録機器、及び制御用ic |
US6298196B1 (en) | 1996-09-05 | 2001-10-02 | Sony Corporation | Digital recording apparatus and copyright protection method thereof |
US7221853B1 (en) | 1996-09-05 | 2007-05-22 | Sony Corporation | Digital recording apparatus and copyright protection method thereof |
US6757729B1 (en) * | 1996-10-07 | 2004-06-29 | International Business Machines Corporation | Virtual environment manager for network computers |
US5956487A (en) * | 1996-10-25 | 1999-09-21 | Hewlett-Packard Company | Embedding web access mechanism in an appliance for user interface functions including a web server and web browser |
TW359054B (en) | 1996-12-20 | 1999-05-21 | Sony Corp | Method and apparatus for automatic sending of e-mail and automatic sending control program supplying medium |
TW401548B (en) | 1996-12-20 | 2000-08-11 | Sony Corp | Method and apparatus for sending E-mail, method and apparatus for receiving E-mail, sending program supplying medium, receiving program supplying medium |
US6211921B1 (en) | 1996-12-20 | 2001-04-03 | Philips Electronics North America Corporation | User interface for television |
JP4038700B2 (ja) | 1997-02-17 | 2008-01-30 | ソニー株式会社 | 電子機器制御装置および方法、並びに、情報処理システムおよび方法 |
JP3870983B2 (ja) | 1997-02-17 | 2007-01-24 | ソニー株式会社 | 電子機器制御装置および方法、並びに電子機器 |
JPH10232757A (ja) * | 1997-02-19 | 1998-09-02 | Sharp Corp | メディア選択装置 |
JPH1186038A (ja) * | 1997-03-03 | 1999-03-30 | Sega Enterp Ltd | 画像処理装置、画像処理方法及び媒体並びにゲーム機 |
US6504580B1 (en) | 1997-03-24 | 2003-01-07 | Evolve Products, Inc. | Non-Telephonic, non-remote controller, wireless information presentation device with advertising display |
US6205485B1 (en) * | 1997-03-27 | 2001-03-20 | Lextron Systems, Inc | Simulcast WEB page delivery using a 3D user interface system |
EP0872991B1 (de) * | 1997-04-15 | 2006-07-26 | Hewlett-Packard Company, A Delaware Corporation | Verfahren und Vorrichtung zur formatgesteuerten Interaktion zwischen Geräten |
JP3491665B2 (ja) * | 1997-04-16 | 2004-01-26 | ソニー株式会社 | 遠隔制御装置および遠隔制御方法 |
US7155677B2 (en) * | 1997-04-25 | 2006-12-26 | Diane Kessenich | Portal for supplying supplementary information for printed books |
DE19719038C2 (de) * | 1997-04-30 | 2002-10-24 | Art & Com Medientechnologie Un | Vorrichtung und Verfahren und ihre Verwendung zur veränderbaren Darstellung |
US5990884A (en) * | 1997-05-02 | 1999-11-23 | Sony Corporation | Control of multimedia information with interface specification stored on multimedia component |
US6281898B1 (en) * | 1997-05-16 | 2001-08-28 | Philips Electronics North America Corporation | Spatial browsing approach to multimedia information retrieval |
US6204850B1 (en) * | 1997-05-30 | 2001-03-20 | Daniel R. Green | Scaleable camera model for the navigation and display of information structures using nested, bounded 3D coordinate spaces |
US6072483A (en) | 1997-06-02 | 2000-06-06 | Sony Corporation | Active frame scroll interface |
US6260192B1 (en) | 1997-06-02 | 2001-07-10 | Sony Corporation | Filtering system based on pattern of usage |
US6397387B1 (en) | 1997-06-02 | 2002-05-28 | Sony Corporation | Client and server system |
US7503057B2 (en) * | 1997-06-02 | 2009-03-10 | Sony Corporation | Client and server system |
US6028600A (en) | 1997-06-02 | 2000-02-22 | Sony Corporation | Rotary menu wheel interface |
US6195692B1 (en) | 1997-06-02 | 2001-02-27 | Sony Corporation | Television/internet system having multiple data stream connections |
JP4367971B2 (ja) | 1997-06-05 | 2009-11-18 | ソニー株式会社 | 電子機器制御装置、電子機器制御方法、および電子機器 |
US5956025A (en) * | 1997-06-09 | 1999-09-21 | Philips Electronics North America Corporation | Remote with 3D organized GUI for a home entertainment system |
US6988248B1 (en) * | 1997-06-30 | 2006-01-17 | Sun Microsystems, Inc. | Animated indicators that reflect function activity or state of objects data or processes |
US6320592B1 (en) * | 1997-06-30 | 2001-11-20 | Sun Microsystems, Inc. | Method and apparatus for separating image data from a color system in image processing |
US6211870B1 (en) * | 1997-07-07 | 2001-04-03 | Combi/Mote Corp. | Computer programmable remote control |
US5819294A (en) * | 1997-08-06 | 1998-10-06 | Philips Electronics North America Corporation | Automatic configuration mechanism for universal remote |
JPH1165968A (ja) * | 1997-08-13 | 1999-03-09 | Nippon Telegr & Teleph Corp <Ntt> | ネットワーク管理方法及びそのシステム |
US6802053B1 (en) * | 1997-08-18 | 2004-10-05 | National Instruments Corporation | Graphical programming system with distributed block diagram execution and front panel display |
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
EP1012696B1 (de) * | 1997-08-28 | 2002-07-17 | Thomson Consumer Electronics, Inc. | System und verfahren zur navigation in einer anzeige mit verschiedenen anzeigebereichen |
JPH11110106A (ja) * | 1997-10-02 | 1999-04-23 | Sharp Corp | メニュー操作装置 |
US7039876B2 (en) * | 1997-10-06 | 2006-05-02 | Canon Kabushiki Kaisha | User interface for image acquisition devices |
FR2770017B1 (fr) * | 1997-10-17 | 1999-12-03 | Thomson Multimedia Sa | Systeme de controle d'equipement domestique par affichage graphique sur ecran |
US7434172B1 (en) * | 1997-10-21 | 2008-10-07 | International Business Machines Corporation | Color and symbol coded visual cues for relating screen items to each other |
JP2001522648A (ja) | 1997-11-07 | 2001-11-20 | ヒル−ロム,インコーポレイティド | 医療機器コントローラ |
US7010369B2 (en) | 1997-11-07 | 2006-03-07 | Hill-Rom Services, Inc. | Medical equipment controller |
US7159009B2 (en) | 1997-12-17 | 2007-01-02 | Sony Corporation | Method and apparatus for automatic sending of e-mail and automatic sending control program supplying medium |
AU9717798A (en) * | 1998-01-13 | 1999-08-05 | Sony Electronics Inc. | System and method for enabling manipulation of graphic images to form a graphic image |
JPH11212934A (ja) * | 1998-01-23 | 1999-08-06 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US7844914B2 (en) * | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
CA2318815C (en) | 1998-01-26 | 2004-08-10 | Wayne Westerman | Method and apparatus for integrating manual input |
US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7808479B1 (en) | 2003-09-02 | 2010-10-05 | Apple Inc. | Ambidextrous mouse |
US7760187B2 (en) | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US20060033724A1 (en) * | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
JP3634614B2 (ja) * | 1998-02-17 | 2005-03-30 | 富士通株式会社 | 通信システムおよび通信装置 |
FR2776415A1 (fr) * | 1998-03-20 | 1999-09-24 | Philips Consumer Communication | Appareil electronique comportant un ecran et procede pour afficher des graphismes |
US6298409B1 (en) * | 1998-03-26 | 2001-10-02 | Micron Technology, Inc. | System for data and interrupt posting for computer devices |
US6735767B1 (en) | 1998-04-10 | 2004-05-11 | International Business Machines Corporation | Installation planning window |
US6211856B1 (en) | 1998-04-17 | 2001-04-03 | Sung M. Choi | Graphical user interface touch screen with an auto zoom feature |
ATE300834T1 (de) * | 1998-05-07 | 2005-08-15 | Samsung Electronics Co Ltd | Verfahren und vorrichtung für universellen zugriffsbefehl und kontrollinformation in einem netzwerk |
WO1999059374A1 (fr) * | 1998-05-13 | 1999-11-18 | Matsushita Electric Industrial Co., Ltd. | Systeme de commande de reseau, unite de commande et dispositif associe |
US7603684B1 (en) | 1998-05-19 | 2009-10-13 | United Video Properties, Inc. | Program guide system with video-on-demand browsing |
US7865832B2 (en) * | 1999-07-26 | 2011-01-04 | Sony Corporation | Extended elements and mechanisms for displaying a rich graphical user interface in panel subunit |
US6456892B1 (en) * | 1998-07-01 | 2002-09-24 | Sony Electronics, Inc. | Data driven interaction for networked control of a DDI target device over a home entertainment network |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
CN1181685C (zh) | 1998-07-20 | 2004-12-22 | 卡纳尔股份有限公司 | 多信道数字电视系统及浏览方法 |
US6754905B2 (en) | 1998-07-23 | 2004-06-22 | Diva Systems Corporation | Data structure and methods for providing an interactive program guide |
US7831930B2 (en) * | 2001-11-20 | 2010-11-09 | Universal Electronics Inc. | System and method for displaying a user interface for a remote control application |
US9924234B2 (en) * | 1998-07-23 | 2018-03-20 | Comcast Ip Holdings I, Llc | Data structure and methods for providing an interactive program |
US20010015719A1 (en) * | 1998-08-04 | 2001-08-23 | U.S. Philips Corporation | Remote control has animated gui |
US6208341B1 (en) * | 1998-08-05 | 2001-03-27 | U. S. Philips Corporation | GUI of remote control facilitates user-friendly editing of macros |
US6738809B1 (en) | 1998-08-21 | 2004-05-18 | Nortel Networks Limited | Network presence indicator for communications management |
EP0989700B1 (de) * | 1998-08-21 | 2006-03-29 | Nortel Networks Limited | Netzanwesenheitsindikator für Kommunikationsverwaltung |
US7149985B1 (en) | 1998-08-25 | 2006-12-12 | Thomson Licensing | System and method for navigating within a display having different display sections |
US7358956B2 (en) * | 1998-09-14 | 2008-04-15 | Microsoft Corporation | Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device |
US7256770B2 (en) * | 1998-09-14 | 2007-08-14 | Microsoft Corporation | Method for displaying information responsive to sensing a physical presence proximate to a computer input device |
US6563430B1 (en) | 1998-12-11 | 2003-05-13 | Koninklijke Philips Electronics N.V. | Remote control device with location dependent interface |
ES2260932T3 (es) * | 1998-09-17 | 2006-11-01 | Koninklijke Philips Electronics N.V. | Servicio basado en internet para actualizar un dispositivo de control programable. |
JP2002525942A (ja) * | 1998-09-17 | 2002-08-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 位置依存インタフェースを具えるリモートコントロール装置 |
US7574693B1 (en) | 1998-09-17 | 2009-08-11 | Koninklijke Philips Electronics N.V. | Internet-based service for updating a programmable control device |
US6437836B1 (en) * | 1998-09-21 | 2002-08-20 | Navispace, Inc. | Extended functionally remote control system and method therefore |
US6546297B1 (en) * | 1998-11-03 | 2003-04-08 | Robertshaw Controls Company | Distributed life cycle development tool for controls |
GB9824482D0 (en) * | 1998-11-09 | 1999-01-06 | Nokia Mobile Phones Ltd | Portable controller |
US6597374B1 (en) * | 1998-11-12 | 2003-07-22 | Microsoft Corporation | Activity based remote control unit |
US6612930B2 (en) | 1998-11-19 | 2003-09-02 | Nintendo Co., Ltd. | Video game apparatus and method with enhanced virtual camera control |
US6712703B2 (en) * | 1998-11-19 | 2004-03-30 | Nintendo Co., Ltd. | Video game apparatus and information storage medium for video game |
JP3967502B2 (ja) * | 1998-11-27 | 2007-08-29 | 株式会社スクウェア・エニックス | ゲーム進行制御方法 |
US6317144B1 (en) * | 1998-11-30 | 2001-11-13 | Sun Microsystems, Inc. | Method and apparatus for navigating displayed elements |
US20080091663A1 (en) * | 1998-12-08 | 2008-04-17 | Inala Suman K | Software Bundle for Providing Automated Functionality to a WEB-Browser |
TW515146B (en) * | 1998-12-09 | 2002-12-21 | Intel Corp | Remotely controlling electronic devices |
US6848104B1 (en) * | 1998-12-21 | 2005-01-25 | Koninklijke Philips Electronics N.V. | Clustering of task-associated objects for effecting tasks among a system and its environmental devices |
US7469381B2 (en) | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
US7111242B1 (en) * | 1999-01-27 | 2006-09-19 | Gateway Inc. | Method and apparatus for automatically generating a device user interface |
US6334107B1 (en) * | 1999-02-04 | 2001-12-25 | Rental Tracker | Method of managing a real estate unit |
US6664988B1 (en) | 1999-02-10 | 2003-12-16 | Micron Technology, Inc. | Graphical representation of system information on a remote computer |
JP2000244989A (ja) * | 1999-02-19 | 2000-09-08 | Sharp Corp | 双方向リモコン制御システム |
JP2000261482A (ja) | 1999-03-08 | 2000-09-22 | Sony Corp | アドレス設定方法、クライアント装置、サーバ装置、並びにクライアントサーバシステム |
US6421066B1 (en) * | 1999-03-23 | 2002-07-16 | Klab.Com - The Knowledge Infrastructure Laboratory Ltd. | Method for creating a knowledge map |
US6507762B1 (en) * | 1999-03-31 | 2003-01-14 | International Business Machines Corporation | Method and system for remotely controlling an appliance using a personal digital assistant |
FI111760B (fi) * | 1999-04-16 | 2003-09-15 | Metso Automation Oy | Kenttälaitteen langaton ohjaus teollisuusprosessissa |
US7213061B1 (en) | 1999-04-29 | 2007-05-01 | Amx Llc | Internet control system and method |
US20020057285A1 (en) * | 2000-08-04 | 2002-05-16 | Nicholas James J. | Non-intrusive interactive notification system and method |
AU5145400A (en) | 1999-05-19 | 2000-12-18 | James J. Nicholas | Cursor movable interactive message |
DE19923701A1 (de) * | 1999-05-22 | 2000-11-23 | Volkswagen Ag | Verfahren zur Fernkommunikation und Fernbeeinflussung eines Kraftfahrzeuges |
US6476834B1 (en) * | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6657646B2 (en) | 1999-06-08 | 2003-12-02 | Amx Corporation | System and method for multimedia display |
US6496927B1 (en) | 1999-06-09 | 2002-12-17 | Amx Corporation | Method and configuring a user interface for controlling a controlled device based upon a device class |
JP4147689B2 (ja) | 1999-06-14 | 2008-09-10 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
EP1069694A1 (de) | 1999-07-16 | 2001-01-17 | Alcatel | Telekommunikationssystem mit einer herunterladbaren Schnittstelle |
EP1069730A1 (de) * | 1999-07-16 | 2001-01-17 | Alcatel | Telekommunikationssystem mit einer flexiblen Fernsteuerungseinrichtung |
US6396523B1 (en) * | 1999-07-29 | 2002-05-28 | Interlink Electronics, Inc. | Home entertainment device remote control |
AU6550700A (en) * | 1999-08-04 | 2001-03-05 | 724 Solutions Inc. | Dynamic client system |
DE19939065A1 (de) | 1999-08-18 | 2001-02-22 | Volkswagen Ag | Multifunktions-Bedieneinrichtung |
US6850953B1 (en) * | 1999-08-23 | 2005-02-01 | Sun Microsystems, Inc. | Creating multiple sets of data by spawning a secondary virtual machine |
IL131569A0 (en) * | 1999-08-24 | 2001-01-28 | Itay Katz | Method and apparatus for improving the virtual desktop |
JP2001066986A (ja) | 1999-08-26 | 2001-03-16 | Sony Corp | 送信装置および方法、受信装置および方法、通信システム、並びにプログラム格納媒体 |
SE9903112L (sv) † | 1999-09-03 | 2001-03-04 | Delaval Holding Ab | Grafiskt användargränssnitt och förfarande relaterat därtill |
JP2001077831A (ja) | 1999-09-08 | 2001-03-23 | Sony Corp | 通信制御装置および方法、通信システム、並びにプログラム格納媒体 |
US6636244B1 (en) | 1999-09-13 | 2003-10-21 | International Business Machines Corporation | Pointing device selection method |
DE19944299A1 (de) * | 1999-09-15 | 2001-03-29 | Siemens Ag | Verfahren und Anordnung zum Laden einer Funktionalität |
JP4168304B2 (ja) | 1999-09-16 | 2008-10-22 | ソニー株式会社 | 情報出力装置、情報報知方法および情報信号供給経路選択方法 |
EP1085432B1 (de) | 1999-09-20 | 2008-12-03 | NCR International, Inc. | Informationsauffindung und -wiedergabe |
GB9924177D0 (en) | 1999-10-12 | 1999-12-15 | Srs Technology Limited | Communication and control system |
KR100866264B1 (ko) * | 1999-10-20 | 2008-11-03 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 정보 프로세싱 디바이스 |
US6621918B1 (en) | 1999-11-05 | 2003-09-16 | H Innovation, Inc. | Teleradiology systems for rendering and visualizing remotely-located volume data sets |
DE19961460A1 (de) * | 1999-12-20 | 2001-06-21 | Bsh Bosch Siemens Hausgeraete | System zur Visualisierung von Betriebszustands- und/oder Steuerinformationen |
WO2001052478A2 (en) * | 2000-01-07 | 2001-07-19 | Invensys Controls Plc | Building control |
WO2001059555A2 (en) * | 2000-02-09 | 2001-08-16 | David Elderfield | Enterprise task management system and lcd touch screen display for use therewith |
GB0003306D0 (en) * | 2000-02-15 | 2000-04-05 | Koninkl Philips Electronics Nv | Control of interconnected audio/video devices |
US6867789B1 (en) | 2000-02-15 | 2005-03-15 | Bank One, Delaware, National Association | System and method for generating graphical user interfaces |
JP2001325195A (ja) * | 2000-03-06 | 2001-11-22 | Sony Computer Entertainment Inc | 通信システム、エンタテインメント装置、記録媒体及びプログラム |
WO2001067228A1 (en) * | 2000-03-09 | 2001-09-13 | Koninklijke Philips Electronics N.V. | Method of interacting with a consumer electronics system |
US8531276B2 (en) | 2000-03-15 | 2013-09-10 | Logitech Europe S.A. | State-based remote control system |
US6784805B2 (en) | 2000-03-15 | 2004-08-31 | Intrigue Technologies Inc. | State-based remote control system |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US6636246B1 (en) * | 2000-03-17 | 2003-10-21 | Vizible.Com Inc. | Three dimensional spatial user interface |
US6791467B1 (en) * | 2000-03-23 | 2004-09-14 | Flextronics Semiconductor, Inc. | Adaptive remote controller |
US7187947B1 (en) | 2000-03-28 | 2007-03-06 | Affinity Labs, Llc | System and method for communicating selected information to an electronic device |
US6505194B1 (en) * | 2000-03-29 | 2003-01-07 | Koninklijke Philips Electronics N.V. | Search user interface with enhanced accessibility and ease-of-use features based on visual metaphors |
WO2001077895A1 (en) * | 2000-04-07 | 2001-10-18 | Matthew William Hart | Graphical environment |
US20010030667A1 (en) * | 2000-04-10 | 2001-10-18 | Kelts Brett R. | Interactive display interface for information objects |
US7106887B2 (en) * | 2000-04-13 | 2006-09-12 | Fuji Photo Film Co., Ltd. | Image processing method using conditions corresponding to an identified person |
JP4434424B2 (ja) * | 2000-04-18 | 2010-03-17 | 株式会社ルネサステクノロジ | ホームエレクトロニクスシステム、ホームサーバ装置およびコンピュータをホームサーバ装置として機能させるためのプログラムを記録したコンピュータ読取可能な記録媒体 |
US7249325B1 (en) * | 2000-05-11 | 2007-07-24 | Palmsource, Inc. | Automatically centered scrolling in a tab-based user interface |
CN1842044B (zh) * | 2000-05-12 | 2013-06-12 | 汤姆森特许公司 | 用于改进的设备互用性的装置和方法 |
AUPQ786500A0 (en) * | 2000-05-31 | 2000-06-22 | Canon Kabushiki Kaisha | A method for active user feedback |
US6750887B1 (en) * | 2000-06-02 | 2004-06-15 | Sun Microsystems, Inc. | Graphical user interface layout manager |
US6714222B1 (en) * | 2000-06-21 | 2004-03-30 | E2 Home Ab | Graphical user interface for communications |
JP2002078957A (ja) | 2000-06-28 | 2002-03-19 | Sony Corp | ビデオゲームシステム、ビデオゲーム装置及びその制御方法並びにビデオゲームプログラム記録媒体 |
US8756635B2 (en) * | 2000-06-30 | 2014-06-17 | JLB Ventures, LLC. | Remote control of program scheduling |
US8789114B2 (en) * | 2000-06-30 | 2014-07-22 | Jlb Ventures Llc | Remote control of program scheduling |
WO2002007407A1 (en) * | 2000-07-17 | 2002-01-24 | Tresor Tv Produktions Gmbh | User interface for networked applications |
JP2002041276A (ja) | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
DE10036468A1 (de) * | 2000-07-25 | 2002-02-14 | Thomson Brandt Gmbh | Verfahren zur Erläuterung der Bedienung eines Gerätes |
JP2002049451A (ja) * | 2000-08-03 | 2002-02-15 | Fujitsu Ltd | 情報処理装置、メニュー表示方法及びメニュー処理プログラムを格納したコンピュータ可読の記憶媒体 |
EP1184982B1 (de) * | 2000-08-24 | 2009-05-06 | Sony Deutschland GmbH | Fernbedienungsgeber |
US6646559B2 (en) | 2000-08-29 | 2003-11-11 | User-Centric Enterprises, Inc. | Method and apparatus for activating warning devices |
US6351218B1 (en) * | 2000-08-29 | 2002-02-26 | Weatherdata, Inc. | Method and apparatus for activating weather warning devices |
EP1185090A1 (de) | 2000-09-04 | 2002-03-06 | Sony Service Centre (Europe) N.V. | Fernsehgerät mit einer Heim-Multimediaplattform mit einer graphischen Benutzerschnittstellenanwendung |
US7555528B2 (en) * | 2000-09-06 | 2009-06-30 | Xanboo Inc. | Systems and methods for virtually representing devices at remote sites |
US6686838B1 (en) | 2000-09-06 | 2004-02-03 | Xanboo Inc. | Systems and methods for the automatic registration of devices |
US7734724B2 (en) * | 2000-09-06 | 2010-06-08 | Xanboo Inc. | Automated upload of content based on captured event |
JP2002078958A (ja) * | 2000-09-08 | 2002-03-19 | Sony Corp | ビデオゲームシステム、ビデオゲーム装置及びその制御方法 |
DE10045558A1 (de) * | 2000-09-14 | 2002-04-04 | Siemens Ag | Verfahren und Anordnung zum Verifizieren einer Verbindung zwischen einer einen Zugriff auf eine Kommunikationseinrichtung durchführenden Applikation und einer den Zugriff steuernden Einrichtung |
US10261303B1 (en) * | 2000-09-28 | 2019-04-16 | Intel Corporation | Method and apparatus for transmission and manipulation of program data by means of spherical display |
US7277765B1 (en) | 2000-10-12 | 2007-10-02 | Bose Corporation | Interactive sound reproducing |
US7206853B2 (en) | 2000-10-23 | 2007-04-17 | Sony Corporation | content abstraction layer for use in home network applications |
US6595430B1 (en) * | 2000-10-26 | 2003-07-22 | Honeywell International Inc. | Graphical user interface system for a thermal comfort controller |
US7673241B2 (en) * | 2002-06-26 | 2010-03-02 | Siebel Systems, Inc. | User interface for multi-media communication for the visually disabled |
US6621507B1 (en) | 2000-11-03 | 2003-09-16 | Honeywell International Inc. | Multiple language user interface for thermal comfort controller |
JP2002149516A (ja) * | 2000-11-10 | 2002-05-24 | Sharp Corp | 情報処理システムおよび方法、サービス情報収集機器ならびに情報処理方法のプログラムを記録したコンピュータ読取可能な記録媒体 |
KR100359827B1 (ko) * | 2000-11-27 | 2002-11-07 | 엘지전자 주식회사 | 홈 어플라이언스 네트워크 장치 및 방법 |
US6910186B2 (en) | 2000-12-08 | 2005-06-21 | Kyunam Kim | Graphic chatting with organizational avatars |
US20080060011A1 (en) | 2000-12-22 | 2008-03-06 | Hillcrest Laboratories, Inc. | Zoomable user interfaces for television |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US7093003B2 (en) * | 2001-01-29 | 2006-08-15 | Universal Electronics Inc. | System and method for upgrading the remote control functionality of a device |
US8909739B2 (en) | 2001-01-29 | 2014-12-09 | Universal Electronics Inc. | System and method for upgrading the remote control functionality of a device |
US6977753B2 (en) * | 2001-02-02 | 2005-12-20 | Eastman Kodak Company | Printing assembly and an operator control panel user interface for the printing assembly |
US7505577B2 (en) * | 2001-03-31 | 2009-03-17 | Siebel Systems, Inc. | System and method for multi-channel communication queuing |
US7581230B2 (en) * | 2001-02-06 | 2009-08-25 | Siebel Systems, Inc. | Adaptive communication application programming interface |
US7030861B1 (en) | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
FR2820932B1 (fr) * | 2001-02-15 | 2003-05-16 | Cit Alcatel | Procede et structure de donnees pour la gestion d'une animation d'icones definies dans un message et terminal mobile permettant d'executer ce procede |
US7240300B2 (en) * | 2001-02-15 | 2007-07-03 | Nbor Corporation | Method for creating user-defined computer operations using arrows |
US6883145B2 (en) * | 2001-02-15 | 2005-04-19 | Denny Jaeger | Arrow logic system for creating and operating control systems |
US6660948B2 (en) | 2001-02-28 | 2003-12-09 | Vip Investments Ltd. | Switch matrix |
JP4087252B2 (ja) | 2001-03-05 | 2008-05-21 | 松下電器産業株式会社 | Epg表示装置、epg表示方法、記録媒体、およびプログラム |
US20020175945A1 (en) * | 2001-03-15 | 2002-11-28 | Hissenhoven Jean Paul Van | Method and apparatus for accessing information through a user friendly interface |
US6989801B2 (en) * | 2001-03-22 | 2006-01-24 | Koninklijke Philips Electronics N.V. | Two-way presentation display system |
US7224365B1 (en) * | 2001-03-23 | 2007-05-29 | Totally Global, Inc. | System and method for transferring thematic information over the internet |
US6987512B2 (en) * | 2001-03-29 | 2006-01-17 | Microsoft Corporation | 3D navigation techniques |
US20030206192A1 (en) * | 2001-03-31 | 2003-11-06 | Mingte Chen | Asynchronous message push to web browser |
US7730204B2 (en) * | 2001-03-31 | 2010-06-01 | Siebel Systems, Inc. | Extensible interface for inter-module communication |
US20030018705A1 (en) * | 2001-03-31 | 2003-01-23 | Mingte Chen | Media-independent communication server |
US7315616B2 (en) * | 2001-03-31 | 2008-01-01 | Siebel Systems, Inc. | System and method for maintaining real-time agent information for multi-channel communication queuing |
US8601492B2 (en) * | 2001-03-31 | 2013-12-03 | Siebel Systems, Inc. | User interface for multi-channel communication |
US7500197B2 (en) * | 2001-04-10 | 2009-03-03 | Hewlett-Packard Development Company, L.P. | Extensible user interface |
EP1386394A1 (de) * | 2001-04-26 | 2004-02-04 | Koninklijke Philips Electronics N.V. | Tragbare berührungsfeldeinrichtung |
FR2825216B1 (fr) * | 2001-05-23 | 2003-11-07 | France Telecom | Procede et systeme de notification visuelle de l'etat de la messagerie d'un utilisateur |
US20030058243A1 (en) * | 2001-09-21 | 2003-03-27 | Faust Paul G. | Delivery and display of measurement instrument data via a network |
CA2463922C (en) | 2001-06-27 | 2013-07-16 | 4 Media, Inc. | Improved media delivery platform |
US7103171B1 (en) | 2001-06-29 | 2006-09-05 | Siebel Systems, Inc. | System and method for multi-channel communication queuing using routing and escalation rules |
CA2390390C (en) * | 2001-07-03 | 2011-08-30 | Research In Motion Limited | Graphics stack system and method |
US6885362B2 (en) * | 2001-07-12 | 2005-04-26 | Nokia Corporation | System and method for accessing ubiquitous resources in an intelligent environment |
EP3462613A3 (de) * | 2001-07-12 | 2019-05-08 | Sony Corporation | Fernbedienung und system damit |
US8063923B2 (en) * | 2001-07-13 | 2011-11-22 | Universal Electronics Inc. | System and method for updating information in an electronic portable device |
US9264755B2 (en) * | 2001-07-13 | 2016-02-16 | Universal Electronics Inc. | System and method for presenting program guide information in an electronic portable device |
US20030117427A1 (en) * | 2001-07-13 | 2003-06-26 | Universal Electronics Inc. | System and method for interacting with a program guide displayed on a portable electronic device |
US8863184B2 (en) | 2001-07-13 | 2014-10-14 | Universal Electronics Inc. | System and method for presenting program guide information in an electronic portable device |
US20050134578A1 (en) * | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
US6961912B2 (en) * | 2001-07-18 | 2005-11-01 | Xerox Corporation | Feedback mechanism for use with visual selection methods |
US7206808B2 (en) * | 2001-07-31 | 2007-04-17 | Tandberg Telecom As | System and method for managing diverse video network devices via application and interface objects |
US20030037341A1 (en) * | 2001-08-17 | 2003-02-20 | Van Der Meulen Pieter Sierd | System for remotely controlling consumer electronics using a web-cam image |
US7371041B2 (en) | 2001-08-30 | 2008-05-13 | Seagate Technology Llc | Assembly station with rotatable turret which forms and unloads a completed stack of articles |
US7039723B2 (en) * | 2001-08-31 | 2006-05-02 | Hinnovation, Inc. | On-line image processing and communication system |
US20030054846A1 (en) * | 2001-09-14 | 2003-03-20 | Cvsht | Apparatus and methods for selectively establishing wireless communications |
US7134088B2 (en) * | 2001-09-24 | 2006-11-07 | Tactical Survey Group, Inc. | Method and system for providing tactical information during crisis situations |
GB0123321D0 (en) * | 2001-09-27 | 2001-11-21 | Hewlett Packard Co | Computer apparatus for causing display and manipulation of pictorial image synchronously with remote computer apparatus |
US7032188B2 (en) * | 2001-09-28 | 2006-04-18 | Nokia Corporation | Multilevel sorting and displaying of contextual objects |
KR20030031202A (ko) * | 2001-10-12 | 2003-04-21 | 주식회사 엘지이아이 | 컴퓨터를 통한 사용자 인터페이스 방법 |
US20030076353A1 (en) * | 2001-10-23 | 2003-04-24 | Blackstock Michael A. | Graphical user interface for collaboration |
JP2003143670A (ja) * | 2001-10-31 | 2003-05-16 | Sony Corp | リモートコントロールシステム、電子機器、及びプログラム |
US9052777B2 (en) | 2001-11-02 | 2015-06-09 | Neonode Inc. | Optical elements with alternating reflective lens facets |
US9778794B2 (en) | 2001-11-02 | 2017-10-03 | Neonode Inc. | Light-based touch screen |
US8674966B2 (en) | 2001-11-02 | 2014-03-18 | Neonode Inc. | ASIC controller for light-based touch screen |
US9164654B2 (en) * | 2002-12-10 | 2015-10-20 | Neonode Inc. | User interface for mobile computer unit |
US20030087602A1 (en) * | 2001-11-05 | 2003-05-08 | Palm, Inc. | Data prioritization and distribution limitation system and method |
US20030086595A1 (en) * | 2001-11-07 | 2003-05-08 | Hui Hu | Display parameter-dependent pre-transmission processing of image data |
US8091042B2 (en) | 2001-11-15 | 2012-01-03 | Siebel Systems, Inc. | Apparatus and method for displaying selectable icons in a toolbar for a user interface |
US7047500B2 (en) * | 2001-11-16 | 2006-05-16 | Koninklijke Philips Electronics N.V. | Dynamically configurable virtual window manager |
US8176432B2 (en) * | 2001-11-20 | 2012-05-08 | UEI Electronics Inc. | Hand held remote control device having an improved user interface |
US6747591B1 (en) | 2001-11-20 | 2004-06-08 | Universal Electronics Inc. | System and method for retrieving information while commanding operation of an appliance |
US6996777B2 (en) * | 2001-11-29 | 2006-02-07 | Nokia Corporation | Method and apparatus for presenting auditory icons in a mobile terminal |
US20030112467A1 (en) * | 2001-12-17 | 2003-06-19 | Mccollum Tim | Apparatus and method for multimedia navigation |
EP2953107B1 (de) * | 2001-12-20 | 2019-02-20 | Universal Electronics, Inc. | System und verfahren zum dialog mit einer auf einem tragbaren elektronischen gerät angezeigten programmanleitung |
US7254777B2 (en) | 2001-12-20 | 2007-08-07 | Universal Electronics Inc. | System and method for controlling the recording functionality of an appliance using a program guide |
US6690387B2 (en) | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
US6934911B2 (en) * | 2002-01-25 | 2005-08-23 | Nokia Corporation | Grouping and displaying of contextual objects |
US6824069B2 (en) | 2002-01-30 | 2004-11-30 | Howard B. Rosen | Programmable thermostat system employing a touch screen unit for intuitive interactive interface with a user |
CA2388101A1 (en) * | 2002-02-01 | 2003-08-01 | Concepts Egeria Inc. | Conceptual user interface |
US6982697B2 (en) * | 2002-02-07 | 2006-01-03 | Microsoft Corporation | System and process for selecting objects in a ubiquitous computing environment |
US6990639B2 (en) * | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
AU2003200159B2 (en) * | 2002-02-15 | 2005-04-28 | Canon Kabushiki Kaisha | Representing a Plurality of Independent Data Items |
AUPS058602A0 (en) * | 2002-02-15 | 2002-03-14 | Canon Kabushiki Kaisha | Representing a plurality of independent data items |
US20030158927A1 (en) * | 2002-02-21 | 2003-08-21 | Gateway, Inc. | Connected home network console |
US20030156131A1 (en) * | 2002-02-21 | 2003-08-21 | Samir Khazaka | Method and apparatus for emulating a mobile device |
US7027053B2 (en) * | 2002-02-28 | 2006-04-11 | Sun Microsystems, Inc. | Graphical user interface for indicating device failover |
US7296243B2 (en) | 2002-03-19 | 2007-11-13 | Aol Llc | Animating display motion |
US20030179186A1 (en) * | 2002-03-22 | 2003-09-25 | Wen-Tsung Sun | Electronic note pad |
US6914551B2 (en) * | 2002-04-12 | 2005-07-05 | Apple Computer, Inc. | Apparatus and method to facilitate universal remote control |
US8255968B2 (en) | 2002-04-15 | 2012-08-28 | Universal Electronics, Inc. | System and method for adaptively controlling the recording of program material using a program guide |
US20030197595A1 (en) | 2002-04-22 | 2003-10-23 | Johnson Controls Technology Company | System and method for wireless control of multiple remote electronic systems |
US7120652B2 (en) | 2002-04-25 | 2006-10-10 | Sun Microsystems, Inc. | Method, system and program for determining version of storage devices and programs indicated in the resource information installed in the computer system |
US20040136062A1 (en) * | 2002-05-13 | 2004-07-15 | Avner Farkash | Portable periscope |
US8156525B2 (en) * | 2002-05-20 | 2012-04-10 | Sony Corporation | Information-processing system, information-processing device, and information-processing method |
US20030221009A1 (en) * | 2002-05-21 | 2003-11-27 | Logitech Europe S.A. | Dual mode peer-to-peer link establishment for instant message video |
US7159186B2 (en) * | 2002-05-31 | 2007-01-02 | Nokia Corporation | User interface for transferring data with a communications terminal |
JP2004005272A (ja) * | 2002-05-31 | 2004-01-08 | Cad Center:Kk | 仮想空間移動制御装置及び制御方法並びに制御プログラム |
US7607107B2 (en) * | 2002-06-18 | 2009-10-20 | The Directv Group, Inc. | On-screen user interface device |
US20030234809A1 (en) * | 2002-06-19 | 2003-12-25 | Parker Kathryn L. | Method and system for remotely operating a computer |
US6920557B2 (en) * | 2002-06-28 | 2005-07-19 | Pitney Bowes Inc. | System and method for wireless user interface for business machines |
DE10229068B3 (de) * | 2002-06-28 | 2004-02-05 | Fujitsu Siemens Computers Gmbh | PDA (Personal Digital Assistant) mit Touch-Screen Display |
US7225262B2 (en) * | 2002-06-28 | 2007-05-29 | Pitney Bowes Inc. | System and method for selecting an external user interface using spatial information |
US7656393B2 (en) | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US11275405B2 (en) * | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7239981B2 (en) | 2002-07-26 | 2007-07-03 | Arbitron Inc. | Systems and methods for gathering audience measurement data |
US7433915B2 (en) * | 2002-08-01 | 2008-10-07 | Xerox Corporation | System and method for controlling communication |
US20040021698A1 (en) * | 2002-08-05 | 2004-02-05 | Baldwin Amanda K. | Intuitive touchscreen interface for a multifunction device and method therefor |
US20040027487A1 (en) * | 2002-08-09 | 2004-02-12 | Rzadzki Robert J. | System to provide custom text and graphic information to a television system infrastructure |
US7003598B2 (en) * | 2002-09-18 | 2006-02-21 | Bright Entertainment Limited | Remote control for providing interactive DVD navigation based on user response |
US7959946B2 (en) | 2002-09-20 | 2011-06-14 | Watson Pharmaceuticals, Inc. | Pharmaceutical formulation containing a biguanide and a thiazolidinedione derivative |
DE10243771A1 (de) * | 2002-09-20 | 2004-04-22 | Siemens Ag | Vorrichtung zur Automatisierung und/oder Steuerung von Werkzeug- oder Produktionsmaschinen |
US6788241B2 (en) | 2002-09-25 | 2004-09-07 | Universal Electronics Inc. | System and method for using keystroke data to configure a remote control device |
US7337409B2 (en) * | 2002-09-25 | 2008-02-26 | Siemens Aktiengesellschaft | Customizable drag and drop for industrial software applications |
US9711153B2 (en) | 2002-09-27 | 2017-07-18 | The Nielsen Company (Us), Llc | Activating functions in processing devices using encoded audio and detecting audio signatures |
US7298275B2 (en) | 2002-09-27 | 2007-11-20 | Rockwell Automation Technologies, Inc. | Machine associating method and apparatus |
US8959016B2 (en) | 2002-09-27 | 2015-02-17 | The Nielsen Company (Us), Llc | Activating functions in processing devices using start codes embedded in audio |
KR100932813B1 (ko) * | 2002-10-01 | 2009-12-21 | 엘지전자 주식회사 | 동일 유형의 홈 네트웍 기기를 위치별로 구분 및 표시하는장치 |
AU2003275382A1 (en) * | 2002-10-02 | 2004-04-23 | Nielsen Media Research, Inc. | Methods and apparatus to present survey information |
US7224366B2 (en) | 2002-10-17 | 2007-05-29 | Amx, Llc | Method and system for control system software |
US20040090464A1 (en) * | 2002-11-01 | 2004-05-13 | Shake Francis David | Method for automatically determining equipment control code sets from a database and presenting information to a user interface |
US8416217B1 (en) | 2002-11-04 | 2013-04-09 | Neonode Inc. | Light-based finger gesture user interface |
JP4078398B2 (ja) * | 2002-12-11 | 2008-04-23 | ソニー・エリクソン・モバイルコミュニケーションズ株式会社 | 情報処理装置 |
US7302279B2 (en) * | 2002-12-18 | 2007-11-27 | Nokia Corporation | Mobile terminal, a method of operating the terminal, and information items for use therein |
US20050009469A1 (en) * | 2002-12-20 | 2005-01-13 | Sakari Kotola | Client software download in bluetooth device bonding |
JP2004206550A (ja) * | 2002-12-26 | 2004-07-22 | Fanuc Ltd | 数値制御装置 |
CA2511919A1 (en) | 2002-12-27 | 2004-07-22 | Nielsen Media Research, Inc. | Methods and apparatus for transcoding metadata |
US20040130566A1 (en) * | 2003-01-07 | 2004-07-08 | Prashant Banerjee | Method for producing computerized multi-media presentation |
US20040210933A1 (en) * | 2003-01-07 | 2004-10-21 | Universal Electronics Inc. | User interface for a remote control application |
US7272456B2 (en) | 2003-01-24 | 2007-09-18 | Rockwell Automation Technologies, Inc. | Position based machine control in an industrial automation environment |
US7043316B2 (en) | 2003-02-14 | 2006-05-09 | Rockwell Automation Technologies Inc. | Location based programming and data management in an automated environment |
US7417536B2 (en) * | 2003-03-13 | 2008-08-26 | Sridhar Lakshmanan | Living being presence detection system |
US8042049B2 (en) * | 2003-11-03 | 2011-10-18 | Openpeak Inc. | User interface for multi-device control |
EP1465047A1 (de) * | 2003-04-03 | 2004-10-06 | Deutsche Thomson-Brandt Gmbh | Verfahren zum Darstellen von Menütasten |
US7610553B1 (en) * | 2003-04-05 | 2009-10-27 | Apple Inc. | Method and apparatus for reducing data events that represent a user's interaction with a control interface |
EP1625474A4 (de) * | 2003-04-30 | 2012-03-07 | Disney Entpr Inc | Mobiltelefon-multimediasteuerung |
US20040217987A1 (en) * | 2003-05-01 | 2004-11-04 | Solomo Aran | Method and system for intercepting and processing data during GUI session |
WO2004109425A2 (en) * | 2003-05-14 | 2004-12-16 | Dharamdas Gautam Goradia | Interactive system for building, organising, and sharing one's own databank of questions and answers in a variety of questioning formats, on any subject in one or more languages |
EP1623301A2 (de) * | 2003-05-15 | 2006-02-08 | Comcast Cable Holdings LLC | Verfahren und system zur video-wiedergabe |
DE10323466A1 (de) * | 2003-05-23 | 2004-12-30 | Robert Bosch Gmbh | Bedienvorrichtung |
US7302642B2 (en) * | 2003-06-03 | 2007-11-27 | Tim Simon, Inc. | Thermostat with touch-screen display |
US7862428B2 (en) | 2003-07-02 | 2011-01-04 | Ganz | Interactive action figures for gaming systems |
JP4229322B2 (ja) * | 2003-07-15 | 2009-02-25 | ソニー・エリクソン・モバイルコミュニケーションズ株式会社 | 端末装置及び表示制御プログラム |
EP1501062B1 (de) * | 2003-07-22 | 2012-01-04 | Siemens Aktiengesellschaft | Verfahren und HMI System zur Bedienung und Beobachtung einer technischen Anlage |
EP1510911A3 (de) | 2003-08-28 | 2006-03-22 | Sony Corporation | Gerät, Verfahren und Programm zum Verarbeiten von Informationen und Speichermedium mit Programm zum Verarbeiten von Informationen |
US7755506B1 (en) | 2003-09-03 | 2010-07-13 | Legrand Home Systems, Inc. | Automation and theater control system |
US7307542B1 (en) | 2003-09-03 | 2007-12-11 | Vantage Controls, Inc. | System and method for commissioning addressable lighting systems |
US7394451B1 (en) | 2003-09-03 | 2008-07-01 | Vantage Controls, Inc. | Backlit display with motion sensor |
US7156318B1 (en) | 2003-09-03 | 2007-01-02 | Howard Rosen | Programmable thermostat incorporating a liquid crystal display selectively presenting adaptable system menus including changeable interactive virtual buttons |
US20050053503A1 (en) * | 2003-09-05 | 2005-03-10 | Gallant Raymond Denis | Anti gas-lock pumping system |
EP1515223A1 (de) * | 2003-09-10 | 2005-03-16 | Siemens Aktiengesellschaft | Generierung einer Objekt-Bearbeitungsplattform zwischen zwei Computern über eine Bildschirmzusammenfügung |
US7440767B2 (en) * | 2003-10-15 | 2008-10-21 | Eaton Corporation | Home system including a portable fob having a rotary menu and a display |
DE10349542B4 (de) * | 2003-10-22 | 2019-09-05 | Volkswagen Ag | Anzeigevorrichtung und Anzeigeverfahren für ein Kraftfahrzeug |
WO2005041029A2 (en) * | 2003-10-24 | 2005-05-06 | Matsushita Electric Industrial Co., Ltd. | Remote operation system, communication apparatus remote control system and document inspection apparatus |
US7136709B2 (en) * | 2003-11-04 | 2006-11-14 | Universal Electronics Inc. | Home appliance control system and methods in a networked environment |
US7155305B2 (en) * | 2003-11-04 | 2006-12-26 | Universal Electronics Inc. | System and methods for home appliance identification and control in a networked environment |
US8479101B2 (en) * | 2003-11-13 | 2013-07-02 | Koninklijke Philips Electronics N.V. | Consistent user interface front end for remote user interfaces |
US7590713B2 (en) * | 2003-11-24 | 2009-09-15 | Microsoft Corporation | Presenting a merged view of remote application shortcuts from multiple providers |
US7720906B2 (en) * | 2003-11-24 | 2010-05-18 | Microsoft Corporation | Web service for remote application discovery |
US7114554B2 (en) * | 2003-12-01 | 2006-10-03 | Honeywell International Inc. | Controller interface with multiple day programming |
US10705549B2 (en) * | 2003-12-02 | 2020-07-07 | Ademco Inc. | Controller interface with menu schedule override |
US8554374B2 (en) * | 2003-12-02 | 2013-10-08 | Honeywell International Inc. | Thermostat with electronic image display |
US7225054B2 (en) * | 2003-12-02 | 2007-05-29 | Honeywell International Inc. | Controller with programmable service event display mode |
US7181317B2 (en) * | 2003-12-02 | 2007-02-20 | Honeywell International Inc. | Controller interface with interview programming |
US7706923B2 (en) * | 2003-12-02 | 2010-04-27 | Honeywell International Inc. | Controller interface with separate schedule review mode |
US7614004B2 (en) * | 2003-12-15 | 2009-11-03 | Microsoft Corporation | Intelligent forward resource navigation |
US7962843B2 (en) * | 2003-12-15 | 2011-06-14 | Microsoft Corporation | Browser session overview |
US7774721B2 (en) * | 2003-12-15 | 2010-08-10 | Microsoft Corporation | Intelligent backward resource navigation |
US7534157B2 (en) | 2003-12-31 | 2009-05-19 | Ganz | System and method for toy adoption and marketing |
CA2552367A1 (en) * | 2003-12-31 | 2005-07-14 | Howard Ganz | System and method for toy adoption and marketing |
US8196044B2 (en) * | 2004-01-05 | 2012-06-05 | Microsoft Corporation | Configuration of user interfaces |
US7142948B2 (en) * | 2004-01-07 | 2006-11-28 | Honeywell International Inc. | Controller interface with dynamic schedule display |
CN1914595A (zh) * | 2004-02-02 | 2007-02-14 | 皇家飞利浦电子股份有限公司 | 用于因特网的ce设备gui的委托外皮制作服务 |
DE102004005712A1 (de) * | 2004-02-05 | 2006-01-12 | Siemens Ag | Universelle Vorrichtung zum Zugriff und zum Steuern von Geräten und entsprechende Geräte |
US7251535B2 (en) | 2004-02-06 | 2007-07-31 | Rockwell Automation Technologies, Inc. | Location based diagnostics method and apparatus |
US7587215B2 (en) * | 2004-02-09 | 2009-09-08 | Siemens Aktiengesellschaft | User interface for cellular telephone group calls |
JP4325439B2 (ja) * | 2004-03-02 | 2009-09-02 | 株式会社日立製作所 | 画面表示方法 |
US7667700B1 (en) | 2004-03-05 | 2010-02-23 | Hrl Laboratories, Llc | System and method for navigating operating in a virtual environment |
US8645569B2 (en) | 2004-03-12 | 2014-02-04 | Rockwell Automation Technologies, Inc. | Juxtaposition based machine addressing |
US10237237B2 (en) | 2007-06-12 | 2019-03-19 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
AU2005223267B2 (en) | 2004-03-16 | 2010-12-09 | Icontrol Networks, Inc. | Premises management system |
US11244545B2 (en) | 2004-03-16 | 2022-02-08 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US11916870B2 (en) | 2004-03-16 | 2024-02-27 | Icontrol Networks, Inc. | Gateway registry methods and systems |
US9729342B2 (en) | 2010-12-20 | 2017-08-08 | Icontrol Networks, Inc. | Defining and implementing sensor triggered response rules |
US10721087B2 (en) | 2005-03-16 | 2020-07-21 | Icontrol Networks, Inc. | Method for networked touchscreen with integrated interfaces |
US12063220B2 (en) | 2004-03-16 | 2024-08-13 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11343380B2 (en) | 2004-03-16 | 2022-05-24 | Icontrol Networks, Inc. | Premises system automation |
US20220057917A1 (en) * | 2004-03-16 | 2022-02-24 | Icontrol Networks, Inc. | User interface in a premises network |
US11811845B2 (en) | 2004-03-16 | 2023-11-07 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US7840984B1 (en) | 2004-03-17 | 2010-11-23 | Embarq Holdings Company, Llc | Media administering system and method |
JP4646538B2 (ja) | 2004-03-26 | 2011-03-09 | アルパイン株式会社 | ナビゲーション機能を有する電子装置および夜景マップ表示方法 |
US8078298B2 (en) * | 2004-03-26 | 2011-12-13 | Harman International Industries, Incorporated | System for node structure discovery in an audio-related system |
US7116229B1 (en) * | 2004-03-31 | 2006-10-03 | Zilog, Inc. | Programming a remote control device using RFID technology |
US8448083B1 (en) * | 2004-04-16 | 2013-05-21 | Apple Inc. | Gesture control of multimedia editing applications |
WO2005103867A1 (en) * | 2004-04-22 | 2005-11-03 | Denis Fompeyrine | Multi-terminal control interface to manage information within user groups connected to each other in peer-to-peer networks |
JP4436186B2 (ja) * | 2004-05-12 | 2010-03-24 | アルパイン株式会社 | ナビゲーション装置及び地図表示方法 |
WO2005114913A1 (en) * | 2004-05-21 | 2005-12-01 | Nokia Corporation | Device and method for automated functionality-based selective establishing of wireless data communication connections |
CN100426208C (zh) * | 2004-06-07 | 2008-10-15 | 皇家飞利浦电子股份有限公司 | 空间交互系统 |
US9552141B2 (en) | 2004-06-21 | 2017-01-24 | Apple Inc. | Methods and apparatuses for operating a data processing system |
US7185825B1 (en) | 2004-06-24 | 2007-03-06 | Howard Rosen | Programmable thermostat employing a fail safe real time clock |
US20060004834A1 (en) * | 2004-06-30 | 2006-01-05 | Nokia Corporation | Dynamic shortcuts |
US7084775B1 (en) * | 2004-07-12 | 2006-08-01 | User-Centric Ip, L.P. | Method and system for generating and sending user-centric weather alerts |
KR100631763B1 (ko) * | 2004-07-26 | 2006-10-09 | 삼성전자주식회사 | 3차원 모션 그래픽 사용자 인터페이스 및 이를 제공하는방법 및 장치 |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US20100081375A1 (en) * | 2008-09-30 | 2010-04-01 | Apple Inc. | System and method for simplified control of electronic devices |
US20060036970A1 (en) * | 2004-08-16 | 2006-02-16 | Charles Rich | System for configuring and controlling home appliances |
CN100555200C (zh) | 2004-08-16 | 2009-10-28 | 苹果公司 | 触敏器件和提高触敏器件的空间分辨率的方法 |
US7786891B2 (en) * | 2004-08-27 | 2010-08-31 | Embarq Holdings Company, Llc | System and method for an interactive security system for a home |
US9632665B2 (en) | 2004-09-08 | 2017-04-25 | Universal Electronics Inc. | System and method for flexible configuration of a controlling device |
US20110093799A1 (en) * | 2004-09-08 | 2011-04-21 | Universal Electronics Inc. | System and method for configuration of controlling device functionality |
US11687217B2 (en) | 2004-09-08 | 2023-06-27 | Universal Electronics Inc. | System and method for flexible configuration of a controlling device |
US8185427B2 (en) | 2004-09-22 | 2012-05-22 | Samsung Electronics Co., Ltd. | Method and system for presenting user tasks for the control of electronic devices |
US8099313B2 (en) | 2004-09-22 | 2012-01-17 | Samsung Electronics Co., Ltd. | Method and system for the orchestration of tasks on consumer electronics |
KR100582888B1 (ko) | 2004-09-22 | 2006-05-25 | 삼성전자주식회사 | 정보 공유가 가능한 호스트 기기 및 주변기기, 그의문자정보 공유 방법 및 문자정보 공유 시스템 |
DE102004046582B4 (de) * | 2004-09-23 | 2007-12-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Steuerung einer steuerbaren Einrichtung |
US7721311B2 (en) * | 2004-09-24 | 2010-05-18 | Canon Kabushiki Kaisha | Displaying EPG information on a digital television |
US8412554B2 (en) | 2004-09-24 | 2013-04-02 | Samsung Electronics Co., Ltd. | Method and system for describing consumer electronics using separate task and device descriptions |
US7840982B1 (en) | 2004-09-28 | 2010-11-23 | Embarq Holding Company, Llc | Video-all call system and method for a facility |
US8744852B1 (en) | 2004-10-01 | 2014-06-03 | Apple Inc. | Spoken interfaces |
JP2006134288A (ja) * | 2004-10-06 | 2006-05-25 | Sharp Corp | インターフェース及びコンピュータにより実行されるインターフェースプログラム |
US8033479B2 (en) | 2004-10-06 | 2011-10-11 | Lawrence Kates | Electronically-controlled register vent for zone heating and cooling |
US8169410B2 (en) | 2004-10-20 | 2012-05-01 | Nintendo Co., Ltd. | Gesture inputs for a portable display device |
JP2008511895A (ja) * | 2004-10-28 | 2008-04-17 | ノキア コーポレイション | デバイスメニュー |
US8382567B2 (en) | 2004-11-03 | 2013-02-26 | Mattel, Inc. | Interactive DVD gaming systems |
US20060112073A1 (en) * | 2004-11-22 | 2006-05-25 | Jensen David L | Interface building/design tool for generating nested interface systems and displays |
US20060123080A1 (en) * | 2004-12-03 | 2006-06-08 | Motorola, Inc. | Method and system of collectively setting preferences among a plurality of electronic devices and users |
US20060123081A1 (en) * | 2004-12-03 | 2006-06-08 | Motorola, Inc. | Method and system for seamless portability by profile sharing |
US20060120518A1 (en) * | 2004-12-03 | 2006-06-08 | Motorola, Inc. | Method and system for information relay between multiple user environments |
US8726168B2 (en) * | 2004-12-04 | 2014-05-13 | Adobe Systems Incorporated | System and method for hiding latency in computer software |
USD579949S1 (en) * | 2004-12-17 | 2008-11-04 | Bsh Bosch Und Siemens Hausgeraete Gmbh | Display for dishwasher |
US7683889B2 (en) * | 2004-12-21 | 2010-03-23 | Microsoft Corporation | Pressure based selection |
US7629966B2 (en) * | 2004-12-21 | 2009-12-08 | Microsoft Corporation | Hard tap |
US7619616B2 (en) * | 2004-12-21 | 2009-11-17 | Microsoft Corporation | Pressure sensitive controls |
US8510737B2 (en) | 2005-01-07 | 2013-08-13 | Samsung Electronics Co., Ltd. | Method and system for prioritizing tasks made available by devices in a network |
US20060196953A1 (en) * | 2005-01-19 | 2006-09-07 | Tim Simon, Inc. | Multiple thermostat installation |
US7802618B2 (en) * | 2005-01-19 | 2010-09-28 | Tim Simon, Inc. | Thermostat operation method and apparatus |
DE102005003680A1 (de) * | 2005-01-21 | 2006-07-27 | Siemens Ag | Verfahren zur Steuerung eines Geräts |
DE102005010914A1 (de) * | 2005-01-21 | 2006-08-10 | Siemens Ag | Verfahren zur Gebäudesteuerung und Gebäudeüberwachung |
US7697927B1 (en) | 2005-01-25 | 2010-04-13 | Embarq Holdings Company, Llc | Multi-campus mobile management system for wirelessly controlling systems of a facility |
US20060168528A1 (en) * | 2005-01-27 | 2006-07-27 | Microsoft Corporation | Method for arranging user interface glyphs on displays |
EP1848348A2 (de) * | 2005-02-02 | 2007-10-31 | Peacock, James C., III | System und verfahren zur behandlung von totalem gefässverschluss |
US8819569B2 (en) * | 2005-02-18 | 2014-08-26 | Zumobi, Inc | Single-handed approach for navigation of application tiles using panning and zooming |
US7861941B2 (en) * | 2005-02-28 | 2011-01-04 | Honeywell International Inc. | Automatic thermostat schedule/program selector system |
EP4177708B1 (de) * | 2005-03-04 | 2025-01-29 | Apple Inc. | Multifunktionales handgerät |
US7765573B1 (en) | 2005-03-08 | 2010-07-27 | Embarq Holdings Company, LLP | IP-based scheduling and control of digital video content delivery |
US20120324566A1 (en) | 2005-03-16 | 2012-12-20 | Marc Baum | Takeover Processes In Security Network Integrated With Premise Security System |
US7584897B2 (en) | 2005-03-31 | 2009-09-08 | Honeywell International Inc. | Controller system user interface |
DE102006018238A1 (de) | 2005-04-20 | 2007-03-29 | Logitech Europe S.A. | System und Verfahren zur adaptiven Programmierung einer Fernbedienung |
KR100716288B1 (ko) * | 2005-06-17 | 2007-05-09 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
FI20055369A0 (fi) * | 2005-06-30 | 2005-06-30 | Nokia Corp | Menetelmä ja laite digitaalisten mediatiedostojen käsittelemiseksi |
US20070050468A1 (en) * | 2005-08-09 | 2007-03-01 | Comverse, Ltd. | Reality context menu (RCM) |
US7294089B2 (en) * | 2005-08-15 | 2007-11-13 | Ford Global Technologies, Llc | Multiple-speed automatic transmission |
JP4773159B2 (ja) * | 2005-08-19 | 2011-09-14 | 任天堂株式会社 | ゲームプログラム、ゲーム装置およびゲーム制御方法 |
US8225231B2 (en) | 2005-08-30 | 2012-07-17 | Microsoft Corporation | Aggregation of PC settings |
US20070149281A1 (en) * | 2005-09-02 | 2007-06-28 | Igt | Virtual movable mechanical display device |
US9552686B2 (en) * | 2005-09-02 | 2017-01-24 | Igt | Video and mechanical spinning bonus wheel |
US8092304B2 (en) * | 2006-11-08 | 2012-01-10 | Igt | Simulation of mechanical reels of gaming machines |
AU2006287639C1 (en) | 2005-09-07 | 2012-06-28 | Open Invention Network, Llc | Method and computer program for device configuration |
US7778262B2 (en) | 2005-09-07 | 2010-08-17 | Vantage Controls, Inc. | Radio frequency multiple protocol bridge |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9015587B2 (en) | 2005-09-26 | 2015-04-21 | Samsung Electronics Co., Ltd. | Home network device and method of receiving and transmitting sound information using the same |
EP1780952B1 (de) * | 2005-09-26 | 2013-07-03 | Samsung Electronics Co., Ltd. | Gerät für ein Hausnetzwerk und Verfahren zum Übertragen von Toninformation unter Nutzung des Gerätes |
DE102005048230A1 (de) * | 2005-10-07 | 2007-04-12 | Volkswagen Ag | Eingabevorrichtung für ein Kraftfahrzeug |
KR20080068052A (ko) * | 2005-10-10 | 2008-07-22 | 씨아이피엘에이 엘티디. | 신규의 결정형 |
US8417700B2 (en) * | 2005-12-01 | 2013-04-09 | Northrop Grumman Systems Corporation | Interactive tool for constructing and editing process diagrams |
USD545841S1 (en) * | 2005-12-09 | 2007-07-03 | Xerox Corporation | Variable information suite web server application icon for a display screen |
US11812111B2 (en) | 2005-12-20 | 2023-11-07 | Universal Electronics Inc. | System and method for presenting program guide information in an electronic portable device |
US20070150820A1 (en) * | 2005-12-22 | 2007-06-28 | Salvo Anthony C | Data-driven user interface |
US8806347B2 (en) * | 2005-12-27 | 2014-08-12 | Panasonic Corporation | Systems and methods for providing distributed user interfaces to configure client devices |
US7509588B2 (en) * | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
WO2007133294A2 (en) * | 2005-12-30 | 2007-11-22 | Bmo Llc | Ubiquitous navbar user interface across multiple heterogeneous digital media devices |
US8514244B2 (en) * | 2006-01-23 | 2013-08-20 | Nokia Corporation | Mobile communication terminal and method therefore |
FR2896892B1 (fr) * | 2006-01-30 | 2008-06-06 | Isen Toulon | Systeme et procede de controle a distance d'appareils electriques dans un reseau domotique |
US7836437B2 (en) * | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
US7509402B2 (en) | 2006-03-16 | 2009-03-24 | Exceptional Innovation, Llc | Automation control system having a configuration tool and two-way ethernet communication for web service messaging, discovery, description, and eventing that is controllable with a touch-screen display |
US8725845B2 (en) | 2006-03-16 | 2014-05-13 | Exceptional Innovation Llc | Automation control system having a configuration tool |
US7496627B2 (en) | 2006-03-16 | 2009-02-24 | Exceptional Innovation, Llc | Automation control system having digital logging |
US8001219B2 (en) | 2006-03-16 | 2011-08-16 | Exceptional Innovation, Llc | User control interface for convergence and automation system |
US7587464B2 (en) * | 2006-03-16 | 2009-09-08 | Exceptional Innovation, Llc | Device automation using networked device control having a web services for devices stack |
US7966083B2 (en) * | 2006-03-16 | 2011-06-21 | Exceptional Innovation Llc | Automation control system having device scripting |
US8155142B2 (en) | 2006-03-16 | 2012-04-10 | Exceptional Innovation Llc | Network based digital access point device |
US8209398B2 (en) | 2006-03-16 | 2012-06-26 | Exceptional Innovation Llc | Internet protocol based media streaming solution |
WO2007126781A2 (en) | 2006-03-27 | 2007-11-08 | Exceptional Innovation Llc | Set top box for convergence and automation system |
JP4684147B2 (ja) | 2006-03-28 | 2011-05-18 | 任天堂株式会社 | 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム |
US7538760B2 (en) | 2006-03-30 | 2009-05-26 | Apple Inc. | Force imaging input device and system |
US7511702B2 (en) * | 2006-03-30 | 2009-03-31 | Apple Inc. | Force and location sensitive display |
USD566128S1 (en) * | 2006-04-17 | 2008-04-08 | Samsung Electronics Co., Ltd. | Video display for PDA |
WO2007124453A2 (en) * | 2006-04-20 | 2007-11-01 | Exceptional Innovation Llc | Touch screen for convergence and automation system |
US7978181B2 (en) | 2006-04-25 | 2011-07-12 | Apple Inc. | Keystroke tactility arrangement on a smooth touch surface |
US7682250B2 (en) * | 2006-04-28 | 2010-03-23 | Nintendo Co., Ltd. | Method and apparatus for simulating interactive spinning bar gymnastics on a 3D display |
US8279180B2 (en) | 2006-05-02 | 2012-10-02 | Apple Inc. | Multipoint touch surface controller |
US8700772B2 (en) | 2006-05-03 | 2014-04-15 | Cloud Systems, Inc. | System and method for automating the management, routing, and control of multiple devices and inter-device connections |
US7667968B2 (en) * | 2006-05-19 | 2010-02-23 | Exceptional Innovation, Llc | Air-cooling system configuration for touch screen |
US8073984B2 (en) | 2006-05-22 | 2011-12-06 | Apple Inc. | Communication protocol for use with portable electronic devices |
US7643895B2 (en) | 2006-05-22 | 2010-01-05 | Apple Inc. | Portable media device with workout support |
CN101449471A (zh) * | 2006-05-22 | 2009-06-03 | 耐克国际有限公司 | 用于远程控制数字音乐播放器的用户接口 |
US20070271116A1 (en) | 2006-05-22 | 2007-11-22 | Apple Computer, Inc. | Integrated media jukebox and physiologic data handling application |
US8237736B2 (en) | 2006-06-01 | 2012-08-07 | Microsoft Corporation | User interface color based on background image |
US8552989B2 (en) * | 2006-06-09 | 2013-10-08 | Apple Inc. | Integrated display and touch screen |
DE112007002544A1 (de) | 2006-06-09 | 2010-07-22 | Apple Inc., Cupertino | Flüssigkristallanzeige mit Berührungsbildschirm |
CN104965621B (zh) | 2006-06-09 | 2018-06-12 | 苹果公司 | 触摸屏液晶显示器及其操作方法 |
US12063221B2 (en) | 2006-06-12 | 2024-08-13 | Icontrol Networks, Inc. | Activation of gateway device |
US9144204B2 (en) | 2006-06-20 | 2015-09-29 | Rain Bird Corporation | User interface for a sensor-based interface device for interrupting an irrigation controller |
EP2035629A4 (de) | 2006-06-20 | 2012-08-29 | Rain Bird Corp | Sensorvorrichtung zur bewässerungsunterbrechung |
US9940626B2 (en) * | 2006-06-23 | 2018-04-10 | At&T Intellectual Property I, L.P. | Methods and apparatus to provide an electronic agent |
US8316325B2 (en) * | 2006-06-29 | 2012-11-20 | Lg Electronics Inc. | Mobile terminal and method for controlling screen thereof |
US20080059896A1 (en) * | 2006-08-30 | 2008-03-06 | Microsoft Corporation | Mobile Device User Interface |
AU2007290492B2 (en) * | 2006-08-31 | 2012-03-15 | Wms Gaming Inc. | Remote input device for a wagering game |
US7940250B2 (en) | 2006-09-06 | 2011-05-10 | Apple Inc. | Web-clip widgets on a portable multifunction device |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US8106856B2 (en) * | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US20080062137A1 (en) * | 2006-09-11 | 2008-03-13 | Apple Computer, Inc. | Touch actuation controller for multi-state media presentation |
US20080065722A1 (en) * | 2006-09-11 | 2008-03-13 | Apple Computer, Inc. | Media device playlists |
US9565387B2 (en) * | 2006-09-11 | 2017-02-07 | Apple Inc. | Perspective scale video with navigation menu |
US8243017B2 (en) | 2006-09-11 | 2012-08-14 | Apple Inc. | Menu overlay including context dependent menu icon |
US20080066135A1 (en) * | 2006-09-11 | 2008-03-13 | Apple Computer, Inc. | Search user interface for media device |
US9630104B2 (en) * | 2006-10-23 | 2017-04-25 | Konrad V. Sherinian | Systems, methods, and apparatus for transmitting virtual world content from a server system to a client |
US8570278B2 (en) | 2006-10-26 | 2013-10-29 | Apple Inc. | Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker |
US7856605B2 (en) * | 2006-10-26 | 2010-12-21 | Apple Inc. | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display |
KR20080042354A (ko) * | 2006-11-09 | 2008-05-15 | 삼성전자주식회사 | 이동 통신 단말기에서 대기 화면 전환 방법 및 대기 화면회전 방법과 그 이동 통신 단말기 |
WO2008073658A2 (en) * | 2006-11-09 | 2008-06-19 | Exceptional Innovation, Llc. | Portable device for convergence and automation solution |
US20080120448A1 (en) * | 2006-11-21 | 2008-05-22 | Microsoft Corporation | Remote mouse and keyboard using bluetooth |
KR100851302B1 (ko) | 2006-11-27 | 2008-08-08 | 삼성전자주식회사 | 휴대 단말기의 대기화면에서의 기능 실행 방법 |
AU2007237363B2 (en) | 2006-12-06 | 2010-04-29 | 2121200 Ontario Inc. | Feature codes and bonuses in virtual worlds |
KR101532369B1 (ko) * | 2006-12-11 | 2015-06-29 | 삼성전자주식회사 | 휴대용 단말기의 원격제어 장치 및 방법 |
US20080155478A1 (en) * | 2006-12-21 | 2008-06-26 | Mark Stross | Virtual interface and system for controlling a device |
US8493330B2 (en) * | 2007-01-03 | 2013-07-23 | Apple Inc. | Individual channel phase delay scheme |
US7956847B2 (en) * | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US8015581B2 (en) * | 2007-01-05 | 2011-09-06 | Verizon Patent And Licensing Inc. | Resource data configuration for media content access systems and methods |
US9710095B2 (en) | 2007-01-05 | 2017-07-18 | Apple Inc. | Touch screen stack-ups |
US8788954B2 (en) | 2007-01-07 | 2014-07-22 | Apple Inc. | Web-clip widgets on a portable multifunction device |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
US20080168402A1 (en) | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US20080281718A1 (en) * | 2007-01-08 | 2008-11-13 | Barrett Morgan | Household network incorporating secure set-top devices |
US11706279B2 (en) | 2007-01-24 | 2023-07-18 | Icontrol Networks, Inc. | Methods and systems for data communication |
KR20090000248A (ko) * | 2007-02-07 | 2009-01-07 | 엘지전자 주식회사 | 에어컨의 통합관리 표시 장치 및 방법 |
JP2008204402A (ja) * | 2007-02-22 | 2008-09-04 | Eastman Kodak Co | ユーザインターフェース装置 |
KR101376894B1 (ko) * | 2007-02-28 | 2014-03-20 | 엘지전자 주식회사 | 이동통신단말기의 다이얼링 방법 및 터치스크린을 구비한이동통신단말기 |
US7633385B2 (en) | 2007-02-28 | 2009-12-15 | Ucontrol, Inc. | Method and system for communicating with and controlling an alarm system from a remote server |
JP4887184B2 (ja) * | 2007-03-02 | 2012-02-29 | 株式会社リコー | 表示処理装置、表示処理方法、および表示処理プログラム |
US7849096B2 (en) * | 2007-03-13 | 2010-12-07 | Fein Gene S | Multiple parameter data media search in a distributed network |
US8914786B2 (en) | 2007-03-23 | 2014-12-16 | Zumobi, Inc. | Systems and methods for controlling application updates across a wireless interface |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US7693842B2 (en) * | 2007-04-09 | 2010-04-06 | Microsoft Corporation | In situ search for active note taking |
KR101379995B1 (ko) * | 2007-04-17 | 2014-04-02 | 엘지전자 주식회사 | 단말기 및 그 표시방법 |
EP2141578B1 (de) | 2007-04-24 | 2019-01-23 | Sony Interactive Entertainment Inc. | Bildanzeigevorrichtung, bildanzeigeverfahren und informationsaufzeichnungsmedium |
KR20080097059A (ko) * | 2007-04-30 | 2008-11-04 | 삼성전자주식회사 | 통신 단말기의 사용자 컨텐츠 관리 방법 |
US9423996B2 (en) * | 2007-05-03 | 2016-08-23 | Ian Cummings | Vehicle navigation user interface customization methods |
US8209358B2 (en) * | 2007-05-09 | 2012-06-26 | Illinois Institute Of Technology | Hierarchical structured abstract data organization system |
US10042898B2 (en) | 2007-05-09 | 2018-08-07 | Illinois Institutre Of Technology | Weighted metalabels for enhanced search in hierarchical abstract data organization systems |
US9128954B2 (en) | 2007-05-09 | 2015-09-08 | Illinois Institute Of Technology | Hierarchical structured data organization system |
US9633028B2 (en) | 2007-05-09 | 2017-04-25 | Illinois Institute Of Technology | Collaborative and personalized storage and search in hierarchical abstract data organization systems |
US20080307109A1 (en) * | 2007-06-08 | 2008-12-11 | Galloway Curtis C | File protocol for transaction based communication |
US11212192B2 (en) | 2007-06-12 | 2021-12-28 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US12184443B2 (en) | 2007-06-12 | 2024-12-31 | Icontrol Networks, Inc. | Controlling data routing among networks |
US12003387B2 (en) | 2012-06-27 | 2024-06-04 | Comcast Cable Communications, Llc | Control system user interface |
US11218878B2 (en) | 2007-06-12 | 2022-01-04 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US8711102B2 (en) * | 2007-06-15 | 2014-04-29 | Microsoft Corporation | Graphical communication user interface with graphical position user input mechanism for selecting a display image |
US9933937B2 (en) | 2007-06-20 | 2018-04-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for playing online videos |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
KR20090005680A (ko) * | 2007-07-09 | 2009-01-14 | 삼성전자주식회사 | 원통형 입체 형상의 메뉴를 제공하기 위한 gui 제공방법및 이를 적용한 멀티미디어 기기 |
ITMI20071607A1 (it) * | 2007-08-03 | 2009-02-04 | Incard Sa | Metodo per accedere a contenuti multimediali associati a un' area geografica. |
US10223903B2 (en) | 2010-09-28 | 2019-03-05 | Icontrol Networks, Inc. | Integrated security system with parallel processing architecture |
FR2920055B1 (fr) * | 2007-08-14 | 2013-05-03 | Airbus France | Systeme et procede de transmission de donnees entre au moins un ecran d'affichage et un systeme client |
US20090051671A1 (en) * | 2007-08-22 | 2009-02-26 | Jason Antony Konstas | Recognizing the motion of two or more touches on a touch-sensing surface |
US11831462B2 (en) | 2007-08-24 | 2023-11-28 | Icontrol Networks, Inc. | Controlling data routing in premises management systems |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
US20090058820A1 (en) * | 2007-09-04 | 2009-03-05 | Microsoft Corporation | Flick-based in situ search from ink, text, or an empty selection region |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US8122356B2 (en) * | 2007-10-03 | 2012-02-21 | Eastman Kodak Company | Method for image animation using image value rules |
US8191002B2 (en) * | 2007-10-15 | 2012-05-29 | International Business Machines Corporation | Summarizing portlet usage in a portal page |
US7904818B2 (en) * | 2007-10-15 | 2011-03-08 | International Business Machines Corporation | Summarizing portlet usage captured responsive to trigger events in a portal page |
US8375397B1 (en) | 2007-11-06 | 2013-02-12 | Google Inc. | Snapshot view of multi-dimensional virtual environment |
US8595299B1 (en) | 2007-11-07 | 2013-11-26 | Google Inc. | Portals between multi-dimensional virtual environments |
US8732591B1 (en) | 2007-11-08 | 2014-05-20 | Google Inc. | Annotations of objects in multi-dimensional virtual environments |
EP2063350A1 (de) * | 2007-11-20 | 2009-05-27 | Samsung Electronics Co., Ltd. | Verfahren und Vorrichtung für die Verkopplung von Vorrichtungen in einem Heimnetzwerk |
US20100333017A1 (en) * | 2007-11-27 | 2010-12-30 | David J. Ortiz | Computer graphic user interface and display system |
US20090143880A1 (en) | 2007-11-30 | 2009-06-04 | Honeywell International, Inc. | Hvac controller with context sensitive help screens |
US8387892B2 (en) * | 2007-11-30 | 2013-03-05 | Honeywell International Inc. | Remote control for use in zoned and non-zoned HVAC systems |
US20090156251A1 (en) * | 2007-12-12 | 2009-06-18 | Alan Cannistraro | Remote control protocol for media systems controlled by portable devices |
US8542323B2 (en) * | 2007-12-21 | 2013-09-24 | Sony Corporation | Touch sensitive wireless navigation device for remote control |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8990720B2 (en) * | 2008-01-09 | 2015-03-24 | International Business Machines Corporation | Setting alert thresholds in the context of a real-time dashboard chart |
US11916928B2 (en) | 2008-01-24 | 2024-02-27 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US8146004B2 (en) * | 2008-02-01 | 2012-03-27 | At&T Intellectual Property I, L.P. | Graphical user interface to facilitate selection of contacts and file attachments for electronic messaging |
US20090195513A1 (en) * | 2008-02-05 | 2009-08-06 | Delphi Technologies, Inc. | Interactive multimedia control module |
US8151215B2 (en) * | 2008-02-07 | 2012-04-03 | Sony Corporation | Favorite GUI for TV |
US20090207175A1 (en) * | 2008-02-15 | 2009-08-20 | Apple Inc. | Animation Using Animation Effect and Trigger Element |
US8416196B2 (en) | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
US8271951B2 (en) * | 2008-03-04 | 2012-09-18 | International Business Machines Corporation | System and methods for collecting software development feedback |
US8650507B2 (en) * | 2008-03-04 | 2014-02-11 | Apple Inc. | Selecting of text using gestures |
US8201109B2 (en) | 2008-03-04 | 2012-06-12 | Apple Inc. | Methods and graphical user interfaces for editing on a portable multifunction device |
US8717305B2 (en) | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
TWI428814B (zh) * | 2008-04-15 | 2014-03-01 | Htc Corp | 在螢幕鎖定狀態下切換背景圖的方法、其行動電子裝置與儲存媒體 |
US9870123B1 (en) | 2008-04-18 | 2018-01-16 | Universal Electronics Inc. | Selecting a picture of a device to identify an associated codeset |
TW200945165A (en) * | 2008-04-22 | 2009-11-01 | Htc Corp | Method and apparatus for operating graphic menu bar and recording medium using the same |
US8947460B2 (en) | 2008-04-22 | 2015-02-03 | Htc Corporation | Method and apparatus for operating graphic menu bar and recording medium using the same |
TWI361377B (en) * | 2008-04-24 | 2012-04-01 | Htc Corp | Method for switching user interface, electronic device and recording medium using the same |
US8237551B2 (en) * | 2008-04-30 | 2012-08-07 | Centurylink Intellectual Property Llc | System and method for in-patient telephony |
US20090284476A1 (en) * | 2008-05-13 | 2009-11-19 | Apple Inc. | Pushing a user interface to a remote device |
US8970647B2 (en) | 2008-05-13 | 2015-03-03 | Apple Inc. | Pushing a graphical user interface to a remote device with display rules provided by the remote device |
US20100293462A1 (en) * | 2008-05-13 | 2010-11-18 | Apple Inc. | Pushing a user interface to a remote device |
US9311115B2 (en) | 2008-05-13 | 2016-04-12 | Apple Inc. | Pushing a graphical user interface to a remote device with display rules provided by the remote device |
US9870130B2 (en) | 2008-05-13 | 2018-01-16 | Apple Inc. | Pushing a user interface to a remote device |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
FR2931329B1 (fr) * | 2008-05-16 | 2010-06-18 | Airbus France | Procede de transmission de donnees entre au moins un ecran d'affichage d'un poste de pilotage et au moins un ensemble client distant |
US8311806B2 (en) | 2008-06-06 | 2012-11-13 | Apple Inc. | Data detection in a sequence of tokens using decision tree reductions |
US8738360B2 (en) | 2008-06-06 | 2014-05-27 | Apple Inc. | Data detection of a character sequence having multiple possible data types |
CN101609396B (zh) * | 2008-06-16 | 2012-12-26 | 成都吉锐触摸技术股份有限公司 | 一种触摸屏通讯协议的实现方法 |
US8115745B2 (en) | 2008-06-19 | 2012-02-14 | Tactile Displays, Llc | Apparatus and method for interactive display with tactile feedback |
US8665228B2 (en) | 2008-06-19 | 2014-03-04 | Tactile Displays, Llc | Energy efficient interactive display with energy regenerative keyboard |
US8217908B2 (en) | 2008-06-19 | 2012-07-10 | Tactile Displays, Llc | Apparatus and method for interactive display with tactile feedback |
US9513705B2 (en) | 2008-06-19 | 2016-12-06 | Tactile Displays, Llc | Interactive display with tactile feedback |
US20170185278A1 (en) | 2008-08-11 | 2017-06-29 | Icontrol Networks, Inc. | Automation system user interface |
US9294705B2 (en) | 2008-06-27 | 2016-03-22 | Universal Electronics Inc. | System and method for ubiquitous appliance control |
US20090323802A1 (en) * | 2008-06-27 | 2009-12-31 | Walters Clifford A | Compact camera-mountable video encoder, studio rack-mountable video encoder, configuration device, and broadcasting network utilizing the same |
USD626561S1 (en) * | 2008-06-30 | 2010-11-02 | Nellcor Puritan Bennett Llc | Circular satseconds indicator and triangular saturation pattern detection indicator for a patient monitor display panel |
USD626562S1 (en) * | 2008-06-30 | 2010-11-02 | Nellcor Puritan Bennett Llc | Triangular saturation pattern detection indicator for a patient monitor display panel |
JP4636131B2 (ja) * | 2008-07-04 | 2011-02-23 | ソニー株式会社 | 情報提供装置、情報提供方法、およびプログラム |
US9716774B2 (en) | 2008-07-10 | 2017-07-25 | Apple Inc. | System and method for syncing a user interface on a server device to a user interface on a client device |
US20100017385A1 (en) | 2008-07-16 | 2010-01-21 | International Business Machines | Creating and managing reference elements of deployable web archive files |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
CN101644970A (zh) * | 2008-08-07 | 2010-02-10 | 鸿富锦精密工业(深圳)有限公司 | 通信装置的输入方法 |
US11792036B2 (en) | 2008-08-11 | 2023-10-17 | Icontrol Networks, Inc. | Mobile premises automation platform |
US11758026B2 (en) | 2008-08-11 | 2023-09-12 | Icontrol Networks, Inc. | Virtual device systems and methods |
US11729255B2 (en) | 2008-08-11 | 2023-08-15 | Icontrol Networks, Inc. | Integrated cloud system with lightweight gateway for premises automation |
GB2463516A (en) * | 2008-08-12 | 2010-03-24 | Hathaway Technologies Ltd | Remote control of appliances using a graphical user interface |
USD596963S1 (en) | 2008-08-18 | 2009-07-28 | Honeywell International Inc. | Environmental controller housing |
US8805110B2 (en) * | 2008-08-19 | 2014-08-12 | Digimarc Corporation | Methods and systems for content processing |
US20100044449A1 (en) * | 2008-08-19 | 2010-02-25 | Honeywell International Inc. | Service reminders for building control systems |
USD596964S1 (en) | 2008-09-05 | 2009-07-28 | Honeywell International Inc. | Thermostat housing |
CN102224664A (zh) * | 2008-09-23 | 2011-10-19 | 威罗门飞行公司 | 用于开口三角形h桥驱动的高效无铁芯永磁电机的预测脉冲宽度调制 |
US8886112B2 (en) | 2008-09-24 | 2014-11-11 | Apple Inc. | Media device with enhanced data retrieval feature |
US20100076576A1 (en) * | 2008-09-24 | 2010-03-25 | Apple Inc. | Systems, methods, and devices for providing broadcast media from a selected source |
US20100075695A1 (en) * | 2008-09-24 | 2010-03-25 | Apple Inc. | Systems, methods, and devices for retrieving local broadcast source presets |
US8452228B2 (en) | 2008-09-24 | 2013-05-28 | Apple Inc. | Systems, methods, and devices for associating a contact identifier with a broadcast source |
US20100082662A1 (en) * | 2008-09-25 | 2010-04-01 | Microsoft Corporation | Information Retrieval System User Interface |
US20100083189A1 (en) * | 2008-09-30 | 2010-04-01 | Robert Michael Arlein | Method and apparatus for spatial context based coordination of information among multiple devices |
US8214747B1 (en) | 2008-10-10 | 2012-07-03 | Adobe Systems Incorporated | Role based state and dynamic feature enablement for collaborative and non-collaborative workspaces and imbeded applications |
DE102008050912A1 (de) * | 2008-10-10 | 2010-04-22 | EOS-Werke Günther GmbH | Benutzerschnittstelle sowie Verfahren zu deren Betrieb |
US20100107100A1 (en) | 2008-10-23 | 2010-04-29 | Schneekloth Jason S | Mobile Device Style Abstraction |
US8385952B2 (en) | 2008-10-23 | 2013-02-26 | Microsoft Corporation | Mobile communications device user interface |
US8411046B2 (en) | 2008-10-23 | 2013-04-02 | Microsoft Corporation | Column organization of content |
US8359205B2 (en) | 2008-10-24 | 2013-01-22 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US9667365B2 (en) | 2008-10-24 | 2017-05-30 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8121830B2 (en) | 2008-10-24 | 2012-02-21 | The Nielsen Company (Us), Llc | Methods and apparatus to extract data encoded in media content |
US9954976B2 (en) * | 2008-11-03 | 2018-04-24 | Viavi Solutions Inc. | System and method for remotely displaying data |
US8489388B2 (en) | 2008-11-10 | 2013-07-16 | Apple Inc. | Data detection |
US8584031B2 (en) | 2008-11-19 | 2013-11-12 | Apple Inc. | Portable touch screen device, method, and graphical user interface for using emoji characters |
US8508357B2 (en) | 2008-11-26 | 2013-08-13 | The Nielsen Company (Us), Llc | Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking |
CN101751286B (zh) * | 2008-11-28 | 2015-05-13 | 汉达精密电子(昆山)有限公司 | 直觉化档案传输方法 |
US10228820B2 (en) | 2008-12-08 | 2019-03-12 | Samsung Electronics Co., Ltd. | Display apparatus and displaying method thereof |
KR101588666B1 (ko) * | 2008-12-08 | 2016-01-27 | 삼성전자주식회사 | 디스플레이 장치 및 그의 표시방법 |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US9075901B2 (en) | 2008-12-15 | 2015-07-07 | International Business Machines Corporation | System and method to visualize activities through the use of avatars |
US8453057B2 (en) * | 2008-12-22 | 2013-05-28 | Verizon Patent And Licensing Inc. | Stage interaction for mobile device |
US8255807B2 (en) * | 2008-12-23 | 2012-08-28 | Ganz | Item customization and website customization |
US20100178938A1 (en) * | 2009-01-13 | 2010-07-15 | Apple Inc. | Systems and methods for customizing radio presets |
KR20100085328A (ko) * | 2009-01-20 | 2010-07-29 | 삼성전자주식회사 | 디스플레이장치 및 영상표시방법 |
US10175848B2 (en) * | 2009-02-09 | 2019-01-08 | Nokia Technologies Oy | Displaying a display portion including an icon enabling an item to be added to a list |
US8775023B2 (en) | 2009-02-15 | 2014-07-08 | Neanode Inc. | Light-based touch controls on a steering wheel and dashboard |
US8307299B2 (en) * | 2009-03-04 | 2012-11-06 | Bayerische Motoren Werke Aktiengesellschaft | Virtual office management system |
US9875013B2 (en) * | 2009-03-16 | 2018-01-23 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
KR101542744B1 (ko) * | 2009-03-18 | 2015-08-10 | 삼성전자주식회사 | 네트워크에서 피제어장치를 제어하는 방법 및 그 장치 |
US20100241955A1 (en) * | 2009-03-23 | 2010-09-23 | Microsoft Corporation | Organization and manipulation of content items on a touch-sensitive display |
US8238876B2 (en) * | 2009-03-30 | 2012-08-07 | Microsoft Corporation | Notifications |
US8175653B2 (en) | 2009-03-30 | 2012-05-08 | Microsoft Corporation | Chromeless user interface |
US8355698B2 (en) | 2009-03-30 | 2013-01-15 | Microsoft Corporation | Unlock screen |
KR20100110079A (ko) * | 2009-04-02 | 2010-10-12 | 삼성전자주식회사 | 원격 사용자 인터페이스를 이용하여 다른 디바이스를 제어하는 방법 및 이를 위한 시스템 |
US9185171B2 (en) * | 2009-04-15 | 2015-11-10 | Wyse Technology L.L.C. | Method and system of specifying application user interface of a remote client device |
US20100268762A1 (en) * | 2009-04-15 | 2010-10-21 | Wyse Technology Inc. | System and method for scrolling a remote application |
US9578113B2 (en) | 2009-04-15 | 2017-02-21 | Wyse Technology L.L.C. | Method and apparatus for transferring remote session data |
US9553953B2 (en) | 2009-04-15 | 2017-01-24 | Dell Products L.P. | Method and apparatus for extending capabilities of a virtualization domain to support features available in a normal desktop application |
US8676926B2 (en) | 2009-04-15 | 2014-03-18 | Wyse Technology L.L.C. | System and method for handling remote drawing commands |
US9448815B2 (en) * | 2009-04-15 | 2016-09-20 | Wyse Technology L.L.C. | Server-side computing from a remote client device |
US9189124B2 (en) * | 2009-04-15 | 2015-11-17 | Wyse Technology L.L.C. | Custom pointer features for touch-screen on remote client devices |
US8638211B2 (en) | 2009-04-30 | 2014-01-28 | Icontrol Networks, Inc. | Configurable controller and interface for home SMA, phone and multimedia |
CN104683827A (zh) | 2009-05-01 | 2015-06-03 | 尼尔森(美国)有限公司 | 提供与主要广播媒体内容关联的辅助内容的方法和装置 |
US8788943B2 (en) * | 2009-05-15 | 2014-07-22 | Ganz | Unlocking emoticons using feature codes |
US8269736B2 (en) * | 2009-05-22 | 2012-09-18 | Microsoft Corporation | Drop target gestures |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
JP5687826B2 (ja) * | 2009-05-29 | 2015-03-25 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
US20100321319A1 (en) * | 2009-06-17 | 2010-12-23 | Hefti Thierry | Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8894367B2 (en) * | 2009-08-06 | 2014-11-25 | Siemens Energy, Inc. | Compound cooling flow turbulator for turbine component |
KR101686913B1 (ko) * | 2009-08-13 | 2016-12-16 | 삼성전자주식회사 | 전자기기에서 이벤트 서비스 제공 방법 및 장치 |
US8933960B2 (en) * | 2009-08-14 | 2015-01-13 | Apple Inc. | Image alteration techniques |
US8654524B2 (en) | 2009-08-17 | 2014-02-18 | Apple Inc. | Housing as an I/O device |
US20110046805A1 (en) * | 2009-08-18 | 2011-02-24 | Honeywell International Inc. | Context-aware smart home energy manager |
US8856670B1 (en) * | 2009-08-25 | 2014-10-07 | Intuit Inc. | Technique for customizing a user interface |
US8495048B2 (en) | 2009-08-26 | 2013-07-23 | International Business Machines | Applying user-generated deployment events to a grouping of deployable portlets |
US8418079B2 (en) | 2009-09-01 | 2013-04-09 | James J. Nicholas, III | System and method for cursor-based application management |
EP2480957B1 (de) | 2009-09-22 | 2017-08-09 | Apple Inc. | Einrichtung, verfahren und grafische benutzeroberfläche zum manipulieren von benutzeroberflächenobjekten |
US8780069B2 (en) | 2009-09-25 | 2014-07-15 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8832585B2 (en) | 2009-09-25 | 2014-09-09 | Apple Inc. | Device, method, and graphical user interface for manipulating workspace views |
US8799826B2 (en) | 2009-09-25 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for moving a calendar entry in a calendar application |
KR101612553B1 (ko) * | 2009-10-09 | 2016-04-27 | 삼성전자주식회사 | 리모트 사용자 인터페이스 서버와 리모트 사용자 인터페이스 클라이언트간의 인터페이스를 위한 장치 및 방법 |
US8306639B2 (en) * | 2009-10-25 | 2012-11-06 | Greenwave Reality, Pte, Ltd. | Home automation group selection by color |
US20110106835A1 (en) * | 2009-10-29 | 2011-05-05 | International Business Machines Corporation | User-Defined Profile Tags, Rules, and Recommendations for Portal |
US20110138333A1 (en) * | 2009-12-03 | 2011-06-09 | Ravishankar Gundlapalli | Room User Interface |
US8621391B2 (en) * | 2009-12-16 | 2013-12-31 | Apple Inc. | Device, method, and computer readable medium for maintaining a selection order in a displayed thumbnail stack of user interface elements acted upon via gestured operations |
US8438592B2 (en) * | 2009-12-22 | 2013-05-07 | Qualcomm Incorporated | Dynamic live content promoter for digital broadcast TV |
FI20096399A0 (fi) * | 2009-12-28 | 2009-12-28 | Valtion Teknillinen | Järjestelmä ja menetelmä sähkölaitteiden etäkäyttämiseksi |
US8736561B2 (en) | 2010-01-06 | 2014-05-27 | Apple Inc. | Device, method, and graphical user interface with content display modes and display rotation heuristics |
US8698762B2 (en) | 2010-01-06 | 2014-04-15 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
DE112011100329T5 (de) | 2010-01-25 | 2012-10-31 | Andrew Peter Nelson Jerram | Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform |
ES2687460T3 (es) * | 2010-01-25 | 2018-10-25 | Innogy Se | Control de un sistema domótico |
US8610722B2 (en) * | 2010-01-26 | 2013-12-17 | Apple Inc. | User interface for an application |
US8239785B2 (en) * | 2010-01-27 | 2012-08-07 | Microsoft Corporation | Edge gestures |
US20110185320A1 (en) * | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Cross-reference Gestures |
US20110185299A1 (en) * | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Stamp Gestures |
US8261213B2 (en) | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
US9411504B2 (en) | 2010-01-28 | 2016-08-09 | Microsoft Technology Licensing, Llc | Copy and staple gestures |
US8625756B1 (en) | 2010-02-03 | 2014-01-07 | Tal Lavian | Systems and methods for visual presentation and selection of IVR menu |
US8687777B1 (en) | 2010-02-03 | 2014-04-01 | Tal Lavian | Systems and methods for visual presentation and selection of IVR menu |
US8553859B1 (en) | 2010-02-03 | 2013-10-08 | Tal Lavian | Device and method for providing enhanced telephony |
US8572303B2 (en) | 2010-02-03 | 2013-10-29 | Tal Lavian | Portable universal communication device |
US8537989B1 (en) | 2010-02-03 | 2013-09-17 | Tal Lavian | Device and method for providing enhanced telephony |
US8406388B2 (en) | 2011-07-18 | 2013-03-26 | Zvi Or-Bach | Systems and methods for visual presentation and selection of IVR menu |
US8594280B1 (en) | 2010-02-03 | 2013-11-26 | Zvi Or-Bach | Systems and methods for visual presentation and selection of IVR menu |
US8548131B1 (en) | 2010-02-03 | 2013-10-01 | Tal Lavian | Systems and methods for communicating with an interactive voice response system |
US8903073B2 (en) | 2011-07-20 | 2014-12-02 | Zvi Or-Bach | Systems and methods for visual presentation and selection of IVR menu |
US8879698B1 (en) | 2010-02-03 | 2014-11-04 | Tal Lavian | Device and method for providing enhanced telephony |
US8548135B1 (en) | 2010-02-03 | 2013-10-01 | Tal Lavian | Systems and methods for visual presentation and selection of IVR menu |
US8681951B1 (en) | 2010-02-03 | 2014-03-25 | Tal Lavian | Systems and methods for visual presentation and selection of IVR menu |
US9001819B1 (en) | 2010-02-18 | 2015-04-07 | Zvi Or-Bach | Systems and methods for visual presentation and selection of IVR menu |
US20110191704A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Contextual multiplexing gestures |
US20110191719A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Cut, Punch-Out, and Rip Gestures |
US9519356B2 (en) * | 2010-02-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Link gestures |
US9274682B2 (en) * | 2010-02-19 | 2016-03-01 | Microsoft Technology Licensing, Llc | Off-screen gestures to create on-screen input |
US9310994B2 (en) | 2010-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Use of bezel as an input mechanism |
US9367205B2 (en) * | 2010-02-19 | 2016-06-14 | Microsoft Technolgoy Licensing, Llc | Radial menus with bezel gestures |
US8799827B2 (en) * | 2010-02-19 | 2014-08-05 | Microsoft Corporation | Page manipulations using on and off-screen gestures |
US9965165B2 (en) * | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
US20110209058A1 (en) * | 2010-02-25 | 2011-08-25 | Microsoft Corporation | Multi-screen hold and tap gesture |
US8707174B2 (en) * | 2010-02-25 | 2014-04-22 | Microsoft Corporation | Multi-screen hold and page-flip gesture |
US9454304B2 (en) * | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US8473870B2 (en) * | 2010-02-25 | 2013-06-25 | Microsoft Corporation | Multi-screen hold and drag gesture |
US9075522B2 (en) * | 2010-02-25 | 2015-07-07 | Microsoft Technology Licensing, Llc | Multi-screen bookmark hold gesture |
US20110209089A1 (en) * | 2010-02-25 | 2011-08-25 | Hinckley Kenneth P | Multi-screen object-hold and page-change gesture |
FR2956757B1 (fr) * | 2010-02-25 | 2012-09-21 | Somfy Sas | Affectation de scenarios a des boutons de commande. |
US8751970B2 (en) * | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US20110209101A1 (en) * | 2010-02-25 | 2011-08-25 | Hinckley Kenneth P | Multi-screen pinch-to-pocket gesture |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8539384B2 (en) | 2010-02-25 | 2013-09-17 | Microsoft Corporation | Multi-screen pinch and expand gestures |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9134534B2 (en) | 2010-02-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including a modular image source |
US9366862B2 (en) | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
US9097891B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment |
US9129295B2 (en) | 2010-02-28 | 2015-09-08 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear |
US9182596B2 (en) | 2010-02-28 | 2015-11-10 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light |
US9285589B2 (en) | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
US9223134B2 (en) | 2010-02-28 | 2015-12-29 | Microsoft Technology Licensing, Llc | Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses |
US9091851B2 (en) | 2010-02-28 | 2015-07-28 | Microsoft Technology Licensing, Llc | Light control in head mounted displays |
US9341843B2 (en) | 2010-02-28 | 2016-05-17 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a small scale image source |
KR20130000401A (ko) | 2010-02-28 | 2013-01-02 | 오스터하우트 그룹 인코포레이티드 | 대화형 머리장착식 아이피스 상의 지역 광고 컨텐츠 |
US9759917B2 (en) | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
US8477425B2 (en) | 2010-02-28 | 2013-07-02 | Osterhout Group, Inc. | See-through near-eye display glasses including a partially reflective, partially transmitting optical element |
US8472120B2 (en) | 2010-02-28 | 2013-06-25 | Osterhout Group, Inc. | See-through near-eye display glasses with a small scale image source |
US9097890B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | Grating in a light transmissive illumination system for see-through near-eye display glasses |
US8488246B2 (en) | 2010-02-28 | 2013-07-16 | Osterhout Group, Inc. | See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US8482859B2 (en) | 2010-02-28 | 2013-07-09 | Osterhout Group, Inc. | See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film |
US8467133B2 (en) | 2010-02-28 | 2013-06-18 | Osterhout Group, Inc. | See-through display with an optical assembly including a wedge-shaped illumination system |
US9229227B2 (en) | 2010-02-28 | 2016-01-05 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
US8140570B2 (en) * | 2010-03-11 | 2012-03-20 | Apple Inc. | Automatic discovery of metadata |
US20110239146A1 (en) * | 2010-03-23 | 2011-09-29 | Lala Dutta | Automatic event generation |
US10719131B2 (en) | 2010-04-05 | 2020-07-21 | Tactile Displays, Llc | Interactive display with tactile feedback |
US10788976B2 (en) | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
US8881061B2 (en) | 2010-04-07 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for managing folders |
US20110252328A1 (en) * | 2010-04-12 | 2011-10-13 | Jeyhan Karaoguz | System and method in a network controller for remotely monitoring and/or controlling devices |
US20200393907A1 (en) | 2010-04-13 | 2020-12-17 | Tactile Displays, Llc | Interactive display with tactile feedback |
US9050534B2 (en) | 2010-04-23 | 2015-06-09 | Ganz | Achievements for a virtual world game |
US8323068B2 (en) | 2010-04-23 | 2012-12-04 | Ganz | Villagers in a virtual world with upgrading via codes |
EP2383984B1 (de) | 2010-04-27 | 2019-03-06 | LG Electronics Inc. | Bildanzeigevorrichtung und Betriebsverfahren dafür |
EP2566075B1 (de) * | 2010-04-27 | 2019-03-20 | LG Electronics Inc. | Bildanzeigevorrichtung und betriebsverfahren dafür |
US8729826B2 (en) | 2010-06-07 | 2014-05-20 | Greenwave Reality, Pte, Ltd. | Dual-mode dimming of a light |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
US9002481B2 (en) | 2010-07-14 | 2015-04-07 | Honeywell International Inc. | Building controllers with local and global parameters |
US9098182B2 (en) | 2010-07-30 | 2015-08-04 | Apple Inc. | Device, method, and graphical user interface for copying user interface objects between content regions |
US8972879B2 (en) | 2010-07-30 | 2015-03-03 | Apple Inc. | Device, method, and graphical user interface for reordering the front-to-back positions of objects |
US9081494B2 (en) | 2010-07-30 | 2015-07-14 | Apple Inc. | Device, method, and graphical user interface for copying formatting attributes |
US8799815B2 (en) * | 2010-07-30 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for activating an item in a folder |
US8826164B2 (en) | 2010-08-03 | 2014-09-02 | Apple Inc. | Device, method, and graphical user interface for creating a new folder |
US8508401B1 (en) | 2010-08-31 | 2013-08-13 | Logitech Europe S.A. | Delay fixing for command codes in a remote control system |
US8918219B2 (en) | 2010-11-19 | 2014-12-23 | Google Inc. | User friendly interface for control unit |
US8843239B2 (en) | 2010-11-19 | 2014-09-23 | Nest Labs, Inc. | Methods, systems, and related architectures for managing network connected thermostats |
US9489062B2 (en) | 2010-09-14 | 2016-11-08 | Google Inc. | User interfaces for remote management and control of network-connected thermostats |
US8727611B2 (en) | 2010-11-19 | 2014-05-20 | Nest Labs, Inc. | System and method for integrating sensors in thermostats |
US8910065B2 (en) * | 2010-09-14 | 2014-12-09 | Microsoft Corporation | Secondary output generation from a presentation framework |
US9104211B2 (en) | 2010-11-19 | 2015-08-11 | Google Inc. | Temperature controller with model-based time to target calculation and display |
US8422889B2 (en) | 2010-09-16 | 2013-04-16 | Greenwave Reality, Pte Ltd. | Noise detector in a light bulb |
US8950687B2 (en) | 2010-09-21 | 2015-02-10 | Honeywell International Inc. | Remote control of an HVAC system that uses a common temperature setpoint for both heat and cool modes |
JP5226051B2 (ja) * | 2010-09-24 | 2013-07-03 | シャープ株式会社 | コンテンツ表示装置、コンテンツ表示方法、プログラム、および記録媒体 |
US9189070B2 (en) | 2010-09-24 | 2015-11-17 | Sharp Kabushiki Kaisha | Content display device, content display method, portable terminal, program, and recording medium |
JP5236708B2 (ja) * | 2010-09-24 | 2013-07-17 | シャープ株式会社 | コンテンツ表示装置、制御方法、携帯端末、プログラム及び記録媒体 |
US8836467B1 (en) | 2010-09-28 | 2014-09-16 | Icontrol Networks, Inc. | Method, system and apparatus for automated reporting of account and sensor zone information to a central station |
US9107040B2 (en) | 2010-09-29 | 2015-08-11 | Apple Inc. | Systems, methods, and computer readable media for sharing awareness information |
KR101708821B1 (ko) * | 2010-09-30 | 2017-02-21 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US9466127B2 (en) * | 2010-09-30 | 2016-10-11 | Apple Inc. | Image alteration techniques |
WO2013058820A1 (en) | 2011-10-21 | 2013-04-25 | Nest Labs, Inc. | User-friendly, network connected learning thermostat and related systems and methods |
US9552002B2 (en) | 2010-11-19 | 2017-01-24 | Google Inc. | Graphical user interface for setpoint creation and modification |
US8195313B1 (en) | 2010-11-19 | 2012-06-05 | Nest Labs, Inc. | Thermostat user interface |
US9459018B2 (en) | 2010-11-19 | 2016-10-04 | Google Inc. | Systems and methods for energy-efficient control of an energy-consuming system |
US9092039B2 (en) | 2010-11-19 | 2015-07-28 | Google Inc. | HVAC controller with user-friendly installation features with wire insertion detection |
US11334034B2 (en) | 2010-11-19 | 2022-05-17 | Google Llc | Energy efficiency promoting schedule learning algorithms for intelligent thermostat |
US9256230B2 (en) | 2010-11-19 | 2016-02-09 | Google Inc. | HVAC schedule establishment in an intelligent, network-connected thermostat |
US9075419B2 (en) | 2010-11-19 | 2015-07-07 | Google Inc. | Systems and methods for a graphical user interface of a controller for an energy-consuming system having spatially related discrete display elements |
US10346275B2 (en) | 2010-11-19 | 2019-07-09 | Google Llc | Attributing causation for energy usage and setpoint changes with a network-connected thermostat |
US9453655B2 (en) | 2011-10-07 | 2016-09-27 | Google Inc. | Methods and graphical user interfaces for reporting performance information for an HVAC system controlled by a self-programming network-connected thermostat |
US8850348B2 (en) | 2010-12-31 | 2014-09-30 | Google Inc. | Dynamic device-associated feedback indicative of responsible device usage |
US8995981B1 (en) | 2010-12-13 | 2015-03-31 | Csr Technology Inc. | Systems and methods for remote control adaptive configuration |
US20120159401A1 (en) * | 2010-12-16 | 2012-06-21 | Microsoft Corporation | Workspace Manipulation Using Mobile Device Gestures |
US11750414B2 (en) | 2010-12-16 | 2023-09-05 | Icontrol Networks, Inc. | Bidirectional security sensor communication for a premises security system |
US9147337B2 (en) | 2010-12-17 | 2015-09-29 | Icontrol Networks, Inc. | Method and system for logging security event data |
US20120159383A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Customization of an immersive environment |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US8804056B2 (en) | 2010-12-22 | 2014-08-12 | Apple Inc. | Integrated touch screens |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
CA2767720C (en) | 2011-02-10 | 2015-11-17 | Ganz | Method and system for creating a virtual world where user-controlled characters interact with non-player characters |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
JP2012226737A (ja) * | 2011-04-06 | 2012-11-15 | Panasonic Corp | 表示装置、端末装置、及び表示装置接続支援システム |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
US9380356B2 (en) | 2011-04-12 | 2016-06-28 | The Nielsen Company (Us), Llc | Methods and apparatus to generate a tag for media content |
US8893033B2 (en) | 2011-05-27 | 2014-11-18 | Microsoft Corporation | Application notifications |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US20120304132A1 (en) | 2011-05-27 | 2012-11-29 | Chaitanya Dev Sareen | Switching back to a previously-interacted-with application |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9104440B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9092130B2 (en) | 2011-05-31 | 2015-07-28 | Apple Inc. | Devices, methods, and graphical user interfaces for document manipulation |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US9366448B2 (en) | 2011-06-20 | 2016-06-14 | Honeywell International Inc. | Method and apparatus for configuring a filter change notification of an HVAC controller |
US9210208B2 (en) | 2011-06-21 | 2015-12-08 | The Nielsen Company (Us), Llc | Monitoring streaming media content |
US9209978B2 (en) | 2012-05-15 | 2015-12-08 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US20130007672A1 (en) * | 2011-06-28 | 2013-01-03 | Google Inc. | Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface |
US8751538B1 (en) | 2011-07-07 | 2014-06-10 | Google Inc. | Method and apparatus for panel-based management of data |
US8060533B1 (en) | 2011-07-07 | 2011-11-15 | Google Inc. | Panel-based management of data objects from a plurality of data sources |
US8903648B2 (en) * | 2011-07-15 | 2014-12-02 | Forestech Consulting, Inc. | System and method for field sampling |
US9115908B2 (en) | 2011-07-27 | 2015-08-25 | Honeywell International Inc. | Systems and methods for managing a programmable thermostat |
US9157764B2 (en) | 2011-07-27 | 2015-10-13 | Honeywell International Inc. | Devices, methods, and systems for occupancy detection |
US8687023B2 (en) | 2011-08-02 | 2014-04-01 | Microsoft Corporation | Cross-slide gesture to select and rearrange |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
US8892223B2 (en) | 2011-09-07 | 2014-11-18 | Honeywell International Inc. | HVAC controller including user interaction log |
US8922575B2 (en) | 2011-09-09 | 2014-12-30 | Microsoft Corporation | Tile cache |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
US10353566B2 (en) | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
US8933952B2 (en) | 2011-09-10 | 2015-01-13 | Microsoft Corporation | Pre-rendering new content for an application-selectable user interface |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US20130067392A1 (en) * | 2011-09-12 | 2013-03-14 | Microsoft Corporation | Multi-Input Rearrange |
WO2013041888A1 (en) * | 2011-09-23 | 2013-03-28 | Videojet Technologies Inc. | Networking method |
US20130085849A1 (en) * | 2011-09-30 | 2013-04-04 | Matthew G. Dyor | Presenting opportunities for commercialization in a gesture-based user interface |
KR101958902B1 (ko) * | 2011-09-30 | 2019-07-03 | 삼성전자주식회사 | 전자기기들의 그룹 제어 방법 및 그를 위한 전자기기 관리 시스템 |
US9222693B2 (en) | 2013-04-26 | 2015-12-29 | Google Inc. | Touchscreen device user interface for remote control of a thermostat |
US8893032B2 (en) | 2012-03-29 | 2014-11-18 | Google Inc. | User interfaces for HVAC schedule display and modification on smartphone or other space-limited touchscreen device |
US20130104039A1 (en) * | 2011-10-21 | 2013-04-25 | Sony Ericsson Mobile Communications Ab | System and Method for Operating a User Interface on an Electronic Device |
EP2769279B1 (de) | 2011-10-21 | 2018-12-26 | Google LLC | Lernalgorithmen zur energieeffizienzförderung für intelligenten thermostat |
US9223761B2 (en) * | 2011-11-04 | 2015-12-29 | Microsoft Technology Licensing, Llc | Real time visual feedback during move, resize and/or rotate actions in an electronic document |
WO2013074991A1 (en) * | 2011-11-18 | 2013-05-23 | Gipson Dale L | Computer-implemented apparatus, system, and method for three dimensional modeling software |
WO2013081239A1 (ko) * | 2011-12-02 | 2013-06-06 | 전자부품연구원 | Nui 제공 방법 및 시스템 |
KR101373612B1 (ko) | 2011-11-24 | 2014-03-13 | 전자부품연구원 | Nui 제공 방법 및 시스템 |
US8902071B2 (en) | 2011-12-14 | 2014-12-02 | Honeywell International Inc. | HVAC controller with HVAC system fault detection |
US10747243B2 (en) | 2011-12-14 | 2020-08-18 | Ademco Inc. | HVAC controller with HVAC system failure detection |
US9206993B2 (en) | 2011-12-14 | 2015-12-08 | Honeywell International Inc. | HVAC controller with utility saver switch diagnostic feature |
US10533761B2 (en) | 2011-12-14 | 2020-01-14 | Ademco Inc. | HVAC controller with fault sensitivity |
US9002523B2 (en) | 2011-12-14 | 2015-04-07 | Honeywell International Inc. | HVAC controller with diagnostic alerts |
US20130158720A1 (en) | 2011-12-15 | 2013-06-20 | Honeywell International Inc. | Hvac controller with performance log |
US9223472B2 (en) | 2011-12-22 | 2015-12-29 | Microsoft Technology Licensing, Llc | Closing applications |
US9128605B2 (en) | 2012-02-16 | 2015-09-08 | Microsoft Technology Licensing, Llc | Thumbnail-image selection of applications |
US10139843B2 (en) | 2012-02-22 | 2018-11-27 | Honeywell International Inc. | Wireless thermostatic controlled electric heating system |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US8731148B1 (en) | 2012-03-02 | 2014-05-20 | Tal Lavian | Systems and methods for visual presentation and selection of IVR menu |
US8867708B1 (en) | 2012-03-02 | 2014-10-21 | Tal Lavian | Systems and methods for visual presentation and selection of IVR menu |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9442500B2 (en) | 2012-03-08 | 2016-09-13 | Honeywell International Inc. | Systems and methods for associating wireless devices of an HVAC system |
US10452084B2 (en) | 2012-03-14 | 2019-10-22 | Ademco Inc. | Operation of building control via remote device |
CA2868844C (en) | 2012-03-29 | 2021-07-06 | Nest Labs, Inc. | Processing and reporting usage information for an hvac system controlled by a network-connected thermostat |
US9488994B2 (en) | 2012-03-29 | 2016-11-08 | Honeywell International Inc. | Method and system for configuring wireless sensors in an HVAC system |
CN102665123B (zh) * | 2012-03-30 | 2015-09-09 | 华为技术有限公司 | 一种电视操控方法、手持设备、电视及电视操控系统 |
US9098096B2 (en) | 2012-04-05 | 2015-08-04 | Google Inc. | Continuous intelligent-control-system update using information requests directed to user devices |
KR101868352B1 (ko) * | 2012-05-14 | 2018-06-19 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
GB2514964B (en) * | 2012-05-29 | 2020-06-10 | Hewlett Packard Development Co | Translation of touch input into local input based on a translation profile for an application |
DE102012209250A1 (de) * | 2012-05-31 | 2013-12-05 | Protected-Networks.Com Gmbh | Sicherheitssystem |
USD678084S1 (en) | 2012-06-05 | 2013-03-19 | Honeywell International Inc. | Thermostat housing |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US20140019319A1 (en) * | 2012-07-10 | 2014-01-16 | Honeywell International Inc. | Floorplan-based residential energy audit and asset tracking |
US9594384B2 (en) | 2012-07-26 | 2017-03-14 | Honeywell International Inc. | Method of associating an HVAC controller with an external web service |
US9477239B2 (en) | 2012-07-26 | 2016-10-25 | Honeywell International Inc. | HVAC controller with wireless network based occupancy detection and control |
US10118241B2 (en) | 2012-09-07 | 2018-11-06 | Illinois Tool Works Inc. | Welding system with multiple user interface modules |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9558278B2 (en) | 2012-09-11 | 2017-01-31 | Apple Inc. | Integrated content recommendation |
US9218118B2 (en) | 2012-09-11 | 2015-12-22 | Apple Inc. | Media player playlist management |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9557846B2 (en) | 2012-10-04 | 2017-01-31 | Corning Incorporated | Pressure-sensing touch system utilizing optical and capacitive systems |
US9204291B2 (en) * | 2012-10-12 | 2015-12-01 | Crestron Electronics, Inc. | User identification and location determination in control applications |
US9582122B2 (en) | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
US12032817B2 (en) | 2012-11-27 | 2024-07-09 | Neonode Inc. | Vehicle user interface |
US9092093B2 (en) | 2012-11-27 | 2015-07-28 | Neonode Inc. | Steering wheel user interface |
US9383825B2 (en) * | 2012-12-31 | 2016-07-05 | Nicolas Jones | Universal script input device and method |
US10094585B2 (en) | 2013-01-25 | 2018-10-09 | Honeywell International Inc. | Auto test for delta T diagnostics in an HVAC system |
AU2014214676A1 (en) | 2013-02-07 | 2015-08-27 | Apple Inc. | Voice trigger for a digital assistant |
US9313544B2 (en) | 2013-02-14 | 2016-04-12 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
JP2014170330A (ja) * | 2013-03-02 | 2014-09-18 | Yasuaki Iwai | 仮想現実提示システム、仮想現実提示方法、仮想現実提示装置 |
USD737842S1 (en) * | 2013-03-14 | 2015-09-01 | Microsoft Corporation | Display screen with graphical user interface |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9450952B2 (en) | 2013-05-29 | 2016-09-20 | Microsoft Technology Licensing, Llc | Live tiles without application-code execution |
US9806705B2 (en) | 2013-04-23 | 2017-10-31 | Honeywell International Inc. | Active triac triggering circuit |
JP2013175222A (ja) * | 2013-04-23 | 2013-09-05 | Sharp Corp | コンテンツ表示装置、コンテンツ表示方法、プログラム、および記録媒体 |
US9584119B2 (en) | 2013-04-23 | 2017-02-28 | Honeywell International Inc. | Triac or bypass circuit and MOSFET power steal combination |
US10852025B2 (en) | 2013-04-30 | 2020-12-01 | Ademco Inc. | HVAC controller with fixed segment display having fixed segment icons and animation |
KR20160024848A (ko) * | 2013-05-20 | 2016-03-07 | 톰슨 라이센싱 | 이미지를 이용한 리모컨 프로그래밍 |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101809808B1 (ko) | 2013-06-13 | 2017-12-15 | 애플 인크. | 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법 |
USD757740S1 (en) * | 2013-06-20 | 2016-05-31 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
US11054448B2 (en) | 2013-06-28 | 2021-07-06 | Ademco Inc. | Power transformation self characterization mode |
US10811892B2 (en) | 2013-06-28 | 2020-10-20 | Ademco Inc. | Source management for a power transformation system |
US9983244B2 (en) | 2013-06-28 | 2018-05-29 | Honeywell International Inc. | Power transformation system with characterization |
US9711152B2 (en) | 2013-07-31 | 2017-07-18 | The Nielsen Company (Us), Llc | Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio |
US20150039321A1 (en) | 2013-07-31 | 2015-02-05 | Arbitron Inc. | Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device |
DE112014003653B4 (de) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen |
KR102231105B1 (ko) * | 2013-09-05 | 2021-03-24 | 삼성전자주식회사 | 제어 장치 및 그 제어 방법 |
USD750667S1 (en) * | 2013-09-10 | 2016-03-01 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with icon |
USD730993S1 (en) | 2013-09-20 | 2015-06-02 | Wms Gaming Inc. | Inclined input interface for a gaming terminal |
US9349240B2 (en) | 2013-09-20 | 2016-05-24 | Bally Gaming, Inc. | Gaming terminal with an inclined input interface |
USD720633S1 (en) | 2013-10-25 | 2015-01-06 | Honeywell International Inc. | Thermostat |
EP3063608B1 (de) | 2013-10-30 | 2020-02-12 | Apple Inc. | Anzeige von relevanten benutzerschnittstellenobjekten |
US10563876B2 (en) | 2013-11-22 | 2020-02-18 | Ademco Inc. | Setup routine to facilitate user setup of an HVAC controller |
US9673811B2 (en) | 2013-11-22 | 2017-06-06 | Honeywell International Inc. | Low power consumption AC load switches |
US9857091B2 (en) | 2013-11-22 | 2018-01-02 | Honeywell International Inc. | Thermostat circuitry to control power usage |
US20150159903A1 (en) | 2013-12-11 | 2015-06-11 | Honeywell International Inc. | Magnetic aided attachment between a wall plate and a building automation controller body |
USD761305S1 (en) | 2013-12-20 | 2016-07-12 | Microsoft Corporation | Display screen with icons |
USD757794S1 (en) * | 2013-12-20 | 2016-05-31 | Microsoft Corporation | Display screen with icon |
USD757793S1 (en) | 2013-12-20 | 2016-05-31 | Microsoft Corporation | Display screen with icons |
USD753713S1 (en) | 2013-12-20 | 2016-04-12 | Microsoft Corporation | Display screen with icons |
USD758428S1 (en) * | 2013-12-20 | 2016-06-07 | Microsoft Corporation | Display screen with icons |
KR101548228B1 (ko) * | 2013-12-27 | 2015-08-28 | 주식회사 케이티 | 사용자 상태에 기반하여 사용자 인터페이스를 동기화하는 동기화 기기 및 동기화 방법 |
US9761035B1 (en) * | 2014-03-03 | 2017-09-12 | Mindstream Interface Dynamics, Inc. | Dynamic user interfaces |
US11405463B2 (en) | 2014-03-03 | 2022-08-02 | Icontrol Networks, Inc. | Media content management |
US9477337B2 (en) | 2014-03-14 | 2016-10-25 | Microsoft Technology Licensing, Llc | Conductive trace routing for display and bezel sensors |
EP3126969A4 (de) | 2014-04-04 | 2017-04-12 | Microsoft Technology Licensing, LLC | Erweiterbare anwendungsdarstellung |
TWI524620B (zh) * | 2014-04-09 | 2016-03-01 | Grand Mate Co Ltd | Radiator control method |
EP3129846A4 (de) | 2014-04-10 | 2017-05-03 | Microsoft Technology Licensing, LLC | Gehäuse mit zusammenklappbarer hülle für eine rechnervorrichtung |
EP3129847A4 (de) | 2014-04-10 | 2017-04-19 | Microsoft Technology Licensing, LLC | Schiebeabdeckung für computervorrichtung |
GB201408258D0 (en) * | 2014-05-09 | 2014-06-25 | British Sky Broadcasting Ltd | Television display and remote control |
USD778314S1 (en) * | 2014-05-13 | 2017-02-07 | Xiaomi Inc. | Display screen or portion thereof with a graphical user interface |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US20150355611A1 (en) * | 2014-06-06 | 2015-12-10 | Honeywell International Inc. | Apparatus and method for combining visualization and interaction in industrial operator consoles |
US9628074B2 (en) | 2014-06-19 | 2017-04-18 | Honeywell International Inc. | Bypass switch for in-line power steal |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
EP3537310A1 (de) * | 2014-07-04 | 2019-09-11 | Mapillary AB | Verfahren zur navigation durch eine bilderreihe |
US9683749B2 (en) | 2014-07-11 | 2017-06-20 | Honeywell International Inc. | Multiple heatsink cooling system for a line voltage thermostat |
KR101535032B1 (ko) * | 2014-07-17 | 2015-07-07 | 현대자동차주식회사 | 차량 인터페이스 확장 방법 |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
US10467320B2 (en) * | 2014-08-05 | 2019-11-05 | Polycom, Inc. | Method for providing seamless graphical user interface control for a complex system consisting of distributed hardware modules |
US11103948B2 (en) | 2014-08-18 | 2021-08-31 | Illinois Tool Works Inc. | Systems and methods for a personally allocated interface for use in a welding system |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US10642365B2 (en) | 2014-09-09 | 2020-05-05 | Microsoft Technology Licensing, Llc | Parametric inertia and APIs |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
JP6359935B2 (ja) * | 2014-09-30 | 2018-07-18 | 株式会社Nttドコモ | 対話装置および対話方法 |
CN106662891B (zh) | 2014-10-30 | 2019-10-11 | 微软技术许可有限责任公司 | 多配置输入设备 |
USD788813S1 (en) * | 2014-11-14 | 2017-06-06 | Microsoft Corporation | Display screen with icon |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
CN104537907B (zh) * | 2015-01-23 | 2017-06-16 | 上海宜享智能科技有限公司 | 一种智能化协同讨论系统 |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
CN104867311A (zh) * | 2015-05-14 | 2015-08-26 | 连宁 | 通过第三方终端配置无线遥控终端的方法和装置 |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9762965B2 (en) | 2015-05-29 | 2017-09-12 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
JP6497624B2 (ja) * | 2015-06-15 | 2019-04-10 | パナソニックIpマネジメント株式会社 | スイッチ、機器制御システム、プログラム |
KR102398488B1 (ko) * | 2015-06-26 | 2022-05-13 | 엘지전자 주식회사 | 복수의 디바이스에 대한 원격제어를 수행할 수 있는 이동 단말기 |
CN105117004A (zh) * | 2015-08-13 | 2015-12-02 | 小米科技有限责任公司 | 展现设备工作状态的方法和装置 |
EP3343340B1 (de) * | 2015-08-28 | 2021-12-01 | Sharp Kabushiki Kaisha | Anzeigevorrichtung, fernsehempfänger, programm und aufzeichnungsmedium |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
FR3041857A1 (fr) * | 2015-09-30 | 2017-03-31 | Orange | Procede de commande locale d'un dispositif electronique |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US9702582B2 (en) | 2015-10-12 | 2017-07-11 | Ikorongo Technology, LLC | Connected thermostat for controlling a climate system based on a desired usage profile in comparison to other connected thermostats controlling other climate systems |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
GB2552274A (en) * | 2015-11-09 | 2018-01-17 | Sky Cp Ltd | Television user interface |
DE102016220526A1 (de) * | 2016-10-19 | 2018-04-19 | HiAsset GmbH | Automatische Menüauswahl in einer Gebäudesteuerung |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US11164474B2 (en) * | 2016-02-05 | 2021-11-02 | ThinkCERCA.com, Inc. | Methods and systems for user-interface-assisted composition construction |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US12175065B2 (en) | 2016-06-10 | 2024-12-24 | Apple Inc. | Context-specific user interfaces for relocating one or more complications in a watch or clock interface |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670595A1 (en) | 2016-06-11 | 2018-01-22 | Apple Inc | Configuring context-specific user interfaces |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US11816325B2 (en) | 2016-06-12 | 2023-11-14 | Apple Inc. | Application shortcuts for carplay |
DK179593B1 (en) | 2016-06-12 | 2019-02-25 | Apple Inc. | USER INTERFACE FOR MANAGING CONTROLLABLE EXTERNAL DEVICES |
US10488062B2 (en) | 2016-07-22 | 2019-11-26 | Ademco Inc. | Geofence plus schedule for a building controller |
US10302322B2 (en) | 2016-07-22 | 2019-05-28 | Ademco Inc. | Triage of initial schedule setup for an HVAC controller |
US10253994B2 (en) | 2016-07-22 | 2019-04-09 | Ademco Inc. | HVAC controller with ventilation review mode |
US10317100B2 (en) | 2016-07-22 | 2019-06-11 | Ademco Inc. | Simplified schedule programming of an HVAC controller |
US11435888B1 (en) * | 2016-09-21 | 2022-09-06 | Apple Inc. | System with position-sensitive electronic device interface |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10444769B2 (en) | 2017-04-24 | 2019-10-15 | Rain Bird Corporation | Sensor-based interruption of an irrigation controller |
US10757873B2 (en) | 2017-04-24 | 2020-09-01 | Rain Bird Corporation | Sensor-based interruption of an irrigation controller |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
WO2019133273A1 (en) | 2017-12-29 | 2019-07-04 | Rain Bird Corporation | Weather override irrigation control systems and methods |
EP4332933A1 (de) | 2018-05-07 | 2024-03-06 | Apple Inc. | Benutzerschnittstellen zur ansicht von live-video-feeds und aufgezeichnetem video |
CN108854069B (zh) * | 2018-05-29 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 音源确定方法和装置、存储介质及电子装置 |
US10936163B2 (en) * | 2018-07-17 | 2021-03-02 | Methodical Mind, Llc. | Graphical user interface system |
US11429230B2 (en) | 2018-11-28 | 2022-08-30 | Neonode Inc | Motorist user interface sensor |
US11675476B2 (en) | 2019-05-05 | 2023-06-13 | Apple Inc. | User interfaces for widgets |
DK201970535A1 (en) | 2019-05-06 | 2020-12-21 | Apple Inc | Media browsing user interface with intelligently selected representative media items |
US11363071B2 (en) | 2019-05-31 | 2022-06-14 | Apple Inc. | User interfaces for managing a local network |
US10904029B2 (en) | 2019-05-31 | 2021-01-26 | Apple Inc. | User interfaces for managing controllable external devices |
US11389735B2 (en) | 2019-10-23 | 2022-07-19 | Ganz | Virtual pet system |
WO2021133883A1 (en) | 2019-12-27 | 2021-07-01 | Methodical Mind, Llc. | Graphical user interface system |
KR20220143851A (ko) | 2020-01-22 | 2022-10-25 | 메쏘디컬 마인드, 엘엘씨. | 그래픽 사용자 인터페이스 시스템 |
DK202070613A1 (en) | 2020-02-14 | 2021-10-15 | Apple Inc | User interfaces for workout content |
US11513667B2 (en) | 2020-05-11 | 2022-11-29 | Apple Inc. | User interface for audio message |
US11358059B2 (en) | 2020-05-27 | 2022-06-14 | Ganz | Live toy system |
CN116420125A (zh) | 2020-09-30 | 2023-07-11 | 内奥诺德公司 | 光学触摸传感器 |
USD1040852S1 (en) * | 2022-08-01 | 2024-09-03 | Altria Client Services Llc | Display screen having a graphical user interface |
USD1062792S1 (en) * | 2022-09-19 | 2025-02-18 | Altria Client Services Llc | Display screen with transitional icon |
US11886685B1 (en) | 2022-10-20 | 2024-01-30 | Stardock Corporation | Desktop container peek interface |
Family Cites Families (133)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US32632A (en) * | 1861-06-25 | Water-elevator | ||
US34340A (en) * | 1862-02-04 | Improved washing-machine | ||
US566552A (en) * | 1896-08-25 | Tubular-tower construction | ||
DE2807986A1 (de) * | 1978-02-22 | 1979-08-30 | Hertz Inst Heinrich | Anlage fuer interaktives kabelfernsehen |
DE3177228D1 (de) * | 1980-03-31 | 1990-12-06 | Gen Instrument Corp | Fernseh uebertragungsanordnung zum uebertragen von datensignalen. |
USRE32632E (en) | 1982-07-19 | 1988-03-29 | Apple Computer, Inc. | Display system |
GB2126054A (en) * | 1982-08-11 | 1984-03-14 | Philips Electronic Associated | Display system with nested information display |
US4622545A (en) * | 1982-09-30 | 1986-11-11 | Apple Computer, Inc. | Method and apparatus for image compression and manipulation |
US4555775B1 (en) * | 1982-10-07 | 1995-12-05 | Bell Telephone Labor Inc | Dynamic generation and overlaying of graphic windows for multiple active program storage areas |
US4533910A (en) * | 1982-11-02 | 1985-08-06 | Cadtrak Corporation | Graphics display system with viewports of arbitrary location and content |
US4641205A (en) * | 1984-03-05 | 1987-02-03 | Rca Corporation | Television system scheduler with on-screen menu type programming prompting apparatus |
US4573072A (en) * | 1984-03-21 | 1986-02-25 | Actv Inc. | Method for expanding interactive CATV displayable choices for a given channel capacity |
US4785408A (en) * | 1985-03-11 | 1988-11-15 | AT&T Information Systems Inc. American Telephone and Telegraph Company | Method and apparatus for generating computer-controlled interactive voice services |
US4873623A (en) * | 1985-04-30 | 1989-10-10 | Prometrix Corporation | Process control interface with simultaneously displayed three level dynamic menu |
US4884223A (en) * | 1985-07-05 | 1989-11-28 | Hybond, Inc. | Dynamic force measurement system |
US4706121B1 (en) * | 1985-07-12 | 1993-12-14 | Insight Telecast, Inc. | Tv schedule system and process |
US4812834A (en) * | 1985-08-01 | 1989-03-14 | Cadtrak Corporation | Graphics display system with arbitrary overlapping viewports |
US4914732A (en) * | 1985-10-16 | 1990-04-03 | Supra Products, Inc. | Electronic key with interactive graphic user interface |
US4653090A (en) * | 1985-12-16 | 1987-03-24 | American Telephone & Telegraph (At&T) | Graphics based call management |
US4893256A (en) * | 1986-04-04 | 1990-01-09 | International Business Machines Corporation | Interactive video composition and presentation systems |
US4939507A (en) * | 1986-04-28 | 1990-07-03 | Xerox Corporation | Virtual and emulated objects for use in the user interface of a display screen of a display processor |
US4899136A (en) * | 1986-04-28 | 1990-02-06 | Xerox Corporation | Data processor having a user interface display with metaphoric objects |
US4750036A (en) * | 1986-05-14 | 1988-06-07 | Radio Telcom & Technology, Inc. | Interactive television and data transmission system |
US5177604A (en) * | 1986-05-14 | 1993-01-05 | Radio Telcom & Technology, Inc. | Interactive television and data transmission system |
US4748618A (en) * | 1986-05-21 | 1988-05-31 | Bell Communications Research, Inc. | Telecommunications interface |
US4772882A (en) * | 1986-07-18 | 1988-09-20 | Commodore-Amiga, Inc. | Cursor controller user interface system |
US4788538A (en) * | 1986-11-17 | 1988-11-29 | Lotus Development Corporation | Method and apparatus for determining boundaries of graphic regions |
US5062060A (en) * | 1987-01-05 | 1991-10-29 | Motorola Inc. | Computer human interface comprising user-adjustable window for displaying or printing information |
US5072412A (en) * | 1987-03-25 | 1991-12-10 | Xerox Corporation | User interface with multiple workspaces for sharing display system objects |
US5394521A (en) * | 1991-12-09 | 1995-02-28 | Xerox Corporation | User interface with multiple workspaces for sharing display system objects |
US5233687A (en) * | 1987-03-25 | 1993-08-03 | Xerox Corporation | User interface with multiple workspaces for sharing display system objects |
US4847700A (en) * | 1987-07-16 | 1989-07-11 | Actv, Inc. | Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals |
US5195092A (en) * | 1987-08-04 | 1993-03-16 | Telaction Corporation | Interactive multimedia presentation & communication system |
US4847604A (en) * | 1987-08-27 | 1989-07-11 | Doyle Michael D | Method and apparatus for identifying features of an image on a video display |
USRE34340E (en) | 1987-10-26 | 1993-08-10 | Actv, Inc. | Closed circuit television system having seamless interactive television programming and expandable user participation |
US5008853A (en) * | 1987-12-02 | 1991-04-16 | Xerox Corporation | Representation of collaborative multi-user activities relative to shared structured data objects in a networked workstation environment |
US4935865A (en) * | 1988-06-02 | 1990-06-19 | The United States Of America As Represented By The Secretary Of The Air Force | Computer controlled electropolishing system |
US4995078A (en) * | 1988-06-09 | 1991-02-19 | Monslow H Vincent | Television broadcast system for selective transmission of viewer-chosen programs at viewer-requested times |
US4890320A (en) * | 1988-06-09 | 1989-12-26 | Monslow H Vincent | Television broadcast system for selective transmission of viewer-chosen programs at viewer-requested times |
US4977455B1 (en) * | 1988-07-15 | 1993-04-13 | System and process for vcr scheduling | |
US4931783A (en) * | 1988-07-26 | 1990-06-05 | Apple Computer, Inc. | Method and apparatus for removable menu window |
US5065347A (en) * | 1988-08-11 | 1991-11-12 | Xerox Corporation | Hierarchical folders display |
US5107443A (en) * | 1988-09-07 | 1992-04-21 | Xerox Corporation | Private regions within a shared workspace |
US5146556A (en) * | 1988-10-11 | 1992-09-08 | Next Computer, Inc. | System and method for managing graphic images |
US5021976A (en) * | 1988-11-14 | 1991-06-04 | Microelectronics And Computer Technology Corporation | Method and system for generating dynamic, interactive visual representations of information structures within a computer |
US4987486A (en) * | 1988-12-23 | 1991-01-22 | Scientific-Atlanta, Inc. | Automatic interactive television terminal configuration |
JPH02174360A (ja) * | 1988-12-27 | 1990-07-05 | Canon Inc | 通信端末装置 |
US5086385A (en) * | 1989-01-31 | 1992-02-04 | Custom Command Systems | Expandable home automation system |
US5155806A (en) * | 1989-03-15 | 1992-10-13 | Sun Microsystems, Inc. | Method and apparatus for displaying context sensitive help information on a display |
US5157768A (en) * | 1989-03-15 | 1992-10-20 | Sun Microsystems, Inc. | Method and apparatus for displaying context sensitive help information on a display |
US4914517A (en) * | 1989-04-06 | 1990-04-03 | Thomson Consumer Electronics, Inc. | Tuner control apparatus having tune-by-label capability and using alphabetical label storage |
US4959720A (en) * | 1989-04-06 | 1990-09-25 | Rca Licensing Corporation | Tuner control apparatus having tune-by-label capability |
US5014125A (en) * | 1989-05-05 | 1991-05-07 | Cableshare, Inc. | Television system for the interactive distribution of selectable video presentations |
US5333256A (en) * | 1989-05-15 | 1994-07-26 | International Business Machines Corporation | Methods of monitoring the status of an application program |
US5151782A (en) * | 1989-05-17 | 1992-09-29 | Reiss Media Enterprises | Control system for satellite delivered pay-per-view television system |
US5047867A (en) * | 1989-06-08 | 1991-09-10 | North American Philips Corporation | Interface for a TV-VCR system |
US5235679A (en) * | 1989-06-14 | 1993-08-10 | Hitachi, Ltd. | Guidance method and apparatus upon a computer system |
US5471190A (en) * | 1989-07-20 | 1995-11-28 | Timothy D. Schoechle | Method and apparatus for resource allocation in a communication network system |
US5327161A (en) * | 1989-08-09 | 1994-07-05 | Microtouch Systems, Inc. | System and method for emulating a mouse input device with a touchpad input device |
US5241671C1 (en) * | 1989-10-26 | 2002-07-02 | Encyclopaedia Britannica Educa | Multimedia search system using a plurality of entry path means which indicate interrelatedness of information |
EP1335594A3 (de) * | 1989-10-30 | 2003-09-10 | Starsight Telecast, Inc. | System zum unbeaufsichtigten Aufzeichnen von Fernsehprogrammen |
US5295243A (en) * | 1989-12-29 | 1994-03-15 | Xerox Corporation | Display of hierarchical three-dimensional structures with rotating substructures |
US5347628A (en) * | 1990-01-18 | 1994-09-13 | International Business Machines Corporation | Method of graphically accessing electronic data |
JP2909491B2 (ja) * | 1990-01-19 | 1999-06-23 | 株式会社山武 | 設備管理装置 |
DE69022210T2 (de) * | 1990-01-29 | 1996-05-02 | Ibm | Datenverarbeitungssystem. |
US5140678A (en) * | 1990-05-04 | 1992-08-18 | International Business Machines Corporation | Computer user interface with window title bar icons |
US5140677A (en) * | 1990-05-11 | 1992-08-18 | International Business Machines Corporation | Computer user interface with window title bar mini-icons |
US5412377A (en) * | 1990-06-08 | 1995-05-02 | Evans; Benjamin F. | Universal remote control program scheduling system |
US5220420A (en) * | 1990-09-28 | 1993-06-15 | Inteletext Systems, Inc. | Interactive home information system for distributing compressed television programming |
US5361091A (en) * | 1990-09-28 | 1994-11-01 | Inteletext Systems, Inc. | Interactive home information system for distributing video picture information to television viewers over a fiber optic telephone system |
US5093718A (en) * | 1990-09-28 | 1992-03-03 | Inteletext Systems, Inc. | Interactive home information system |
US5526034A (en) * | 1990-09-28 | 1996-06-11 | Ictv, Inc. | Interactive home information system with signal assignment |
US5204947A (en) * | 1990-10-31 | 1993-04-20 | International Business Machines Corporation | Application independent (open) hypermedia enablement services |
US5393073A (en) * | 1990-11-14 | 1995-02-28 | Best; Robert M. | Talking video games |
JP2957316B2 (ja) * | 1990-11-20 | 1999-10-04 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 複数のソフトウェア・アプリケーションにアクセスするための方法およびシステム |
US5239540A (en) * | 1990-11-27 | 1993-08-24 | Scientific-Atlanta, Inc. | Method and apparatus for transmitting, receiving and communicating digital data signals with corresponding program data signals which describe the digital data signals |
US5148154A (en) * | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5442742A (en) * | 1990-12-21 | 1995-08-15 | Apple Computer, Inc. | Method and apparatus for the manipulation of text on a computer display screen |
US5206722A (en) * | 1990-12-28 | 1993-04-27 | At&T Bell Laboratories | Remote channel switching for video on demand service |
WO1992014210A1 (en) * | 1991-02-07 | 1992-08-20 | Datacard Corporation | Network interface circuit apparatus and method |
US5327160A (en) * | 1991-05-09 | 1994-07-05 | Asher David J | Touch sensitive user interface for television control |
US5236199A (en) * | 1991-06-13 | 1993-08-17 | Thompson Jr John W | Interactive media system and telecomputing method using telephone keypad signalling |
US5381158A (en) * | 1991-07-12 | 1995-01-10 | Kabushiki Kaisha Toshiba | Information retrieval apparatus |
JPH07113881B2 (ja) * | 1991-07-17 | 1995-12-06 | 財団法人パーソナル情報環境協会 | メタファ環境制御方式 |
US5638505A (en) * | 1991-08-16 | 1997-06-10 | Sun Microsystems, Inc. | Apparatus and methods for moving/copying objects using destination and/or source bins |
CA2068486C (en) * | 1991-08-30 | 1998-09-15 | Stephen S. Fleming | System and graphical method for creating an object |
US5247347A (en) * | 1991-09-27 | 1993-09-21 | Bell Atlantic Network Services, Inc. | Pstn architecture for video-on-demand services |
US5333254A (en) * | 1991-10-02 | 1994-07-26 | Xerox Corporation | Methods of centering nodes in a hierarchical display |
US5396546A (en) * | 1991-10-03 | 1995-03-07 | Viscorp | Apparatus and method for automatic and user configurable information appliance |
US5349658A (en) * | 1991-11-01 | 1994-09-20 | Rourke Thomas C O | Graphical user interface |
US5317391A (en) | 1991-11-29 | 1994-05-31 | Scientific-Atlanta, Inc. | Method and apparatus for providing message information to subscribers in a cable television system |
US5253067A (en) * | 1991-12-16 | 1993-10-12 | Thomson Consumer Electronics, Inc. | Channel labeling apparatus for a television receiver wherein graphics and text labels may be selected from a preprogrammed list |
US5422993A (en) * | 1991-12-17 | 1995-06-06 | International Business Machines Corporation | Method and system for performing direct manipulation operations in a computer system |
US5297253A (en) * | 1992-01-09 | 1994-03-22 | Ehrlich Associates, Inc. | Computer user interface navigational tool |
WO1993015455A1 (en) * | 1992-01-24 | 1993-08-05 | Interactive Media Corporation | System for performing function on second portal upon activation of related first portal |
US5146901A (en) * | 1992-02-03 | 1992-09-15 | General Motors Corporation | Vapor suppressing fuel handling system |
JP3198486B2 (ja) * | 1992-03-11 | 2001-08-13 | ソニー株式会社 | Avシステムのモニタ装置 |
US5461710A (en) * | 1992-03-20 | 1995-10-24 | International Business Machines Corporation | Method for providing a readily distinguishable template and means of duplication thereof in a computer system graphical user interface |
DE4243912A1 (de) * | 1992-04-09 | 1993-10-14 | Fuji Photo Film Co Ltd | Lichtempfindliches Übertragungsmaterial und Bilderzeugungs-Verfahren unter Verwendung desselben |
US5310349A (en) * | 1992-04-30 | 1994-05-10 | Jostens Learning Corporation | Instructional management system |
US5223924A (en) * | 1992-05-27 | 1993-06-29 | North American Philips Corporation | System and method for automatically correlating user preferences with a T.V. program information database |
US5689663A (en) * | 1992-06-19 | 1997-11-18 | Microsoft Corporation | Remote controller user interface and methods relating thereto |
JPH0612401A (ja) * | 1992-06-26 | 1994-01-21 | Fuji Xerox Co Ltd | 感情模擬装置 |
US5471564A (en) * | 1992-07-10 | 1995-11-28 | Microsoft Corporation | System and method for dynamic printer timeout |
US5388993A (en) * | 1992-07-15 | 1995-02-14 | International Business Machines Corporation | Method of and system for demonstrating a computer program |
USD348654S (en) | 1992-09-14 | 1994-07-12 | Par Technology Corporation | Hand held terminal with input keyboard and LCD display touch screen |
US5377997A (en) * | 1992-09-22 | 1995-01-03 | Sierra On-Line, Inc. | Method and apparatus for relating messages and actions in interactive computer games |
EP0596594B1 (de) * | 1992-10-26 | 2000-07-12 | Sun Microsystems, Inc. | Fernbedienungs- und Zeigegerät |
US5442376A (en) * | 1992-10-26 | 1995-08-15 | International Business Machines Corporation | Handling multiple command recognition inputs in a multi-tasking graphical environment |
US5357276A (en) * | 1992-12-01 | 1994-10-18 | Scientific-Atlanta, Inc. | Method of providing video on demand with VCR like functions |
US5410326A (en) * | 1992-12-04 | 1995-04-25 | Goldstein; Steven W. | Programmable remote control device for interacting with a plurality of remotely controlled devices |
US5416901A (en) * | 1992-12-17 | 1995-05-16 | International Business Machines Corporation | Method and apparatus for facilitating direct icon manipulation operations in a data processing system |
US5561444A (en) * | 1992-12-21 | 1996-10-01 | Apple Computer, Inc. | Method and apparatus for providing visual feedback during manipulation of text on a computer screen |
US5428734A (en) * | 1992-12-22 | 1995-06-27 | Ibm Corporation | Method and apparatus for enhancing drag and drop manipulation of objects in a graphical user interface |
US5434965A (en) * | 1992-12-23 | 1995-07-18 | Taligent, Inc. | Balloon help system |
US5463725A (en) * | 1992-12-31 | 1995-10-31 | International Business Machines Corp. | Data processing system graphical user interface which emulates printed material |
US5754178A (en) * | 1993-03-03 | 1998-05-19 | Apple Computer, Inc. | Method and apparatus for improved feedback during manipulation of data on a computer controlled display system |
US5530865A (en) * | 1993-03-03 | 1996-06-25 | Apple Computer, Inc. | Method and apparatus for improved application program switching on a computer-controlled display system |
US5517663A (en) * | 1993-03-22 | 1996-05-14 | Kahn; Kenneth M. | Animated user interface for computer program creation, control and execution |
US5555354A (en) * | 1993-03-23 | 1996-09-10 | Silicon Graphics Inc. | Method and apparatus for navigation within three-dimensional information landscape |
US5812862A (en) * | 1993-05-10 | 1998-09-22 | Apple Computer, Inc. | Computer-human interface system for compound documents |
DE69432199T2 (de) * | 1993-05-24 | 2004-01-08 | Sun Microsystems, Inc., Mountain View | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen |
US5524195A (en) * | 1993-05-24 | 1996-06-04 | Sun Microsystems, Inc. | Graphical user interface for interactive television with an animated agent |
US5491784A (en) * | 1993-12-30 | 1996-02-13 | International Business Machines Corporation | Method and apparatus for facilitating integration of software objects between workspaces in a data processing system graphical user interface |
US5515385A (en) * | 1994-03-09 | 1996-05-07 | Motorola, Inc. | Device and method for limiting delay by substantial elimination of duplicate synchronous data frames in a communication system |
US5500794A (en) * | 1994-03-31 | 1996-03-19 | Panasonic Technologies, Inc. | Distribution system and method for menu-driven user interface |
US5491743A (en) * | 1994-05-24 | 1996-02-13 | International Business Machines Corporation | Virtual conference system and terminal apparatus therefor |
US5600785A (en) * | 1994-09-09 | 1997-02-04 | Compaq Computer Corporation | Computer system with error handling before reset |
US5657221A (en) * | 1994-09-16 | 1997-08-12 | Medialink Technologies Corporation | Method and apparatus for controlling non-computer system devices by manipulating a graphical representation |
PT712926E (pt) * | 1994-10-18 | 2004-02-27 | Akzo Nobel Nv | Virus da doenca pancreatica do peixe |
US5543857A (en) * | 1994-10-25 | 1996-08-06 | Thomson Consumer Electronics, Inc. | Graphical menu for a television receiver |
US6724732B1 (en) * | 1999-01-05 | 2004-04-20 | Lucent Technologies Inc. | Dynamic adjustment of timers in a communication network |
US6574770B1 (en) * | 2000-06-29 | 2003-06-03 | Lucent Technologies Inc. | Error-correcting communication method for transmitting data packets in a network communication system |
-
1994
- 1994-04-13 DE DE69432199T patent/DE69432199T2/de not_active Expired - Fee Related
- 1994-04-13 EP EP94302626A patent/EP0626635B1/de not_active Expired - Lifetime
- 1994-05-24 JP JP10998394A patent/JP3898235B2/ja not_active Expired - Lifetime
-
1995
- 1995-03-20 US US08/406,578 patent/US6160551A/en not_active Expired - Lifetime
-
1997
- 1997-02-18 US US08/801,170 patent/US6020881A/en not_active Expired - Lifetime
- 1997-03-07 US US08/813,675 patent/US5886697A/en not_active Expired - Lifetime
- 1997-08-19 US US08/914,656 patent/US5995106A/en not_active Expired - Lifetime
-
1999
- 1999-04-26 US US09/299,144 patent/US6154209A/en not_active Expired - Lifetime
-
2000
- 2000-07-28 US US09/628,300 patent/US6344861B1/en not_active Expired - Fee Related
-
2002
- 2002-01-23 US US10/052,747 patent/US7240289B2/en not_active Expired - Lifetime
-
2005
- 2005-04-05 JP JP2005108776A patent/JP4471114B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US6154209A (en) | 2000-11-28 |
US6160551A (en) | 2000-12-12 |
JP2005293599A (ja) | 2005-10-20 |
US7240289B2 (en) | 2007-07-03 |
JPH0798640A (ja) | 1995-04-11 |
EP0626635A3 (de) | 1997-02-12 |
JP4471114B2 (ja) | 2010-06-02 |
US20020060701A1 (en) | 2002-05-23 |
US6344861B1 (en) | 2002-02-05 |
EP0626635B1 (de) | 2003-03-05 |
US5995106A (en) | 1999-11-30 |
JP3898235B2 (ja) | 2007-03-28 |
EP0626635A2 (de) | 1994-11-30 |
DE69432199D1 (de) | 2003-04-10 |
US5886697A (en) | 1999-03-23 |
US6020881A (en) | 2000-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69432199T2 (de) | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen | |
DE69535524T2 (de) | Anwenderdefinierbare graphische schnittstelle für informationszugriff in einem elektronischen dateisystem | |
US7134092B2 (en) | Graphical user interface method and apparatus | |
US5107443A (en) | Private regions within a shared workspace | |
DE69629983T2 (de) | Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür | |
CN101404152B (zh) | 信息显示装置 | |
US5577188A (en) | Method to provide for virtual screen overlay | |
US6636246B1 (en) | Three dimensional spatial user interface | |
DE69032348T2 (de) | Objektbasiertes System | |
KR100324878B1 (ko) | 가상현실환경에서정보를표시하는방법 | |
CA2402543A1 (en) | A three dimensional spatial user interface | |
US20060020898A1 (en) | Three-dimensional motion graphic user interface and method and apparatus for providing the same | |
US20070204047A1 (en) | Shared telepointer | |
DE202016002908U1 (de) | Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen | |
EP0527828B1 (de) | Objektbasiertes rechnersystem | |
KR20110134940A (ko) | 애플리케이션 공유 | |
KR20110113633A (ko) | 공간적 가상 통신 환경과의 인터페이싱 | |
DE69829110T2 (de) | Verfahren zur beschreibung der benutzerschnittstellenmerkmale und funktionalität von av/c-geräten | |
JP4267186B2 (ja) | クライアントとホスト間での情報内容の伝達 | |
Deller et al. | ModControl–mobile phones as a versatile interaction device for large screen applications | |
Egenhofer et al. | The geographer's desktop: A direct-manipulation user interface for map overlay | |
CN106954089A (zh) | 能够与外部设备实现多媒体交互的手机 | |
CN100498683C (zh) | 计算机网络界面的管理方法 | |
JPH07134695A (ja) | ネットワークサービスにおけるビジュアルアクセスシステム | |
Stein | One year of Puma Painting: site experiences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |