[go: up one dir, main page]

WO2002041069A1 - Method for visually representing and interactively controlling virtual objects on an output visual field - Google Patents

Method for visually representing and interactively controlling virtual objects on an output visual field Download PDF

Info

Publication number
WO2002041069A1
WO2002041069A1 PCT/DE2001/004267 DE0104267W WO0241069A1 WO 2002041069 A1 WO2002041069 A1 WO 2002041069A1 DE 0104267 W DE0104267 W DE 0104267W WO 0241069 A1 WO0241069 A1 WO 0241069A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
virtual
control commands
objects
input
Prior art date
Application number
PCT/DE2001/004267
Other languages
German (de)
French (fr)
Inventor
Henry Feil
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2002041069A1 publication Critical patent/WO2002041069A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Definitions

  • the tactile channel (sense of touch) through haptic signals.
  • the following channels are essentially available on the side of the motor properties of the person specified by the output channels:
  • the arm, hand and finger or leg and foot motor skills as well as body, head, eye or mouth movements, i.e. physical movements, gestures, gestures and facial expressions for mechanical or optical signals, the speech motor skills for acoustic signals ,
  • Signals can be entered into an information system via these channels in order to trigger a desired action by the system.
  • VR virtual reality
  • VR means the computer-based generation of an intuitive perceptible or sensible scene, consisting of its graphic representation and the interaction options for the user.
  • a virtual environment enables a user to access information that would otherwise not be available at the given place or time. It relies on natural aspects of human perception by using visual information in three spatial dimensions. This. For example, information can be changed in a targeted manner or enriched with additional sensory stimuli.
  • the essential prerequisites are the control of the perspective in real time and the possibility of active influence on the depicted scene by the user of the system.
  • the user can use the type of control that is natural for him. This can include, for example, appropriate arm or leg movements, positioning of the head or eyes, turning the body or walking towards an object.
  • the cognitive load during the interaction between man and machine can be reduced. This increases the bandwidth of communication between man and machine and improves the usability of the machine.
  • the conventional forms of human-machine communication control the machine in a command-oriented manner, no specific commands have to be re-learned and used when controlling objects in virtual environments: the computer "observes" the user passively and reacts on the basis of whose eye, head and / or hand movements etc. under real-time conditions in an appropriate manner.
  • the visual perception not only provides information about the position, movement, shape, structure, contour, texture, color or pattern of objects etc., but also information about the relative body position of the viewer and his movements as well as about the nature of the three-dimensional environment. Synthetically generated environments can be made more realistic if as much as possible of the information occurring in natural environments (movement parallax, vanishing points of the perspective representation, spatial depth effect and plasticity, lighting and shadow cast, concealment, gloss effect, reflection effects and diffuse reflection etc.) is simulated become. How much and what information should be presented depends on the respective task. The differences between the real and virtual world determine how realistic the simulation is perceived.
  • the visual information has to be simulated by a computer in order to realize virtual realities. Similar aspects are relevant as in painting.
  • the computer-aided simulation of three-dimensional worlds usually simulates the projection of individual light beams. The starting point of such a simulation is the specification of the environment to be simulated. To do this, the individual objects with their properties and their location must be defined. The intensities of individual pixels are then calculated for visualization and projected onto the output medium.
  • VR systems basically consist of sensors and actuators and their coupling.
  • Important hardware components include the following:
  • HMD Head Mounted Displays
  • BOOM Boocular Omni-Oriented Monitors
  • auditory or tactile displays are also used, which react to acoustic or manual user input.
  • Positioning and orientation systems to record the location and perspective of the user. A distinction is made between the determination of the absolute position (“position tracking”) and the measurement of the flexion of joints ("angle measurement”). Electromagnetic, kinematic, acoustic, optical and image processing procedures are used.
  • VCS Vehicle Coupled Systems
  • a device for determining the user's head and / or gaze movements 3. a source of visual information that depends on the user's head and / or gaze direction.
  • Suitable visual components (lenses, semi-transparent mirrors) of high quality are required for visualization, which enable a sharply focused, enlarged image of the image source.
  • image sources Various systems come into consideration as image sources; however, cathode ray tubes or LCD screens are most commonly used. High resolution and luminance, high color saturation and high contrast as well as small dimensions of the image source are desirable. Two such image sources are required to visualize three-dimensional objects.
  • Tracking head movements is an important part of VR applications. Usually the position and orientation of the head in the room are determined, advanced systems can also follow the direction of the gaze. Most systems use either ultrasound, magnetic or light energy to communicate between the head-mounted transmitters and the receivers. Important technical data that play a role in the selection of these systems are:
  • VR applications can be successfully used in practice in a number of different areas. Some possible applications are outlined below as examples.
  • the technologies available today for entering information into a data processing system can be divided into four groups according to the sensors used: mechanical (e.g. keyboards, mice, trackballs and joysticks), electrical (e.g. tactile displays and graphics tablets), optical (e.g. light pens) and acoustic (e.g. voice input and Language interpretation systems).
  • mechanical e.g. keyboards, mice, trackballs and joysticks
  • electrical e.g. tactile displays and graphics tablets
  • optical e.g. light pens
  • acoustic e.g. voice input and Language interpretation systems
  • touch-sensitive information input devices is the capacitively coupled touch panel. This provides a resolution of approximately 100 positions in each direction. If a user touches the conductive coated glass plate of the touchscreen with a finger, the current finger position can be determined based on the change in impedance.
  • Other high-resolution panels use two minimally spaced, transparent layers. One is coated with a conductive material, the other with a resistance material. These two layers touch through the pressure of the finger, and the current finger position can then be determined by measuring the resulting voltage drop.
  • a lower resolution Send and cheaper variant of this technology uses a grid of fine wires instead of these layers.
  • a reflex-like or cognitive sensor-motor-related feedback is particularly important, for example that of receptors in the skin, kinesthetic sensations, the sense of balance as well as visual and / or acoustic sensations. In many cases this results in redundancy, which is not always the case with VR applications. Due to the insufficient sensory feedback in VR applications, learning motor skills is also made more difficult.
  • An ideal medium for communication between a user and an information system should be tailored to the sensory and perceptual as well as the motor skills as well as to the specific properties of the human user.
  • the information should be structured in such a way that an optimal match between the representation of the information output and the mental model of the user is achieved: If the information to be displayed to the user is presented in such a way that, for example, his spatial perception is addressed users deal with incredibly complex amounts of information per unit of time.
  • the information system should be able to record, understand and process as many types of information sent by a user as possible and convert them into corresponding actions. This has the advantage that the user can react more efficiently and quickly to new events and situations. Ease of use and appropriateness of tasks are therefore typical features that an ideal medium has. These characteristics can be expressed as follows:
  • the object of the present invention is to improve the existing situation using technical means.
  • the invention is therefore primarily devoted to the task of providing comfortable and reliable methods by means of which the user is able to actively control virtual objects, the existing skills of the user being used to transmit information. This object is achieved by a method with features according to claim 1.
  • the present invention uses methods of signal or pattern recognition for the detection and processing by the user in the form of signals transmitted by signals. Only through this inventive step does a pure output field of view become an interactively operable input and output field of view 203 that is adapted to the capabilities of the user.
  • the properties of objects of a depicted scene 204 that can be manipulated by the user can be, for example, features such as location vector, position, dimensions, viewing perspective, geometric shape, structure, contour or texture of the objects.
  • Interaction options are also conceivable, with which the type of representation of the objects is changed, such as color or pattern, brightness, contrast effect against the background, gloss effects, reflections and reflections, shading, etc.
  • the actions of Objects of the depicted scene can be about the movement of the objects.
  • the movement of the objects can include translation and / or rotation components, the kinematic data of the objects, such as the magnitude and / or direction of its speed or acceleration vector or its angular velocity or angular acceleration vector, individually according to the control commands of the user can be changed.
  • the interactive control commands of the user can be registered with the aid of sensors 502 and / or recording devices 501. After the data acquisition, the acquired input data can be fed to an evaluation and control device 503, can be interpreted and processed as control commands.
  • the system In order to keep the possibility of misinterpretation of transmitted signals from a user by the data processing system as low as possible and thus to increase the reliability of the system, the system must be adapted to the usual properties of the user. For this reason, the system must be repeatedly "taught" all possible input signals of an individual command set of the user concerned in a training phase. According to these signals interpreted by the system as control commands, it is possible to manipulate or influence the objects of a depicted scene and / or to trigger an action.
  • the objects manipulated or influenced in this way and / or the actions triggered thereby can be graphically visualized or acoustically and / or optically displayed to the user on a field of view 203.
  • This provides a feedback loop between output and input data, with the aid of which the reaction to changes in objects of a depicted scene 204 can be made possible in almost real time.
  • the objects that can be controlled in the context of this method can, for example, be real existing objects in a real environment.
  • a typical application example is the radio remote control of a robot to carry out dangerous work in difficult to access and / or distant places, for example to carry out repair work in sewer pipes, to investigate radioactive substances in hermetically sealed high-security rooms or to collect and transmit data for unmanned people Space missions.
  • Another typical application example is the possibility of remote control of work and / or
  • Household appliances using non-manual input procedures for physically and / or manually disabled people can be based on the individually available
  • the objects to be controlled are objects that do not actually exist in a virtual environment of a computer-controlled model.
  • the use of systems for interactive control of virtual objects seems to make sense, especially in the training area: by learning how to deal with virtual objects, interactive demonstrations, visualizing abstract concepts, virtual training in behavior in dangerous situations, virtual exploration of distant places or epochs, knowledge can be imparted, creative skills are trained and behavioral patterns are trained.
  • Typical areas of application are, for example, flight simulators, with the help of which critical situations in air traffic (engine failures, stalling, emergency landings on the water and on land, etc.) can be trained by trained pilots and learning progress can be assessed quantitatively.
  • a natural form of human-machine interaction and the input of information into an information processing system is that of natural language communication. For this reason, this form of input lends itself to exemplary embodiments of the present invention.
  • the speech input systems used hitherto and in the foreseeable future make only limited use of natural language communication, by using only words a basic vocabulary fixed by the manufacturer
  • Scope plus a user-specific technical vocabulary (usually a few hundred to a thousand words) or combinations of these words are allowed.
  • a user has to repeat the basic vocabulary as well as his user-specific technical vocabulary repeatedly in a training phase so that the system responds to the user's voice and any deviations from the normal state of the voice, for example as a result of a cold or Hoarseness of the user can adjust.
  • statistical models (usually “hidden Markov models”) are generated by the system during this training phase, with the aid of which, for example, the sequence of individual phonemes or syllables of the words being trained are assigned probability density functions, so that newly spoken words are identified as correct or incorrect with a predictable probability.
  • the device 503 for recognizing and interpreting the control commands of the user can be, for example, an automatic recognition system for acoustic signals, especially for speech signals.
  • Most of the automatic speech recognition systems used today are, for example, word, syllable or phoneme-based systems that are only designed for context-independent speech recognition. This means that the voice commands consisting of words from a trained vocabulary currently have to be spoken to the system with sufficiently long pauses ("discreet") in order to achieve acceptable word recognition rates in the range of approx. 90% to 95% for the user.
  • Commercial polyphonic-based prototypes of context-dependent speech recognition systems for fluently (" " continuously ") spoken language already achieve word recognition rates of approx. 95% to 98%.
  • the computing power of the system for continuous context-dependent speech recognition is so great that it can no longer be carried out in real time on current high-performance computers.
  • Another form of human-machine communication which accommodates the properties and skills of the user, is the evaluation of optical signals, such as body, head, face, leg, foot, arm, hand and / or finger movements, i.e. gestures, gestures and / or facial expressions.
  • optical signals such as body, head, face, leg, foot, arm, hand and / or finger movements, i.e. gestures, gestures and / or facial expressions.
  • Sensors 202 and / or recording devices 201 can be used to receive optical signals from the user. Specifically, these can be optical or acoustic distance sensors and / or video cameras.
  • the distance sensor can have an ultrasound or high-frequency radiation source as well as a detector and devices that focus the sound or radiation on the measurement object and collect the sound or light waves reflected by the measurement object on the detector. Part of the ambient sound or the ambient radiation can be blocked with the help of filters. So that the sensor system functions reliably regardless of the ambient conditions, compression, coding and modulation of the signals emitted by the signal source and suitable signal processing on the detector side for demodulation, decoding and decompression of the received signals can be provided.
  • compression, coding and modulation of the signals emitted by the signal source and suitable signal processing on the detector side for demodulation, decoding and decompression of the received signals can be provided.
  • Control commands from a user can also be, for example, an automatic detection system for movement signals, whereby methods of image processing can be used.
  • One possibility for example, is to analyze the user's lip movements when speaking in order to increase the recognition reliability of the speech input. Modern studies have shown that the combination of acoustic and optical speech recognition can reduce the word error rate for individual speakers by 30% to 50% compared to only acoustic speech recognition.
  • Other embodiments can use the head and / or eye movements to input information. A measurement of the head and / or line of sight is required for this.
  • the head position is visually fed back by means of a visor attached in front of an eye.
  • a small light source is also attached to the head, the position of which is measured with the help of a video camera, so that head movements around two axes of rotation (horizontal and vertical) can be recorded.
  • Another input method based on measuring eye movements has been known since 1987. It is assumed that the selection of an object displayed on an optical display is one of the most common input operations and that the visual fixation of an object to be selected is a normal human behavior. This type of input is particularly recommended for high demands on the speed of input or if the hands are disabled or other tasks are required.
  • the output device 505 for displaying a virtual environment can be, for example, a device for generating a so-called "Virtual Retinal Display” (VRD), in which a virtual image area 203 is projected onto the retina 206 of the user.
  • VRD Virtual Retinal Display
  • a screen or a display device instead of a screen or a display device, only a coherent light source emitting photon radiation is required. This can be a device from the work or leisure area or an orthosis that brings about an expansion of human eyesight.
  • a VRD has the following advantages: 1.
  • the resolution of the VRD is only limited by the diffraction and optical aberration of the light beam in the human eye, but not by the size of an elementary that is technically feasible for screens or real displays
  • Picture element pixel size
  • the image brightness that can be achieved with the help of a VRD can be controlled by the intensity of the emitted light beam. When using a laser as a light source, the image brightness of the VRD can be set high enough to be used outdoors.
  • VRDs can be operated either in a mode for virtual realities or in a mode for enriched realities ("see-through mode").
  • the industrial production of a light source for generating a VRD is relatively simple and can be carried out with low production costs in comparison with conventional screens and display devices. 5. Since a large part of the generated light is focused on the retina of the viewer, VRDs work with a high degree of efficiency and have a low power consumption in comparison to screens and real displays.
  • the virtual image surface 401 can have, for example, virtual input-sensitive reference points 404, 405, 406 and 407 and / or surfaces 403 in a virtual image plane of a predetermined spatial direction. These can be flat surfaces with a given area.
  • the spatial direction of the virtual image plane can preferably be oriented perpendicular to the viewing direction, that is, such that the normal vector n of the virtual image plane is parallel or antiparallel to the viewing direction vector b.
  • Inputs are triggered when a real object (an object or a body part of the user) touches the plane of the virtual display on such an input-sensitive surface 205 or intersects the surface at any entry angle.
  • a real object an object or a body part of the user
  • the index finger of a user's right hand could be recognized as the only input medium. In this case, interaction is only permitted if this finger intersects or touches an input-sensitive surface in a virtual image plane.
  • the distance between the plumb point of the virtual image plane and the point of the sharpest image on the retina of one of the eyes 304 of the viewer or the limitation and spatial orientation of the image surface 303 of the virtual image plane can be determined by the detection of optical signals by the user with the aid of an optical or acoustic distance sensor 502 , a video camera 501 and a downstream evaluation electronics 503.
  • the image screen because the information can be encoded in many different ways (text, graphics, images, animation, etc.).
  • options for flexible organization of the information are available, with which the required search and selection process of individual objects can be supported.
  • 3D displays or 3D glasses can be used to display spatial facts. With all of these optical displays, in addition to the necessary attention of the user, movements of the head and / or eyes are required for the reading.
  • projection devices (“head up” displays) can be used, for example in aircraft or vehicle guidance, in which the information to be read is faded into the viewing area onto which the eye perceives the Main task (such as aircraft or vehicle control) is preferably aligned.
  • a special form is the design as a helmet-based display device in the form of a "head-mounted display” (HMD), in which the display unit is fastened in the helmet of the user.
  • HMD head-mounted display
  • Conventional VR applications use HMDs to display virtual worlds via a stereo display system as well as via surround sound systems or headphones coupled to the HMD.
  • the head movement In order for the three-dimensional virtual environment to appear stable to the viewer even when the head is moving, the head movement must be recorded in the six degrees of freedom and passed on to the display. This must be done with a sufficiently high frequency of at least 70 Hz.
  • a large number of different measuring systems have been used to measure head movement. However, many are either uncomfortable for the viewer or too expensive to procure.
  • acoustic or haptic output devices can be provided, since low-intensity acoustic and haptic signals do not cause any visual distraction for the user.
  • haptic signal transmitters are currently only widely used as aids for the blind.
  • FIG. 1 shows a design sample 101, a schematic diagram 102 and a typical application example 103 of a "Virtual Retinal Display” (VRD) from the user's perspective (source: “Technologies to Watch”, May 2000 edition),
  • VRD Virtual Retinal Display
  • FIG. 2 shows a schematic representation of the input method via a VRD
  • FIG. 3 shows a schematic illustration for recording the distance of the virtual image plane in a VRD
  • FIG. 4 shows an example for the acquisition of the virtual corner coordinates 404, 405, 406 and 407 of the image area 401 of a VRD and
  • FIG. 5 shows a schematic hardware structure for recording the input and controlling the output of a VRD.
  • FIG. 1 shows a design pattern 101 of a Microvision system for generating a VRD, a basic illustration 102 of the functioning of the VRD and a typical application example 103 of a VRD.
  • the application example shown is a voltage measurement in the motor vehicle sector, in which the user uses a VRD Serial number, profile, measured values and the measured voltage-time characteristic of the tested component can be displayed.
  • FIG. 2 demonstrates the method of input using touch-sensitive buttons 205 for VRDs.
  • the image area 203 of the virtual image plane is shown with the partial areas contained therein for the virtual output area 204 and the virtual buttons or switches 205. If the input areas are touched by a finger of the user 207 or an object or are pierced at any entry angle, an input is recognized and the corresponding action is triggered.
  • the inputs of the user can be recorded using a video camera 201 and / or a distance sensor 202.
  • FIG. 3 illustrates the method for determining the distance of the virtual image plane from the retina of one of the viewer's eyes 304 in a VRD.
  • the position and the two orientation vectors of the virtual image plane 303 are determined by the position and spatial orientation of the user's extended palm 305.
  • a distance sensor 302 emitting ultrasound or infrared waves, a video camera 301 and a method for signal or pattern recognition can be used.
  • the spatial orientation of the virtual image plane is determined by the user in such a way that the normal vector n of the virtual image plane runs parallel or antiparallel to the viewing direction vector b, that is to say the scalar product of the magnitude-standardized vectors n /
  • 2 gives the values +1 or -1.
  • the distance between the virtual plane and the viewer then results as the distance between the plumb point, that is, the intersection between the virtual image plane and the line of sight, and the point of sharper imaging on the retina of one of the viewer's eyes 304.
  • FIG. 4 shows how the boundary points of a virtual polygonal image area 401 are entered.
  • a rectangular image area was defined by specifying four corner points.
  • the Cartesian coordinates of the image corner points 404, 405, 406 and 407 can be generated at those spatial positions at which, for example, a finger of a hand 408 of the user or an object touches or intersects the virtual image plane 401.
  • the arrows indicate the movement of the finger from one corner point to the next corner point of the virtual image surface.
  • FIG. 5 shows the feedback circuit between man and machine, which contains the schematic hardware structure for recording the input and controlling the output in a VRD.
  • the optical information of the user obtained via a video camera 501 or a distance sensor 502 is fed to a central control unit 503, in which the information is recognized, interpreted and processed. After triggering a corresponding action, the newly determined or calculated data is forwarded to the control unit 504 for controlling the VRD.
  • This then takes over the output of the text and / or image data via, for example, a laser-operated VRD 505.
  • a new reaction by the user to the changed actual state can then begin.
  • the meaning of the symbols denoted by numerals in FIGS. 1 to 5 can be found in the list of reference symbols below.
  • touch-sensitive input surfaces virtual keys or virtual switches
  • control unit for controlling the VRD

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The invention relates to a method for graphically visualizing objects by means of which the objects represented on at least one visual field (203) are comfortably and reliably manipulated, controlled or influenced, with regard to their features and/or actions, by interactive control commands of a user. Technologies used for inputting the control commands issued by the user can, in addition to standard manually operable mechanical or touch-sensitive input mechanisms such as a keyboard, a mouse, a trackball, a joystick, a graphics tablet and stylus, tactile displays, etc., involve the use of devices (501, 502 and 503) for recording, recognizing, interpreting and processing acoustic and/or optical signals of a user. The user is thus no longer dependent upon the presence of additional hardware devices for manually inputting control commands. The evaluation of the input information can instead or additionally ensue by using methods involving signal or pattern recognition. This inventive step enables a conversion of a simple output visual field, with which the user is not provided with any ability to control, into an interactively operable input and output visual field (203). The type of input method can be individually adapted to the abilities of the user.

Description

Beschreibungdescription
Verfahren zur visuellen Darstellung und interaktiven Steuerung von virtuellen Objekten auf einem Ausgabe-SichtfeldProcess for the visual representation and interactive control of virtual objects on an output field of view
A. Schilderung des allgemeinen ProblemsA. Description of the general problem
Im Rahmen der Kommunikation zwischen Mensch und Maschine treten häufig Probleme auf, die auf der ungenügenden Anpassung der Maschine an die Eigenschaften der Aufnahme, Verarbeitung und Ausgabe von Information durch den menschlichen Anwender beruhen. Diese Fehlanpassung kann einerseits zu einer vom Anwender nicht mehr zu bewältigenden Informationsflut führen, vor allem wenn mehrere Aufgaben erledigt werden müssen. Ande- rerseits kann auch eine Unterforderung des Anwenders, beispielsweise bei einer hochautomatisierten Anlage, bei der dem Menschen lediglich eine Kontrollfunktion zukommt, bewirken, dass durch die Monotonie der Arbeitssituation ein Leistungsabfall eintritt und Störfälle infolge mangelnder Übung der Vorgehensweise in solchen Situationen nicht mehr beherrscht werden. Auch die mangelnde Berücksichtigung der Kenntnisse und des Ausbildungszustands des Benutzers einer Maschine sind hier zu nennen. Das menschliche Verhalten wird, zum Beispiel bei der Auswahl, Bewertung und Verknüpfung von Information, bei der Entscheidungsfindung, beim Problemlösen sowie bei der Planung und Ausführung von Handlungen, nur unzureichend berücksichtigt und unterstützt, wenn es sich um die Auslegung technischer Systeme handelt.In the context of communication between man and machine, problems often arise which are based on the insufficient adaptation of the machine to the properties of the recording, processing and output of information by the human user. On the one hand, this mismatch can lead to a flood of information that the user can no longer handle, especially if several tasks have to be completed. On the other hand, if the user is under-challenged, for example in a highly automated system in which humans only have a control function, the monotony of the work situation leads to a drop in performance and incidents due to a lack of practice in such situations no longer being controlled , The lack of consideration of the knowledge and training status of the user of a machine should also be mentioned here. Human behavior, for example in the selection, evaluation and linking of information, in decision-making, in problem solving and in the planning and execution of actions, is insufficiently taken into account and supported when it comes to the design of technical systems.
Für die Anpassung technischer Systeme an den Menschen ist somit Vorwissen über seine Eigenschaften, seine Verhaltensmuster, seine Fertigkeiten und seinen Kenntnisstand notwendig. Im Zusammenhang mit der Mensch-Maschine-Kommunikation interessieren also seine sensorischen, kognitiven und motorischen Eigenschaften. Auf der Seite der durch die Sinneskanäle vor- gegebenen sensorischen Eigenschaften des Menschen werden von herkömmlichen Maschinen und Geräten zur Ausgabe von Information im Wesentlichen die folgenden Kanäle angesprochen:In order to adapt technical systems to humans, prior knowledge of their properties, behavior patterns, skills and level of knowledge is necessary. In connection with human-machine communication, its sensory, cognitive and motor properties are of interest. On the side of the through the sensory channels Given the sensory properties of humans, conventional machines and devices for outputting information essentially address the following channels:
- der visuelle Kanal (Augen) durch optische Signale,- the visual channel (eyes) through optical signals,
- der auditive Kanal (Ohren) durch akustische Signale und- The auditory channel (ears) through acoustic signals and
- der taktile Kanal (Tastsinn) durch haptische Signale.- The tactile channel (sense of touch) through haptic signals.
Nach der Verarbeitung der Signale im Gehirn (Kognition) ste- hen auf der Seite der durch die Ausgabekanäle vorgegebenen motorischen Eigenschaften des Menschen im Wesentlichen folgende Kanäle zur Verfügung:After processing the signals in the brain (cognition), the following channels are essentially available on the side of the motor properties of the person specified by the output channels:
die Arm-, Hand- und Finger- bzw. Bein- und Fußmotorik so- wie Körper-, Kopf-, Augen- oder Mundbewegungen, also physikalische Bewegungen, Gebärden, Gestik und Mimik für mechanische bzw. optische Signale, die Sprachmotorik für akustische Signale.the arm, hand and finger or leg and foot motor skills as well as body, head, eye or mouth movements, i.e. physical movements, gestures, gestures and facial expressions for mechanical or optical signals, the speech motor skills for acoustic signals ,
Über diese Kanäle können Signale in ein Informationssystem eingegeben werden, um eine gewünschte Aktion des Systems auszulösen.Signals can be entered into an information system via these channels in order to trigger a desired action by the system.
B. Bekannte Lösung des allgemeinen Problems nach dem aktuellen Stand der TechnikB. Known solution to the general problem according to the current state of the art
Das Ziel der Entwicklung von geeigneten Schnittstellen zwischen Mensch und Maschine ist es, von den Eigenschaften der menschlichen Kommunikationskanäle und Fertigkeiten auszuge- hen, um Geräte, Interaktionstechniken und Schnittstellen bereitzustellen, die eine effektive wechselseitige Kommunikation über diese Kanäle gewährleisten. Um dieses Ziel zu erreichen, sind sogenannte "Virtuelle Realitäten" (VR) besonders geeignet. Unter dem Begriff "Virtuelle Realität" (VR) versteht man die computerbasierte Erzeugung einer intuitiv wahrnehmbaren oder empfindbaren Szene, bestehend aus ihrer grafischen Darstellung und den Interaktionsmöglichkeiten für den Benutzer. Eine virtuelle Umgebung ermöglicht einem Benutzer Zugriff zu Informationen, die andernfalls am gegebenen Ort oder zur gegebenen Zeit nicht verfügbar wären. Sie stützt sich auf natürliche Aspekte der menschlichen Wahrnehmung, indem sie visuelle Information in drei räumlichen Dimensionen einsetzt. Diese. Information kann beispielsweise gezielt verändert oder mit weiteren sensorischen Reizen angereichert werden. Wesentliche Voraussetzungen sind die Kontrolle der Perspektive in Echtzeit und die Möglichkeit der aktiven Ein- flussnahme auf die dargestellte Szene durch den Benutzer des Systems .The aim of developing suitable interfaces between man and machine is to start from the properties of human communication channels and skills in order to provide devices, interaction techniques and interfaces that ensure effective mutual communication via these channels. To achieve this goal, so-called "virtual realities" (VR) are particularly suitable. The term "virtual reality" (VR) means the computer-based generation of an intuitive perceptible or sensible scene, consisting of its graphic representation and the interaction options for the user. A virtual environment enables a user to access information that would otherwise not be available at the given place or time. It relies on natural aspects of human perception by using visual information in three spatial dimensions. This. For example, information can be changed in a targeted manner or enriched with additional sensory stimuli. The essential prerequisites are the control of the perspective in real time and the possibility of active influence on the depicted scene by the user of the system.
Bei der Navigation durch virtuelle Umgebungen kann der Benutzer die für ihn natürliche Art der Steuerung einsetzen. Dies können beispielsweise entsprechende Arm- oder Beinbewegungen, Positionieren des Kopfes bzw. der Augen, Drehen des Körpers oder Zulaufen auf ein Objekt beinhalten. Durch den Einsatz bereits vorhandener Fertigkeiten des Benutzers zur Steuerung kann die kognitive Belastung während der Interaktion zwischen Mensch und Maschine reduziert werden. Dadurch kann die Bandbreite der Kommunikation zwischen Mensch und Maschine erhöht und die Bedienbarkeit der Maschine verbessert werden. Während bei den herkömmlichen Formen der Mensch-Maschine-Kommunikation die Steuerung der Maschine kommandoorientiert erfolgt, müssen bei der Steuerung von Objekten in virtuellen Umgebungen keine spezifischen Kommandos neu erlernt und eingesetzt werden: Der Computer "beobachtet" den Benutzer passiv und re- agiert aufgrund von dessen Augen-, Kopf- und/oder Handbewegungen etc. unter Echtzeitbedingungen in angemessener Weise.When navigating through virtual environments, the user can use the type of control that is natural for him. This can include, for example, appropriate arm or leg movements, positioning of the head or eyes, turning the body or walking towards an object. By using the user's existing skills to control, the cognitive load during the interaction between man and machine can be reduced. This increases the bandwidth of communication between man and machine and improves the usability of the machine. While the conventional forms of human-machine communication control the machine in a command-oriented manner, no specific commands have to be re-learned and used when controlling objects in virtual environments: the computer "observes" the user passively and reacts on the basis of whose eye, head and / or hand movements etc. under real-time conditions in an appropriate manner.
Bei den handelsüblichen VR-Applikationen unterscheidet man Systeme, bei denen der Benutzer vollständig in die virtuelle Umgebung integriert ist (engl.: "Immersion") und Systeme, die nur ein "Fenster" zur virtuellen Realität darbieten. Neben den bekannten Formen der Mensch-Maschine-Kommunikation wieIn the case of commercial VR applications, a distinction is made between systems in which the user is fully integrated in the virtual environment ("Immersion") and systems that only present a "window" to virtual reality. In addition to the well-known forms of human-machine communication such as
• Direktmanipulation von Objekten durch manuelle feinmotori- sehe Operationen (Zeigen, Berühren, Greifen, Bewegen,• Direct manipulation of objects through manual fine motor operations (pointing, touching, gripping, moving,
Festhalten etc.),Hold on etc.),
• formale Interaktionssprachen (Programmiersprachen, Kommandosprachen und formale Abfragesprachen) ,• formal interaction languages (programming languages, command languages and formal query languages),
• natürlichsprachliche Interaktion, • gestische Interaktion mittels nonverbaler symbolischer Kommandos (Mimik, Gestik, Gebärden, Bewegungen) sowie• natural language interaction, • gestural interaction using non-verbal symbolic commands (facial expressions, gestures, gestures, movements) and
• hybride aufgabenorientierte Interaktionsformen• Hybrid task-oriented forms of interaction
kann man virtuelle Realitäten auch als eine neue Form der Mensch-Maschine-Kommunikation auffassen. Wie der Nameone can also understand virtual realities as a new form of human-machine communication. Like the name
"Virtuelle Realität" schon andeutet, ist hierfür eine gewisse Realitätstreue der Darstellung notwendig: Dem Anwender soll diejenige sensorische Information dargeboten werden, die zur Bearbeitung einer Aufgabe oder zum Erreichen eines Ziels er- forderlich ist."Virtual reality" already suggests that this requires a certain degree of realism in the presentation: The user should be provided with the sensory information that is required to process a task or to achieve a goal.
Die visuelle Wahrnehmung liefert nicht nur Informationen über die Lage, Bewegung, Form, Struktur, Kontur, Textur, Farbe bzw. Musterung von Objekten etc., sondern auch Informationen über die relative Körperstellung des Betrachters und dessen Bewegungen sowie über die Beschaffenheit der dreidimensionalen Umgebung. Synthetisch generierte Umgebungen können dabei realistischer gestaltet werden, wenn möglichst viele der in natürlichen Umgebungen auftretenden Informationen (Bewegungs- parallaxe, Fluchtpunkte der perspektivischen Darstellung, räumliche Tiefenwirkung und Plastizität, Beleuchtung und Schattenwurf, Verdeckung, Glanzwirkung, Spiegelungsef ekte und diffuse Reflexion etc.) simuliert werden. Wie viele und welche Informationen präsentiert werden sollen, hängt von der jeweiligen Aufgabenstellung ab. Die Unterschiede zwischen realer und virtueller Welt bestimmen, als wie realistisch die Simulation wahrgenommen wird.The visual perception not only provides information about the position, movement, shape, structure, contour, texture, color or pattern of objects etc., but also information about the relative body position of the viewer and his movements as well as about the nature of the three-dimensional environment. Synthetically generated environments can be made more realistic if as much as possible of the information occurring in natural environments (movement parallax, vanishing points of the perspective representation, spatial depth effect and plasticity, lighting and shadow cast, concealment, gloss effect, reflection effects and diffuse reflection etc.) is simulated become. How much and what information should be presented depends on the respective task. The differences between the real and virtual world determine how realistic the simulation is perceived.
Die visuelle Information muss zur Realisierung virtueller Realitäten durch einen Computer simuliert werden. Dabei sind ähnliche Aspekte relevant wie in der Malerei. Bei der computergestützten Simulation dreidimensionaler Welten wird üblicherweise die Projektion einzelner Lichtstrahlen simuliert. Ausgangspunkt einer solchen Simulation ist die Spezifikation der zu simulierenden Umgebung. Dazu müssen die einzelnen Objekte mit ihren Eigenschaften und ihrer Lage festgelegt werden. Zur Visualisierung werden dann die Intensitäten einzelner Bildpunkte berechnet und auf das Ausgabemedium proji- ziert.The visual information has to be simulated by a computer in order to realize virtual realities. Similar aspects are relevant as in painting. The computer-aided simulation of three-dimensional worlds usually simulates the projection of individual light beams. The starting point of such a simulation is the specification of the environment to be simulated. To do this, the individual objects with their properties and their location must be defined. The intensities of individual pixels are then calculated for visualization and projected onto the output medium.
Mit Hilfe dieser Simulationen lassen sich völlig neue Arten des Lernens und Übens realisieren (Beispiele: Fahrzeug- bzw. Flugzeugsimulator) , andererseits wird dabei immer auch von bestimmten Aspekten der realen Welt abstrahiert. VR-Applika- tionen bewirken daher gleichzeitig eine Anreicherung und eine Einschränkung der Erfahrungsmöglichkeiten des Anwenders.With the help of these simulations, completely new ways of learning and practicing can be realized (examples: vehicle or aircraft simulator), on the other hand, it is always abstracted from certain aspects of the real world. VR applications therefore simultaneously enrich and limit the user's experience.
Grundsätzlich bestehen VR-Systeme aus Sensoren und Aktoren sowie deren Kopplung. Wichtige Hardware-Bestandteile sind unter anderem folgende:VR systems basically consist of sensors and actuators and their coupling. Important hardware components include the following:
• "Displays" zur Präsentation der virtuellen Umgebung. Im Rahmen der visuellen Präsentation kommen heute vor allem Monitore, "Head Mounted Displays" (HMD) , "Binocular Omni- Oriented Monitors" (BOOM) und Projektionssysteme; verwendet werden aber auch auditive bzw. taktile Displays, welche auf akustische bzw. manuelle Benutzereingaben reagieren. • Positionierungs- und Orientierungssysteme zur Erfassung von Standort und Perspektive des Benutzers. Hierbei wird unterschieden zwischen der Bestimmung der absoluten Position (engl: "Position Tracking" ) und der Messung der Beu- gung von Gelenken (engl.: "Angle Measurement" ) . Zum Einsatz kommen elektromagnetische, kinematische, akustische, optische sowie bildverarbeitende Prozeduren.• "Displays" to present the virtual environment. As part of the visual presentation, today mainly monitors, "Head Mounted Displays" (HMD), "Binocular Omni-Oriented Monitors" (BOOM) and projection systems; However, auditory or tactile displays are also used, which react to acoustic or manual user input. • Positioning and orientation systems to record the location and perspective of the user. A distinction is made between the determination of the absolute position ("position tracking") and the measurement of the flexion of joints ("angle measurement"). Electromagnetic, kinematic, acoustic, optical and image processing procedures are used.
• Interaktions- und Manipulationssysteme zum Agieren und Reagieren des Anwenders in der virtuellen Umgebung. Hierfür werden Zeigegeräte (2D- bzw. 3D-Mäuse, -Trackballs, -Joysticks etc.) bzw. taktile Geräte (Touchscreen, elektromagnetisches Grafiktablett und Griffel etc.) verwendet; auch sogenannte "Datenhandschuhe" mit Beugungs- und Drucksensoren werden in zunehmendem Maße eingesetzt. Auch Sprach- Steuerung ist in diesem Zusammenhang zu nennen.• Interaction and manipulation systems for acting and reacting to the user in the virtual environment. Pointing devices (2D or 3D mice, trackballs, joysticks etc.) or tactile devices (touchscreen, electromagnetic graphics tablet and stylus etc.) are used for this; So-called "data gloves" with diffraction and pressure sensors are also increasingly being used. Voice control should also be mentioned in this context.
• Berechnungssysteme und Software zur Erzeugung der virtuellen Umgebung unter EchtZeitanforderungen.• Calculation systems and software for creating the virtual environment under real-time requirements.
• Netzwerke zur Integration verschiedener Benutzer, durch die sich neue Formen der Zusammenarbeit entwickeln können.• Networks for the integration of different users, through which new forms of cooperation can develop.
Die verschiedenartigen technischen Varianten von heim- bzw. kopfbasierten Systemen zur Visualisierung virtueller Realitäten werden im englischen Sprachgebrauch zusammenfassend als "Visually Coupled Systems" (VCS) bezeichnet. Sie bestehen aus den folgenden wichtigen Komponenten:The various technical variants of home or head based systems for the visualization of virtual realities are collectively referred to as "Visually Coupled Systems" (VCS). They consist of the following important components:
1. einem am Kopf bzw. Helm befestigtes Display,1. a display attached to the head or helmet,
2. einem Gerät zum Bestimmen der Kopf- und/oder Blickbewegungen des Anwenders, 3. einer Quelle visueller Information, die von der Kopf- und/oder Blickrichtung des Anwenders abhängt.2. a device for determining the user's head and / or gaze movements, 3. a source of visual information that depends on the user's head and / or gaze direction.
Beim Einsatz eines derartigen Systems für VR-Applikationen können sowohl Informationen aus der realen als auch aus der virtuellen Umgebung gleichzeitig dargeboten werden. Man spricht dabei von "See-Through Displays" für die Darstellung von angereicherten Realitäten.When using such a system for VR applications, information from both the real and the virtual environment can be presented simultaneously. you speaks of "see-through displays" for the representation of enriched realities.
Zur Visualisierung sind geeignete optische Komponenten (Lin- sen, halbdurchlässige Spiegel) hoher Qualität erforderlich, die ein scharf fokussiertes, vergrößertes Abbild der Bildquelle ermöglichen. Als Bildquellen kommen verschiedene Systeme in Betracht; am häufigsten werden jedoch Kathodenstrahlröhren oder LCD-Bildschirme eingesetzt. Wünschenswert sind dabei eine hohe Auflösung und Leuchtdichte, hohe Farbsättigung und hoher Kontrast sowie geringe Abmessungen der Bildquelle. Zur Visualisierung dreidimensionaler Objekte sind zwei derartige Bildquellen erforderlich.Suitable visual components (lenses, semi-transparent mirrors) of high quality are required for visualization, which enable a sharply focused, enlarged image of the image source. Various systems come into consideration as image sources; however, cathode ray tubes or LCD screens are most commonly used. High resolution and luminance, high color saturation and high contrast as well as small dimensions of the image source are desirable. Two such image sources are required to visualize three-dimensional objects.
Die Verfolgung von Kopfbewegungen ist ein wichtiger Bestandteil von VR-Applikationen. Üblicherweiser werden Position und Orientierung des Kopfes im Raum ermittelt, fortgeschrittene Systeme können außerdem die Blickrichtung verfolgen. Die meisten Systeme setzen dazu entweder Ultraschall, magnetische oder Lichtenergie zur Kommunikation zwischen den am Kopf angebrachten Sendern und den Empfängern ein. Wichtige technische Daten, die bei der Auswahl dieser Systeme eine Rolle spielen, sind:Tracking head movements is an important part of VR applications. Usually the position and orientation of the head in the room are determined, advanced systems can also follow the direction of the gaze. Most systems use either ultrasound, magnetic or light energy to communicate between the head-mounted transmitters and the receivers. Important technical data that play a role in the selection of these systems are:
• die Anzahl der Freiheitsgrade für die Bewegungsrichtungen, welche registriert und verfolgt werden können,The number of degrees of freedom for the directions of movement which can be registered and tracked,
• der erfassbare Winkelbereich,The detectable angular range,
• die statische Genauigkeit (Erschütterungsempfindlichkeit) ,• the static accuracy (vibration sensitivity),
• das Auflösungsvermögen, • die Zuverlässigkeit,• the resolving power, • the reliability,
• der Datendurchsatz und die Bildschirm-Abtastfrequenz,The data throughput and the screen sampling frequency,
• die Schnittstelle zum Computer sowie• the interface to the computer as well
• weitere Performanzaspekte . VR-Applikationen lassen sich in einer Reihe von unterschiedlichen Bereichen in der Praxis erfolgreich anwenden. Im Folgenden werden einige Anwendungsmöglichkeiten beispielhaft skizziert.• further performance aspects. VR applications can be successfully used in practice in a number of different areas. Some possible applications are outlined below as examples.
• Entwicklung virtueller Prototypen, zum Beispiel in der Automobilindustrie: Wegen der zunehmenden Komplexität der zu entwickelnden Bauteile und immer kürzer werdenden Entwicklungszyklen ist es sinnvoll, Planung und Design mit Unter- Stützung von Computern zu betreiben. Es lassen sich eine höhere Innovationsrate, kürzere Entwicklungszyklen und eine bessere Koordination des in einem Team vorhandenen Wissens erreichen, wenn mehrere Personen parallel das Produkt in einer virtuellen Umgebung planen und designen. Durch den Einsatz virtueller Realitäten lassen sich auch komplexe dreidimensionale Gebilde leicht spezifizieren. Die Brauchbarkeit virtueller Prototypen kann anschließend von verschiedenen Benutzern evaluiert werden.• Development of virtual prototypes, for example in the automotive industry: Because of the increasing complexity of the components to be developed and the ever shorter development cycles, it makes sense to carry out planning and design with the support of computers. A higher innovation rate, shorter development cycles and better coordination of the knowledge available in a team can be achieved if several people plan and design the product in parallel in a virtual environment. By using virtual realities, even complex three-dimensional structures can be easily specified. The usability of virtual prototypes can then be evaluated by different users.
• Einsatz im Ausbildungsbereich: Durch das Erlernen des Um- gangs mit (virtuellen) Objekten, interaktive Demonstrationen, Visualisierung abstrakter Konzepte, virtuelles Training des Verhaltens in gefährlichen Situationen, virtuelle Erforschung entfernter Orte oder Epochen können Wissen vermittelt, kreative Fertigkeiten geschult und Verhaltens- muster trainiert werden.• Use in the training area: By learning to deal with (virtual) objects, interactive demonstrations, visualization of abstract concepts, virtual training in behavior in dangerous situations, virtual research into distant places or epochs, knowledge can be imparted, creative skills trained and behavior patterns be trained.
• Fahr- und Flugtraining in entsprechenden Simulatoren: Durch den Einsatz von Simulatoren kann das Verhalten insbesondere in Notsituationen geschult werden• Driving and flight training in appropriate simulators: By using simulators, behavior can be trained, especially in emergency situations
Die heute verfügbaren Technologien zur Eingabe von Information in ein datenverarbeitendes System lassen sich nach den verwendeten Sensoren in vier Gruppen einteilen: mechanische (z.B. Tastaturen, Mäuse, Trackballs und Joysticks), elektrische (z.B. taktile Displays und Grafiktabletts), optische (z.B. Lichtgriffel) und akustische (z.B. Spracheingabe- und Sprachinterpretationssysteme) . Im Folgenden soll auf die nach dem heutigen Stand der Technik gebräuchlichen Hilfsmittel zur Eingabe von Information, die zur Steuerung von Objekten im Bereich von VR-Applikationen eingesetzt werden, kurz einge- gangen werden.The technologies available today for entering information into a data processing system can be divided into four groups according to the sensors used: mechanical (e.g. keyboards, mice, trackballs and joysticks), electrical (e.g. tactile displays and graphics tablets), optical (e.g. light pens) and acoustic (e.g. voice input and Language interpretation systems). In the following, the aids for inputting information which are used according to the current state of the art and which are used for controlling objects in the area of VR applications will be briefly discussed.
Sowohl Tastaturen, Mäuse, Trackballs als auch Joysticks benötigen eine Ablagefläche, also einen festen Standplatz. Mit einem Touchscreen dagegen ist es möglich, direkt auf Objekte, die auf dem Bildschirm abgebildet sind, mit dem Finger zu zeigen, ohne weitere platzraubende Zusatzgeräte auf dem Schreibtisch zu benötigen. Niedrig auflösende Touchscreens weisen 10 bis 50 Positionen in waagerechter und senkrechter Richtung auf und benutzen eine horizontale und vertikale Reihe von Infrarot-Leuchtdioden und Fotosensoren, um ein Gitter von unsichtbaren Lichtstrahlen unmittelbar vor dem Bildschirm aufzubauen. Bei einer Berührung des Bildschirms -werden sowohl vertikale als auch horizontale Lichtstrahlen unterbrochen. Aus dieser Information kann die aktuelle Fingerposition ermittelt werden.Keyboards, mice, trackballs as well as joysticks need a storage space, i.e. a fixed position. With a touchscreen, on the other hand, it is possible to point directly at objects depicted on the screen without the need for additional space-consuming additional devices on the desk. Low-resolution touchscreens have 10 to 50 positions in the horizontal and vertical directions and use a horizontal and vertical row of infrared LEDs and photo sensors to build up a grid of invisible light rays right in front of the screen. When the screen is touched, both vertical and horizontal light beams are interrupted. The current finger position can be determined from this information.
Eine andere bekannte Ausführungsform berührungssensitiver Informationseingabegeräte ist das kapazitiv gekoppelte Touch- Panel. Dieses liefert eine Auflösung von ca. 100 Positionen in jeder Richtung. Wenn ein Benutzer die leitfähig beschichtete Glasplatte des Touchscreens mit einem Finger berührt, kann aufgrund der Impedanzänderung die aktuelle Fingerposition ermittelt werden. Andere hochauflösende Panels verwenden zwei minimal voneinander entfernte, transparente Schichten. Eine davon ist leitfähig beschichtet, die andere mit einem Widerstandsmaterial beschichtet. Durch den Anpressdruck des Fingers berühren sich diese beiden Lagen, und durch Messung des daraus resultierenden Spannungsabfalls kann dann die aktuelle Fingerposition ermittelt werden. Eine niedriger auflö- sende und billigere Variante dieser Technologie verwendet anstelle dieser Schichten ein Gitter von feinen Drähten.Another known embodiment of touch-sensitive information input devices is the capacitively coupled touch panel. This provides a resolution of approximately 100 positions in each direction. If a user touches the conductive coated glass plate of the touchscreen with a finger, the current finger position can be determined based on the change in impedance. Other high-resolution panels use two minimally spaced, transparent layers. One is coated with a conductive material, the other with a resistance material. These two layers touch through the pressure of the finger, and the current finger position can then be determined by measuring the resulting voltage drop. A lower resolution Send and cheaper variant of this technology uses a grid of fine wires instead of these layers.
C. Unzulänglichkeiten, Auswirkungen und Nachteile der bekann- ten LösungC. Inadequacies, effects and disadvantages of the known solution
Die derzeit verwendeten Systeme zur Darstellung und Steuerung von Objekten in virtuellen Umgebungen berücksichtigen zwar in zunehmendem Maße die Fähigkeiten des Menschen zur Aufnahme und Verarbeitung von Information, jedoch weisen sie einen entscheidenden Nachteil auf: Bei der Eingabe von Steuerbefehlen zur direkten Beeinflussung der dargestellten Szene ist der Benutzer nach wie vor auf herkömmliche Methoden zur manuellen Eingabe von Information angewiesen, wie zum Beispiel über Maus, Trackball, Joystick, Grafiktablett mit Griffel, Touchscreen. Die hierbei notwendigen Eingabemechanismen müssen vom Benutzer erst erlernt werden, um auch in einer angemessenen Reaktionsgeschwindigkeit ausgeführt werden zu können. Dagegen werden die angeborenen bzw. bereits vorhandenen erlernten Fähigkeiten des Menschen zur Kommunikation mittels akustischen Signalen (z.B. Sprache) bzw. optischen Signalen (z.B. Mimik, Gestik, Gebärden und Bewegungen) bei der Eingabe von Information zur Steuerung von Objekten nur unzureichend berücksichtigt .The systems currently used to display and control objects in virtual environments increasingly take into account the ability of humans to record and process information, but they have one major disadvantage: when entering control commands for directly influencing the displayed scene, this is Users still rely on conventional methods for manually entering information, such as using a mouse, trackball, joystick, graphics tablet with stylus, touchscreen. The input mechanisms required for this must first be learned by the user in order to be able to be carried out at an appropriate reaction speed. On the other hand, the innate or already existing learned human skills for communication by means of acoustic signals (e.g. speech) or optical signals (e.g. facial expressions, gestures, gestures and movements) are only insufficiently taken into account when entering information for controlling objects.
Die Manipulation der Eigenschaften und Beeinflussung der Aktionen von Objekten einer dargestellten Szene setzt ein kompliziertes Zusammenspiel von Sensorik, kognitiver Verarbeitung und Motorik voraus, auf das viele Faktoren einwirken (individuelle Verhaltensmuster und Fähigkeiten, Erfahrungen, Umwelteinflüsse etc.). Bei Interaktionen in einer virtuellen Welt kommen noch zusätzliche Schwierigkeiten hinzu. Zur Steuerung, Manipulation bzw. Beeinflussung von Objekten ist insbesondere eine reflexartige bzw. kognitive sensorisch-motori- sehe Rückkopplung wichtig, die beispielsweise von Rezeptoren in der Haut, kinästhetischen Empfindungen, dem Gleichgewichtssinn sowie visuellen und/oder akustischen Empfindungen stammt. Dabei ergibt sich in vielen Fällen eine notwendige Redundanz, die bei VR-Applikationen nicht immer gegeben ist. Aufgrund der unzureichenden sensorischen Rückkopplung bei VR- Applikationen wird zudem das Erlernen motorischer Fertigkeiten erschwert.Manipulating the properties and influencing the actions of objects in a depicted scene requires a complex interplay of sensors, cognitive processing and motor skills, which are influenced by many factors (individual behavior patterns and skills, experience, environmental influences, etc.). Interactions in a virtual world pose additional difficulties. For the control, manipulation or influencing of objects, a reflex-like or cognitive sensor-motor-related feedback is particularly important, for example that of receptors in the skin, kinesthetic sensations, the sense of balance as well as visual and / or acoustic sensations. In many cases this results in redundancy, which is not always the case with VR applications. Due to the insufficient sensory feedback in VR applications, learning motor skills is also made more difficult.
D. Durch die Erfindung zu lösende spezielle AufgabeD. Special task to be solved by the invention
Ein ideales Medium zur Kommunikation zwischen einem Benutzer und einem Informationssystem sollte sowohl auf die sensorischen und perzeptuellen als auch auf die motorischen Fähigkeiten sowie auf die spezifischen Eigenschaften des menschli- chen Benutzers abgestimmt sein. Dabei sollte die Information so strukturiert sein, dass eine optimale Übereinstimmung zwischen der Repräsentation der ausgegebenen Information und dem mentalen Modell des Benutzers erzielt wird: Werden die dem Benutzer anzuzeigenden Informationen in einer Weise dargebo- ten, dass zum Beispiel sein räumliches Wahrnehmungsvermögen angesprochen wird, kann der Benutzer mit erstaunlich komplexen Informationsmengen pro Zeiteinheit umgehen. Ebenso sollte das Informationssystem in der Lage sein, möglichst viele Arten der von einem Benutzer abgesetzten Information aufzuneh- men, zu verstehen und zu verarbeiten und in entsprechende Aktionen umzusetzen. Damit ist der Vorteil verbunden, dass der Benutzer effizienter und schneller auf neue Ereignisse und Situationen reagieren kann. Benutzerfreundlichkeit und Aufga- benangemessenheit sind somit typische Merkmale, über die ein ideales Medium verfügt. Diese Merkmale können sich wie folgt äußern:An ideal medium for communication between a user and an information system should be tailored to the sensory and perceptual as well as the motor skills as well as to the specific properties of the human user. The information should be structured in such a way that an optimal match between the representation of the information output and the mental model of the user is achieved: If the information to be displayed to the user is presented in such a way that, for example, his spatial perception is addressed users deal with amazingly complex amounts of information per unit of time. Likewise, the information system should be able to record, understand and process as many types of information sent by a user as possible and convert them into corresponding actions. This has the advantage that the user can react more efficiently and quickly to new events and situations. Ease of use and appropriateness of tasks are therefore typical features that an ideal medium has. These characteristics can be expressed as follows:
• Übereinstimmung zwischen Art, Umfang und Ausgabegeschwindigkeit und Präsentation der ausgegebenen Information mit den sensorischen Eigenschaften des menschlichen Benutzers, • Berücksichtigung aller Informationskanäle des Benutzers bei der Aufnahme, Erkennung und Interpretation empfangener Steuersignale des Benutzers,• Correspondence between type, scope and output speed and presentation of the information output with the sensory properties of the human user, Consideration of all information channels of the user when recording, recognizing and interpreting received control signals of the user,
• leichte Erlernbarkeit und intuitive Bedienbarkeit des Me- diums,• easy to learn and intuitive operability of the medium,
• hohe Bandbreite der Informationsübermittlung zum Gehirn und hoher Durchsatz der Information,• high bandwidth of information transfer to the brain and high throughput of information,
• dynamische Adaption der Applikation an die individuellen Eigenschaften, Fähigkeiten, Aufgaben, Arbeits- und Organi- sationstechniken des Benutzers,• dynamic adaptation of the application to the individual properties, skills, tasks, work and organization techniques of the user,
• Verwendung einer natürlichen Interaktionssprache mit hohem semantischem Inhalt,• use of a natural interaction language with high semantic content,
• Zuverlässigkeit, Robustheit und Wartbarkeit des Mediums,• reliability, robustness and maintainability of the medium,
• soziale Akzeptanz des Mediums in der Bevölkerung, • Berücksichtigung gesundheitlicher, ergonomischer und sicherheitsrelevanter Aspekte etc.• social acceptance of the medium in the population, • consideration of health, ergonomic and safety-related aspects etc.
Der vorgelegten Erfindung liegt die Aufgabe zugrunde, die bestehende Situation mit technischen Mitteln zu verbessern. Da- her widmet sich die Erfindung vorrangig der Aufgabe, komfortable und zuverlässig arbeitende Verfahren bereitzustellen, mit deren Hilfe dem Anwender eine aktive Steuerung virtueller Objekte ermöglicht wird, wobei die bereits vorhandenen Fertigkeiten des Benutzers zur Aussendung von Information ge- nutzt werden. Diese Aufgabe wird durch ein Verfahren mit Merkmalen nach Patentanspruch 1 gelöst.The object of the present invention is to improve the existing situation using technical means. The invention is therefore primarily devoted to the task of providing comfortable and reliable methods by means of which the user is able to actively control virtual objects, the existing skills of the user being used to transmit information. This object is achieved by a method with features according to claim 1.
E. Erfindungsgemäße Lösung der speziellen Aufgabe gemäß den Patentansprüchen und Vorteile dieser LösungE. Solution according to the invention for the special task according to the claims and advantages of this solution
Zu Patentanspruch 1 : Der Benutzer soll in die Lage versetzt werden können, mitRegarding claim 1: The user should be able to be enabled with
Hilfe geeigneter Interaktionsmöglichkeiten die Eigenschaften und/oder Aktionen der dargestellten Objekte im Sichtfeld 203 zu manipulieren bzw. zu beeinflussen. Zu diesem Zweck sind zusätzliche hardwaretechnische Hilfsmittel zur manuellen Eingabe von Steuerbefehlen (z.B. via Tastatur, Maus, Trackball, Joystick oder Touchscreen) nicht unbedingt erforderlich. Die vorliegende Erfindung greift deshalb zur Erfassung und Verarbeitung vom Benutzer in Form von Signalen ausgesendeter In- formation auf Methoden der Signal- bzw. Mustererkennung zurück. Erst durch diesen erfinderischen Schritt wird aus einem reinen Ausgabe-Sichtfeld ein interaktiv bedienbares Ein- und Ausgabe-Sichtfeld 203, das an die Fähigkeiten des Benutzers angepasst ist. Bei den durch den Benutzer manipulierbaren Ei- genschaften von Objekten einer dargestellten Szene 204 kann es sich beispielsweise um Merkmale wie Ortsvektor, Lage, Ausmaße, Betrachtungsperspektive, geometrische Form, Struktur, Kontur bzw. Textur der Objekte handeln. Vorstellbar sind aber auch Interaktionsmöglichkeiten, mit denen die Art der Dar- Stellung der Objekte verändert wird, wie beispielsweise Farbe bzw. Musterung, Helligkeit, Kontrastwirkung gegenüber dem Hintergrund, Glanzeffekte, Spiegelungen und Reflexionen, Schattierung etc. Bei den durch den Benutzer beeinflussbaren Aktionen von Objekten der dargestellten Szene kann es sich etwa um die Bewegung der Objekte handeln. Die Bewegung der Objekte kann dabei Translations- und/oder Rotationsanteile beinhalten, wobei die kinematischen Daten der Objekte, wie zum Beispiel Betrag und/oder Richtung seines Geschwindig- keits- bzw. Beschleunigungsvektors bzw. seines Winkel- geschwindigkeits- bzw. Winkelbeschleunigungsvektors, individuell gemäß den Steuerbefehlen des Benutzers verändert werden können .Using suitable interaction options to manipulate or influence the properties and / or actions of the objects shown in the field of view 203. For this purpose, additional hardware technology aids for manual entry of control commands (e.g. via keyboard, mouse, trackball, joystick or touchscreen) are not absolutely necessary. The present invention therefore uses methods of signal or pattern recognition for the detection and processing by the user in the form of signals transmitted by signals. Only through this inventive step does a pure output field of view become an interactively operable input and output field of view 203 that is adapted to the capabilities of the user. The properties of objects of a depicted scene 204 that can be manipulated by the user can be, for example, features such as location vector, position, dimensions, viewing perspective, geometric shape, structure, contour or texture of the objects. Interaction options are also conceivable, with which the type of representation of the objects is changed, such as color or pattern, brightness, contrast effect against the background, gloss effects, reflections and reflections, shading, etc. With the actions of Objects of the depicted scene can be about the movement of the objects. The movement of the objects can include translation and / or rotation components, the kinematic data of the objects, such as the magnitude and / or direction of its speed or acceleration vector or its angular velocity or angular acceleration vector, individually according to the control commands of the user can be changed.
Zu Patentanspruch 2 : Die Registrierung der interaktiven Steuerbefehle des Benutzers kann dabei mit Hilfe von Sensoren 502 und/oder Aufnahmegeräten 501 erfolgen. Nach der Datenerfassung können die er- fassten Eingabe-Daten einer Auswerte- und Steuerungsvorrich- tung 503 zugeführt werden, als Steuerbefehle interpretiert und verarbeitet werden. Um die Möglichkeit einer Fehlinterpretation von ausgesendeten Signalen eines Benutzers durch das Datenverarbeitungssystem möglichst gering zu halten und damit die Zuverlässigkeit des Systems zu erhöhen, muss das System an die gewohnten Eigenschaften des Benutzers angepasst werden. Aus diesem Grund müssen dem System alle möglichen Eingabesignale eines individuellen Befehlssatzes des betreffenden Benutzers in einer Trainingsphase mehrfach wiederholt "beigebracht" werden. Entsprechend dieser vom System als Steuerbefehle interpretierten Signale ist es möglich, die Objekte einer dargestellten Szene zu manipulieren bzw. zu beeinflussen oder/und eine Aktion auszulösen. Die auf diese Weise manipulierten bzw. beeinflussten Objekte oder/und die damit ausgelösten Aktionen können auf einem Sichtfeld 203 dem Benutzer grafisch visualisiert bzw. akustisch und/oder optisch angezeigt werden. Dadurch ist ein Rückkopplungskreis zwischen Ausgabe- und Eingabedaten gegeben, mit dessen Hilfe die Reaktion auf Änderungen von Objekten einer dargestellten Szene 204 nahezu in Echtzeit ermöglicht werden kann.Regarding claim 2: The interactive control commands of the user can be registered with the aid of sensors 502 and / or recording devices 501. After the data acquisition, the acquired input data can be fed to an evaluation and control device 503, can be interpreted and processed as control commands. In order to keep the possibility of misinterpretation of transmitted signals from a user by the data processing system as low as possible and thus to increase the reliability of the system, the system must be adapted to the usual properties of the user. For this reason, the system must be repeatedly "taught" all possible input signals of an individual command set of the user concerned in a training phase. According to these signals interpreted by the system as control commands, it is possible to manipulate or influence the objects of a depicted scene and / or to trigger an action. The objects manipulated or influenced in this way and / or the actions triggered thereby can be graphically visualized or acoustically and / or optically displayed to the user on a field of view 203. This provides a feedback loop between output and input data, with the aid of which the reaction to changes in objects of a depicted scene 204 can be made possible in almost real time.
Zu Patentanspruch 3 :Regarding claim 3:
Bei den im Rahmen dieses Verfahrens steuerbaren Objekten kann es sich beispielsweise um real existierende Objekte in einer realen Umgebung handeln. Ein typisches Anwendungsbeispiel ist etwa die Funkfernsteuerung eines Roboters zur Durchführung gefährlicher Arbeiten an schwer zugänglichen und/oder entfernten Orten, zum Beispiel zur Erledigung von Reparaturarbeiten in Kanalisationsrohren, zur Untersuchung radioaktiver Substanzen in hermetisch abgeschotteten Hochsicherheitsräumen oder zur Datengewinnung und -Übermittlung bei unbemannten Weltraummissionen. Ein anderes typisches Anwendungsbeispiel ist die Möglichkeit der Fernsteuerung von Arbeits- und/oderThe objects that can be controlled in the context of this method can, for example, be real existing objects in a real environment. A typical application example is the radio remote control of a robot to carry out dangerous work in difficult to access and / or distant places, for example to carry out repair work in sewer pipes, to investigate radioactive substances in hermetically sealed high-security rooms or to collect and transmit data for unmanned people Space missions. Another typical application example is the possibility of remote control of work and / or
Haushaltsgeräten mittels nicht-manueller Eingabeverfahren für körper- oder/und manuell behinderte Menschen. Die Art des Eingabeverfahrens kann dabei auf die individuell vorhandenenHousehold appliances using non-manual input procedures for physically and / or manually disabled people. The type of input procedure can be based on the individually available
Fähigkeiten des Benutzers zugeschnitten sein.Ability of the user to be tailored.
Zu Patentanspruch 4 :Regarding claim 4:
Vorstellbar sind aber auch Ausführungsbeipiele dieser Erfin- düng, bei denen die zu steuernden Objekte nicht real existierende Objekte in einer virtuellen Umgebung eines computergesteuerten Modells sind. Vor allem im Ausbildungsbereich erscheint der Einsatz von Systemen zur interaktiven Steuerung virtueller Objekte sinnvoll: Durch das Erlernen des Umgangs mit virtuellen Objekten, interaktive Demonstrationen, Visualisierung abstrakter Konzepte, virtuelles Training des Verhaltens in gefährlichen Situationen, virtuelle Erforschung entfernter Orte oder Epochen können Wissen vermittelt, kreative Fertigkeiten geschult und Verhaltensmuster trainiert werden. Typische Einsatzgebiete sind beispielsweise Flugsimulatoren, mit deren Hilfe kritische Situationen im Flugverkehr (Triebwerksausfälle, Strömungsabrisse, Notlandungen auf dem Wasser und auf dem Land etc.) von auszubildenden Piloten trainiert werden und Lernfortschritte quantitativ beurteilt werden können.However, exemplary embodiments of this invention are also conceivable in which the objects to be controlled are objects that do not actually exist in a virtual environment of a computer-controlled model. The use of systems for interactive control of virtual objects seems to make sense, especially in the training area: by learning how to deal with virtual objects, interactive demonstrations, visualizing abstract concepts, virtual training in behavior in dangerous situations, virtual exploration of distant places or epochs, knowledge can be imparted, creative skills are trained and behavioral patterns are trained. Typical areas of application are, for example, flight simulators, with the help of which critical situations in air traffic (engine failures, stalling, emergency landings on the water and on land, etc.) can be trained by trained pilots and learning progress can be assessed quantitatively.
Zu Patentanspruch 5:Regarding claim 5:
Eine natürliche Form der Interaktion von Mensch und Maschine sowie der Eingabe von Information in ein informationsverar- beitendes System ist die der natürlichsprachlichen Kommunikation. Aus diesem Grund bietet sich diese Form der Eingabe für Ausführungsbeispiele der vorliegenden Erfindung an. Die bisher und in absehbarer Zeit verwendeten Spracheingabesysteme machen jedoch nur in einem eingeschränkten Umfang von der na- türlichsprachlichen Kommunikation Gebrauch, indem nur Wörter eines vom Hersteller fest vorgegeben Basisvokabulars geringenA natural form of human-machine interaction and the input of information into an information processing system is that of natural language communication. For this reason, this form of input lends itself to exemplary embodiments of the present invention. However, the speech input systems used hitherto and in the foreseeable future make only limited use of natural language communication, by using only words a basic vocabulary fixed by the manufacturer
Umfangs zuzüglich eines benutzerspezifischen Fachvokabulars (in der Regel einige hundert bis tausend Wörter) oder auch Zusammensetzungen dieser Wörter zugelassen werden. Zur Erhö- hung der Erkennungsrate muss ein Anwender sowohl das Basisvokabular als auch sein benutzerspezifisches Fachvokabular dem System in einer Trainingsphase mehrfach wiederholt vorsprechen, damit sich das System auf die Stimme des Benutzers und etwaige Abweichungen vom Normalzustand der Stimme, zum Bei- spiel infolge Erkältung oder Heiserkeit des Benutzers, einstellen kann. Bei einer Ausführungsform spracherkennender Systeme werden während dieser Trainingsphase vom System statistische Modelle (in der Regel "Hidden-Markov-Modelle" ) generiert, mit deren Hilfe beispielsweise der Abfolge einzelner Phoneme bzw. Silben der trainierten Wörter Wahrscheinlichkeitsdichtefunktionen zugeordnet werden, so dass neu vorgesprochene Wörter mit einer vorhersagbaren Wahrscheinlichkeit als richtig bzw. falsch erkannt werden.Scope plus a user-specific technical vocabulary (usually a few hundred to a thousand words) or combinations of these words are allowed. In order to increase the recognition rate, a user has to repeat the basic vocabulary as well as his user-specific technical vocabulary repeatedly in a training phase so that the system responds to the user's voice and any deviations from the normal state of the voice, for example as a result of a cold or Hoarseness of the user can adjust. In one embodiment of speech recognition systems, statistical models (usually “hidden Markov models”) are generated by the system during this training phase, with the aid of which, for example, the sequence of individual phonemes or syllables of the words being trained are assigned probability density functions, so that newly spoken words are identified as correct or incorrect with a predictable probability.
Zu Patentanspruch 6:Regarding claim 6:
Bei der Vorrichtung 503 zur Erkennung und Interpretation der Steuerbefehle des Benutzers kann es sich beispielsweise um ein automatisches Erkennungssystem für akustische Signale handeln, speziell für Sprachsignale. Die meisten der heute eingesetzten automatischen Spracherkennungssysteme sind zum Beispiel wort-, silben- oder phonembasierte Systeme, die nur für kontextunabhängige Spracherkennung konzipiert sind. Das bedeutet, dass die aus Wörtern eines trainierten Vokabulars bestehenden Sprachkommandos dem System derzeit mit ausrei- chend großen Sprechpausen ("diskret") vorgesprochen werden müssen, um für den Benutzer akzeptable Worterkennungsraten im Bereich von ca. 90% bis 95% zu erzielen. Handelsübliche polyphonbasierte Prototypen kontextabhängiger Spracherkennungssysteme für fließend (""kontinuierlich") gesprochene Sprache erreichen heute schon Worterkennungsraten von ca. 95% bis 98%. Allerdings ist die Rechenleistung des Systems für kontinuierliche kontextabhängige Spracherkennung so groß, dass sie auch auf den derzeitigen Hochleistungsrechnern nicht mehr in Echtzeit durchgeführt werden kann.The device 503 for recognizing and interpreting the control commands of the user can be, for example, an automatic recognition system for acoustic signals, especially for speech signals. Most of the automatic speech recognition systems used today are, for example, word, syllable or phoneme-based systems that are only designed for context-independent speech recognition. This means that the voice commands consisting of words from a trained vocabulary currently have to be spoken to the system with sufficiently long pauses ("discreet") in order to achieve acceptable word recognition rates in the range of approx. 90% to 95% for the user. Commercial polyphonic-based prototypes of context-dependent speech recognition systems for fluently ("" continuously ") spoken language already achieve word recognition rates of approx. 95% to 98%. However, the computing power of the system for continuous context-dependent speech recognition is so great that it can no longer be carried out in real time on current high-performance computers.
Zu Patentanspruch 7 :Regarding claim 7:
Eine weitere Form der Mensch-Maschine-Kommunikation, welche den Eigenschaften und Fertigkeiten des Benutzers entgegenkommt, ist die der Auswertung von optischen Signalen, wie etwa Körper-, Kopf-, Gesichts-, Bein-, Fuß-, Arm-, Hand- und/oder Fingerbewegungen, also Gebärden, Gestik und/oder Mimik. Die weitverbreiteten Fähigkeiten des Menschen, Informationen durch die Position, Raumrichtung und Bewegung von Körperteilen zu kodieren, stellt heute noch eine große Heraus- forderung für die Gestaltung von Eingabeverfahren für die Mensch-Maschine-Kommunikation dar .Another form of human-machine communication, which accommodates the properties and skills of the user, is the evaluation of optical signals, such as body, head, face, leg, foot, arm, hand and / or finger movements, i.e. gestures, gestures and / or facial expressions. The widespread ability of humans to encode information through the position, spatial direction and movement of body parts still poses a major challenge for the design of input methods for human-machine communication.
Zu Patentanspruch 8 :Regarding claim 8:
Zum Empfang von optischen Signalen des Benutzers können Sen- soren 202 und/oder Aufnahmegeräte 201 verwendet werden. Konkret kann es sich dabei um optische bzw. akustische Abstands- sensoren und/oder Videokameras handeln. Der Abstandssensor kann über eine Ultraschall- bzw. hochfrequente Strahlungsquelle verfügen sowie einem Detektor und Vorrichtungen, die den Schall bzw. die Strahlung auf das Messobjekt bündeln und die vom Messobjekt reflektierten Schall- bzw. Lichtwellen auf dem Detektor sammeln. Dabei kann ein Teil des Umgebungs- schalls bzw. der UmgebungsStrahlung mit Hilfe von Filtern abgeblockt werden. Damit das Sensorsystem unabhängig von den Umgebungsbedingungen zuverlässig funktioniert, kann eine Kompression, Kodierung und Modulation der von der Signalquelle ausgesendeten Signale und eine geeignete Signalverarbeitung auf der Detektorseite zur Demodulation, Dekodierung und De- kompression der empfangenen Signale vorgesehen sein. Zu Patentanspruch 9:Sensors 202 and / or recording devices 201 can be used to receive optical signals from the user. Specifically, these can be optical or acoustic distance sensors and / or video cameras. The distance sensor can have an ultrasound or high-frequency radiation source as well as a detector and devices that focus the sound or radiation on the measurement object and collect the sound or light waves reflected by the measurement object on the detector. Part of the ambient sound or the ambient radiation can be blocked with the help of filters. So that the sensor system functions reliably regardless of the ambient conditions, compression, coding and modulation of the signals emitted by the signal source and suitable signal processing on the detector side for demodulation, decoding and decompression of the received signals can be provided. Regarding claim 9:
Bei der Vorrichtung 503 zur Interpretation von interaktivenIn device 503 for interpreting interactive
Steuerbefehlen eines Benutzers kann es sich beispielsweise auch um ein automatisches ErkennungsSystem für Bewegungssig- nale handeln, wobei Methoden der Bildverarbeitung zum Einsatz gelangen können. Eine Möglichkeit ist zum Beispiel, die Lippenbewegungen des Benutzers beim Sprechen zu analysieren, um damit die Erkennungssicherheit der Spracheingabe zu erhöhen. Moderne Untersuchungen haben gezeigt, dass durch die Kombina- tion von akustischer und optischer Spracherkennung im Vergleich zur ausschließlich akustischen Spracherkennung die Wortfehlerrate bei einzelnen Sprechern um 30% bis 50% gesenkt werden kann. Andere Ausführungsformen können die Kopf- und/oder Augenbewegungen zur Informationseingabe verwenden. Hierzu ist eine Vermessung der Kopf- und/oder Blickrichtung erforderlich. Bei einem seit 1982 bekannten Eingabeverfahren, das auf einer Messung der Blickrichtung des Anwenders durch berührungslose Erfassung der Kopfbewegung beruht, erfolgt mittels eines vor einem Auge angebrachten Visiers die visu- eile Rückkopplung der Kopfposition. Weiter ist am Kopf eine kleine Lichtquelle angebracht, deren Position mit Hilfe einer Videokamera vermessen wird, so dass Kopfbewegungen um zwei Drehachsen (horizontal und vertikal) erfasst werden können. Ein anderes Eingabeverfahren, das auf der Messung der Augen- bewegungen basiert, ist seit 1987 bekannt. Dabei wird davon ausgegangen, dass die Auswahl eines auf einer optischen Anzeige dargestellten Objekts eine der häufigsten Eingabeoperationen ist und dass die visuelle Fixierung eines auszuwählenden Objekts eine normale Verhaltensweise des Menschen ist. Diese Art der Eingabe wird vor allem bei hohen Anforderungen an die Geschwindigkeit der Eingabe bzw. bei Behinderung der Hände oder Belegung durch andere Aufgaben empfohlen.Control commands from a user can also be, for example, an automatic detection system for movement signals, whereby methods of image processing can be used. One possibility, for example, is to analyze the user's lip movements when speaking in order to increase the recognition reliability of the speech input. Modern studies have shown that the combination of acoustic and optical speech recognition can reduce the word error rate for individual speakers by 30% to 50% compared to only acoustic speech recognition. Other embodiments can use the head and / or eye movements to input information. A measurement of the head and / or line of sight is required for this. In an input method known since 1982, which is based on a measurement of the user's viewing direction by contactless detection of the head movement, the head position is visually fed back by means of a visor attached in front of an eye. A small light source is also attached to the head, the position of which is measured with the help of a video camera, so that head movements around two axes of rotation (horizontal and vertical) can be recorded. Another input method based on measuring eye movements has been known since 1987. It is assumed that the selection of an object displayed on an optical display is one of the most common input operations and that the visual fixation of an object to be selected is a normal human behavior. This type of input is particularly recommended for high demands on the speed of input or if the hands are disabled or other tasks are required.
Zu Patentanspruch 10: Bei der Ausgabevorrichtung 505 zur Darstellung einer virtuellen Umgebung kann es sich beispielsweise um ein Gerät zur Erzeugung eines sogenannten "Virtual Retinal Display" (VRD) handeln, bei dem eine virtuelle Bildfläche 203 auf die Netz- haut 206 des Anwenders projiziert wird. Anstelle eines Bildschirms oder einer Anzeigevorrichtung wird lediglich eine kohärente Photonenstrahlung aussendende Lichtquelle benötigt. Dabei kann es sich um ein Gerät aus dem Arbeits- oder Freizeitbereich bzw. um eine Orthese handeln, die eine Erweite- rung des menschlichen Sehvermögens bewerkstelligt. Gegenüber realen Displays weist ein VRD folgende Vorteile auf: 1. Die Auflösung des VRD wird lediglich durch die Beugung und optische Aberration des Lichtstrahls im menschlichen Auge begrenzt, nicht aber durch die bei Bildschirmen oder realen Displays technisch realisierbare Größe eines elementarenRegarding claim 10: The output device 505 for displaying a virtual environment can be, for example, a device for generating a so-called "Virtual Retinal Display" (VRD), in which a virtual image area 203 is projected onto the retina 206 of the user. Instead of a screen or a display device, only a coherent light source emitting photon radiation is required. This can be a device from the work or leisure area or an orthosis that brings about an expansion of human eyesight. Compared to real displays, a VRD has the following advantages: 1. The resolution of the VRD is only limited by the diffraction and optical aberration of the light beam in the human eye, but not by the size of an elementary that is technically feasible for screens or real displays
Bildelements (Pixelgröße) . Aus diesem Grund können Bilder mit einer sehr hohen Auflösung generiert werden. 2. Die mit Hilfe eines VRDs erzielbare Bildhelligkeit kann durch die Intensität des ausgesendeten Lichtstrahls gesteuert werden. Bei Ver- wendung eines Lasers als Lichtquelle kann die Bildhelligkeit des VRDs groß genug eingestellt werden, um im Freien eingesetzt werden zu können. 3. VRDs können entweder in einem Modus für virtuelle Realitäten oder in einem Modus für angereicherte Realitäten ("See-Through Modus") betrieben werden. 4. Die industrielle Fertigung einer Lichtquelle zur Generierung eines VRDs ist verhältnismäßig einfach und im Vergleich mit konventionellen Bildschirmen und Anzeigevorrichtungen mit geringen Produktionskosten durchführbar. 5. Da ein Großteil des generierten Lichts auf die Netzhaut des Betrachters fokus- siert wird, arbeiten VRDs mit einem hohen Wirkungsgrad und weisen einen im Vergleich zu Bildschirmen und realen Displays geringen Leistungsverbrauch auf.Picture element (pixel size). For this reason, images can be generated with a very high resolution. 2. The image brightness that can be achieved with the help of a VRD can be controlled by the intensity of the emitted light beam. When using a laser as a light source, the image brightness of the VRD can be set high enough to be used outdoors. 3. VRDs can be operated either in a mode for virtual realities or in a mode for enriched realities ("see-through mode"). 4. The industrial production of a light source for generating a VRD is relatively simple and can be carried out with low production costs in comparison with conventional screens and display devices. 5. Since a large part of the generated light is focused on the retina of the viewer, VRDs work with a high degree of efficiency and have a low power consumption in comparison to screens and real displays.
Zu Patentanspruch 11: Die virtuelle Bildfläche 401 kann beispielsweise virtuelle eingabesensitive Referenzpunkte 404, 405, 406 und 407 und/oder -flächen 403 in einer virtuellen Bildebene vorgegebener Raumrichtung aufweisen. Dies können ebene Flächen mit vorgegebenem Flächeninhalt sein. Die Raumrichtung der virtuellen Bildebene kann vorzugsweise senkrecht zur Blickrichtung orientiert sein, also dergestalt, dass der Normalenvektor n der virtuellen Bildebene parallel bzw. antiparallel zum Blickrichtungsvektor b liegt. Eingaben werden jeweils dann ausgelöst, wenn ein reales Objekt (ein Gegenstand oder ein Körperteil des Benutzers) die Ebene des virtuellen Displays an einer solchen eingabesensitiven Fläche 205 berührt bzw. die Fläche in einem beliebigen Eintrittswinkel schneidet. Mit Hilfe von Methoden der Mustererkennung kann es ermöglicht werden, eine beabsichtigte Eingabe von einer unbeabsichtigten Eingabe zu unterscheiden. Dabei könnte beispielsweise der Zeigefinger der rechten Hand eines Benutzers als einziges Eingabemedium erkannt werden. Eine Interaktion wird in diesem Fall nur dann zugelassen, wenn dieser Finger eine eingabesen- sitive Fläche in einer virtuellen Bildebene schneidet bzw. berührt .Regarding claim 11: The virtual image surface 401 can have, for example, virtual input-sensitive reference points 404, 405, 406 and 407 and / or surfaces 403 in a virtual image plane of a predetermined spatial direction. These can be flat surfaces with a given area. The spatial direction of the virtual image plane can preferably be oriented perpendicular to the viewing direction, that is, such that the normal vector n of the virtual image plane is parallel or antiparallel to the viewing direction vector b. Inputs are triggered when a real object (an object or a body part of the user) touches the plane of the virtual display on such an input-sensitive surface 205 or intersects the surface at any entry angle. With the help of methods of pattern recognition it can be possible to distinguish an intended input from an unintentional input. For example, the index finger of a user's right hand could be recognized as the only input medium. In this case, interaction is only permitted if this finger intersects or touches an input-sensitive surface in a virtual image plane.
Zu Patentanspruch 12:Regarding claim 12:
Der Abstand des Lotfußpunkts der virtuellen Bildebene zum Punkt schärfster Abbildung auf der Netzhaut eines der Augen 304 des Betrachters bzw. die Begrenzung und räumliche Ausrichtung der Bildfläche 303 der virtuellen Bildebene kann durch die Erkennung von optischen Signalen des Benutzers mit Hilfe eines optischen oder akustischen Abstandssensors 502, einer Videokamera 501 sowie einer nachgeschalteten Auswerteelektronik 503 vorgenommen werden.The distance between the plumb point of the virtual image plane and the point of the sharpest image on the retina of one of the eyes 304 of the viewer or the limitation and spatial orientation of the image surface 303 of the virtual image plane can be determined by the detection of optical signals by the user with the aid of an optical or acoustic distance sensor 502 , a video camera 501 and a downstream evaluation electronics 503.
Zu Patentanspruch 13:Regarding claim 13:
Bei den optischen Anzeigevorrichtungen wird neben konventio- nellen analogen und digitalen Displays zunehmend der Bild- schirm eingesetzt, da hier die Kodierung der Information durch viele verschiedene Arten (Text, Graphik, Bild, Animation etc.) erfolgen kann. Außerdem stehen hier die Möglichkeiten der flexiblen Organisation der Information zur Verfü- gung, mit denen der erforderliche Such- und Auswahlvorgang einzelner Objekte unterstützt werden kann. Zur Darstellung räumlicher Sachverhalte können 3D-Anzeigen bzw. 3D-Brillen verwendet werden. Bei allen diesen optischen Anzeigen sind bei der Ablesung neben der dazu nötigen Aufmerksamkeit des Benutzers Bewegungen des Kopfes und/oder der Augen erforderlich. Zur Verhinderung der visuellen Ablenkung des Benutzers können, zum Beispiel bei der Flugzeug- oder Fahrzeugführung, Projektionsvorrichtungen ("Head up" -Anzeigen) verwendet werden, bei denen die abzulesende Information in den Sichtbe- reich eingeblendet wird, auf den das Auge zur Wahrnehmung der Hauptaufgabe (etwa der Flugzeug- oder Fahrzeugführung) vorzugsweise ausgerichtet ist. Eine Sonderform ist die Ausführung als helmbasierte Anzeigevorrichtung in Form eines "Head- Mounted Displays" (HMD) , bei der die Anzeigeeinheit im Helm des Benutzers befestigt ist. Herkömmliche VR-Anwendungen verwenden HMDs zur Darstellung virtueller Welten über ein Stereodisplaysystem sowie über Raumklangsysteme oder an das HMD gekoppelte Kopfhörer. Damit die dreidimensionale virtuelle Umgebung dem Betrachter auch bei Kopfbewegungen stabil er- scheint, muß die Kopfbewegung in den sechs Freiheitsgraden erfaßt und dem Display weitergegeben werden. Dies muß mit einer genügend hohen Frequenz von mindestens 70 Hz erfolgen. Zur Messung der Kopfbewegung werden bisher eine Vielzahl verschiedener Messsysteme eingesetzt. Viele sind jedoch entweder für den Betrachter unbequem oder in der Beschaffung zu teuer. Zusätzliche können akustische bzw. haptische Ausgabevorrichtungen vorhanden sein, da akustische und haptische Signale geringer Intensität keine visuelle Ablenkung des Benutzers bewirken. Allerdings sind haptische Signalgeber derzeit nur als Blindenhilfsmittel in breitem Einsatz. F. FigurenbeschreibungIn the case of the optical display devices, in addition to conventional analog and digital displays, the image screen because the information can be encoded in many different ways (text, graphics, images, animation, etc.). In addition, the options for flexible organization of the information are available, with which the required search and selection process of individual objects can be supported. 3D displays or 3D glasses can be used to display spatial facts. With all of these optical displays, in addition to the necessary attention of the user, movements of the head and / or eyes are required for the reading. To prevent the visual distraction of the user, projection devices (“head up” displays) can be used, for example in aircraft or vehicle guidance, in which the information to be read is faded into the viewing area onto which the eye perceives the Main task (such as aircraft or vehicle control) is preferably aligned. A special form is the design as a helmet-based display device in the form of a "head-mounted display" (HMD), in which the display unit is fastened in the helmet of the user. Conventional VR applications use HMDs to display virtual worlds via a stereo display system as well as via surround sound systems or headphones coupled to the HMD. In order for the three-dimensional virtual environment to appear stable to the viewer even when the head is moving, the head movement must be recorded in the six degrees of freedom and passed on to the display. This must be done with a sufficiently high frequency of at least 70 Hz. A large number of different measuring systems have been used to measure head movement. However, many are either uncomfortable for the viewer or too expensive to procure. In addition, acoustic or haptic output devices can be provided, since low-intensity acoustic and haptic signals do not cause any visual distraction for the user. However, haptic signal transmitters are currently only widely used as aids for the blind. F. Description of the figures
Im Folgenden wird die Erfindung anhand bevorzugter Ausfüh- rungsbeispiele, wie sie in den Figuren 1 bis 5 geschildert sind, näher beschrieben.The invention is described in more detail below on the basis of preferred exemplary embodiments as described in FIGS. 1 to 5.
Im Detail zeigenShow in detail
Figur 1 ein Designmuster 101, eine Prinzipdarstellung 102 sowie ein typisches Anwendungsbeispiel 103- eines "Virtual Retinal Displays" (VRD) aus der Sicht des Benutzers (Quelle: "Technologies to Watch" , Ausgabe Mai 2000) ,1 shows a design sample 101, a schematic diagram 102 and a typical application example 103 of a "Virtual Retinal Display" (VRD) from the user's perspective (source: "Technologies to Watch", May 2000 edition),
Figur 2 eine schematische Darstellung des Eingabeverfahrens über ein VRD,FIG. 2 shows a schematic representation of the input method via a VRD,
Figur 3 eine schematische Darstellung zur Erfassung des Ab- Stands der virtuellen Bildebene bei einem VRD,FIG. 3 shows a schematic illustration for recording the distance of the virtual image plane in a VRD,
Figur 4 ein Beispiel zur Erfassung der virtuellen Eckpunktkoordinaten 404, 405, 406 und 407 der Bildfläche 401 eines VRD undFIG. 4 shows an example for the acquisition of the virtual corner coordinates 404, 405, 406 and 407 of the image area 401 of a VRD and
Figur 5 einen schematischen Hardwareaufbau zur Erfassung der Eingabe und Steuerung der Ausgabe eines VRD.FIG. 5 shows a schematic hardware structure for recording the input and controlling the output of a VRD.
In Figur 1 ist ein Designmuster 101 eines Microvision-Systems zur Erzeugung eines VRDs, eine Prinzipdarstellung 102 der Funktionsweise des VRDs sowie ein typisches Anwendungsbeispiel 103 eines VRDs dargestellt. Bei dem dargestellten Anwendungsbeispiel handelt es sich um eine Spannungsmessung im Kraftfahrzeugbereich, bei der dem Anwender über ein VRD Se- riennummer, Profil, Messwerte und die gemessene Spannungs- Zeit-Kennlinie des geprüften Bauteils eingeblendet werden.FIG. 1 shows a design pattern 101 of a Microvision system for generating a VRD, a basic illustration 102 of the functioning of the VRD and a typical application example 103 of a VRD. The application example shown is a voltage measurement in the motor vehicle sector, in which the user uses a VRD Serial number, profile, measured values and the measured voltage-time characteristic of the tested component can be displayed.
In Figur 2 wird das Verfahren der Eingabe über berührungssen- sitive Schaltflächen 205 bei VRDs demonstriert. Abgebildet ist die Bildfläche 203 der virtuelle Bildebene mit den darin enthaltenen Teilbereichen für die virtuelle Ausgabefläche 204 und die virtuellen Taster bzw. Schalter 205. Werden die Eingabeflächen von einem Finger des Benutzers 207 oder einem Ge- genstand berührt bzw. in einem beliebigen Eintrittswinkel durchstoßen, wird eine Eingabe erkannt und entsprechende Aktion ausgelöst. Die Eingaben des Benutzers können mit Hilfe einer Videokamera 201 und/oder einem Abstandssensor 202 er- fasst werden.FIG. 2 demonstrates the method of input using touch-sensitive buttons 205 for VRDs. The image area 203 of the virtual image plane is shown with the partial areas contained therein for the virtual output area 204 and the virtual buttons or switches 205. If the input areas are touched by a finger of the user 207 or an object or are pierced at any entry angle, an input is recognized and the corresponding action is triggered. The inputs of the user can be recorded using a video camera 201 and / or a distance sensor 202.
Figur 3 veranschaulicht bildhaft das Verfahren zur Bestimmung des Abstands der virtuellen Bildebene zur Netzhaut eines der Augen 304 des Betrachters bei einem VRD. Durch die Position und räumliche Ausrichtung der ausgestreckten Handfläche 305 des Benutzers werden der Aufpunkt und die beiden Richtungsvektoren der virtuellen Bildebene 303 bestimmt. Zu diesem Zweck kann beispielsweise ein Ultraschall- bzw. Infrarotwellen aussendender Abstandssensor 302, eine Videokamera 301 sowie ein Verfahren zur Signal- bzw. Mustererkennung herange- zogen werden. Idealerweise wird die räumliche Orientierung der virtuellen Bildebene vom Benutzer dergestalt festgelegt, dass der Normalenvektor n der virtuellen Bildebene parallel bzw. antiparallel zum Blickrichtungsvektor b verläuft, also das Skalarprodukt der betragsnormierten Vektoren n/ | |n| |2 und b/ | |b||2 die Werte +1 bzw. -1 ergibt. Der Abstand der virtuellen Ebene zum Betrachter ergibt sich dann als der Abstand zwischen dem Lotfußpunkt, also dem Schnittpunkt zwischen virtueller Bildebene und Blickrichtungsgerade, und dem Punkt schärfster Abbildung auf der Netzhaut eines der Augen 304 des Betrachters . In Figur 4 wird gezeigt, wie die Begrenzungspunkte einer virtuellen polygonalen Bildfläche 401 eingegeben werden. In dem skizzierten Beispiel wurde über Vorgabe von vier Eckpunkten eine rechteckige Bildfläche definiert. Dabei können die kar- tesischen Koordinaten der Bildflächen-Eckpunkte 404, 405, 406 und 407 an denjenigen Raumpositionen generiert werden, an denen beispielsweise ein Finger einer Hand 408 des Benutzers oder ein Gegenstand die virtuelle Bildebene 401 berührt bzw. schneidet. Durch die Pfeile ist dabei die Bewegung des Fingers von einem Eckpunkt zum nächsten Eckpunkt der virtuellen Bildfläche angedeutet. Über die virtuellen Schalter bzw. Taster 403 können beispielsweise die Funktionen für das Einbzw. Ausschalten des auf der virtuellen Ausgabefläche 402 dargestellten Bildes, für das Umschalten zwischen mehrerenFIG. 3 illustrates the method for determining the distance of the virtual image plane from the retina of one of the viewer's eyes 304 in a VRD. The position and the two orientation vectors of the virtual image plane 303 are determined by the position and spatial orientation of the user's extended palm 305. For this purpose, for example, a distance sensor 302 emitting ultrasound or infrared waves, a video camera 301 and a method for signal or pattern recognition can be used. Ideally, the spatial orientation of the virtual image plane is determined by the user in such a way that the normal vector n of the virtual image plane runs parallel or antiparallel to the viewing direction vector b, that is to say the scalar product of the magnitude-standardized vectors n / | n | | | 2 and b / | | B || 2 gives the values +1 or -1. The distance between the virtual plane and the viewer then results as the distance between the plumb point, that is, the intersection between the virtual image plane and the line of sight, and the point of sharper imaging on the retina of one of the viewer's eyes 304. FIG. 4 shows how the boundary points of a virtual polygonal image area 401 are entered. In the sketched example, a rectangular image area was defined by specifying four corner points. The Cartesian coordinates of the image corner points 404, 405, 406 and 407 can be generated at those spatial positions at which, for example, a finger of a hand 408 of the user or an object touches or intersects the virtual image plane 401. The arrows indicate the movement of the finger from one corner point to the next corner point of the virtual image surface. Via the virtual switch or button 403, for example, the functions for the on / off. Switching off the image displayed on the virtual output surface 402 for switching between several
Informationskanälen, für die Modus-Auswaihl zur Einstellung von System- und/oder Bildparametern sowie für das Archiv zum Speichern von Ton- und/oder Bildsequenzen gesteuert werden.Information channels for which mode selection for setting system and / or image parameters as well as for the archive for storing sound and / or image sequences are controlled.
Figur 5 zeigt den Rückkopplungskreis zwischen Mensch und Maschine, der den schematischen Hardewareaufbau zur Erfassung der Eingabe und Steuerung der Ausgabe bei einem VRD enthält. Die über eine Videokamera 501 bzw. einen Abstandssensor 502 erhaltenen optischen Informationen des Benutzers werden dabei einer zentralen Steuerungseinheit 503 zugeführt, in der die Erkennung, Interpretation und Verarbeitung der Informationen erfolgt. Nach Auslösung einer entsprechenden Aktion werden die neu ermittelten bzw. berechneten Daten an die Steuerungseinheit 504 zur Steuerung des VRD weitergeleitet. Dieser übernimmt dann die Ausgabe der Text- und/oder Bilddaten über ein beispielsweise laserbetriebenes VRD 505. Nach Aufnahme und Verarbeitung dieser Ausgabedaten durch den menschlichen Benutzer 506 kann dann eine neue Reaktion des Benutzers auf den veränderten Ist-Zustand einsetzen. Die Bedeutung der in den Figuren 1 bis 5 mit Ziffern bezeichneten Symbole kann der nachfolgenden Bezugszeichenliste entnommen werden. FIG. 5 shows the feedback circuit between man and machine, which contains the schematic hardware structure for recording the input and controlling the output in a VRD. The optical information of the user obtained via a video camera 501 or a distance sensor 502 is fed to a central control unit 503, in which the information is recognized, interpreted and processed. After triggering a corresponding action, the newly determined or calculated data is forwarded to the control unit 504 for controlling the VRD. This then takes over the output of the text and / or image data via, for example, a laser-operated VRD 505. After this output data has been recorded and processed by the human user 506, a new reaction by the user to the changed actual state can then begin. The meaning of the symbols denoted by numerals in FIGS. 1 to 5 can be found in the list of reference symbols below.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
Nr. BezeichnungNo.
101 Designmuster eines Microvision-Ξystems zur Erzeugung eines "Virtual Retinal Displays" (VRD)101 Design samples of a Microvision system for creating a "Virtual Retinal Display" (VRD)
102 Prinzipdarstellung der Funktionsweise eines VRD-Systems102 Principle representation of how a VRD system works
103 Anwendungsbeispiel eines VRD-Systems aus der Sicht des Anwenders103 Application example of a VRD system from the user's perspective
201 Videokamera201 video camera
202 Optischer bzw. akustischer Abstandssensor202 Optical or acoustic distance sensor
203 Bildfläche in der virtuellen Bildebene des VRD (virtuelles Sichtfeld bzw. virtuelles Display)203 image area in the virtual image plane of the VRD (virtual field of view or virtual display)
204 Virtuelle Ausgabefläche204 Virtual output area
205 Berührungssensitive Eingabeflächen (virtuelle Tasten bzw. virtuelle Schalter)205 touch-sensitive input surfaces (virtual keys or virtual switches)
206 Z.B. rechtes Auge des Benutzers206 e.g. right eye of the user
207 Auslösung einer Eingabe über das VRD durch Berührung bzw. Durchstoßung einer berührungssensitiven Eingabefläche durch einen Finger des Benutzers207 Triggering of an input via the VRD by touching or penetrating a touch-sensitive input surface by a finger of the user
301 Videokamera301 video camera
302 Optischer bzw. akustischer Abstandssensor302 Optical or acoustic distance sensor
303 Bildfläche in der virtuellen Bildebene des VRD (virtuelles Sichtfeld bzw. virtuelles Display)303 image area in the virtual image plane of the VRD (virtual field of view or virtual display)
304 Z.B. rechtes Auge des Benutzers304 e.g. right eye of the user
305 Z.B. rechte Hand des Benutzers305 e.g. right hand of the user
401 Bildfläche in der virtuellen Bildebene des VRD (virtuelles Sichtfeld bzw. virtuelles Display)401 image area in the virtual image plane of the VRD (virtual field of view or virtual display)
402 Virtuelle Ausgabefläche402 Virtual output area
403 Berührungssensitive Eingabeflächen (virtuelle Tasten bzw. virtuelle Schalter)403 touch-sensitive input surfaces (virtual keys or virtual switches)
404 Linke obere Ecke der Bildfläche des VRD404 Upper left corner of the VRD image area
405 Rechte obere Ecke der Bildfläche des VRD405 Upper right corner of the VRD screen
406 Rechte untere Ecke der Bildfläche des VRD406 Lower right corner of the VRD image area
407 Linke untere Ecke der Bildfläche des VRD407 Lower left corner of the VRD screen
408 Z.B. rechte Hand des Benutzers408 e.g. right hand of the user
501 Videokamera501 video camera
502 Optischer bzw. akustischer Abstandssensor502 Optical or acoustic distance sensor
503 Zentrale Steuerungseinheit (CCU)503 Central control unit (CCU)
504 Steuerungseinheit zur Steuerung des VRD504 control unit for controlling the VRD
505 Steuerungseinheit für ein laserbetriebenes VRD505 control unit for a laser-powered VRD
506 Perzeption und Verarbeitung der aufgenommenen Information durch den menschlichen Benutzer und Reaktion des Benutzers auf die veränderte Sachlage 506 Perception and processing of the recorded information by the human user and reaction of the user to the changed situation

Claims

Patentansprüche claims
1. Verfahren zur visuellen Darstellung von Objekten auf min¬ destens einem Sichtfeld (203) , dadurch gekennzeichnet , dass mindestens ein dargestelltes Objekt mit Hilfe interaktiver Steuerbefehle eines Benutzers in seinen Eigenschaften und/oder Aktionen manipuliert, gesteuert bzw. beeinflusst werden und/oder die Möglichkeit einer Navigation des Benutzers in einer darge- stellten Szene (204) gegeben ist, wobei die Erfassung und Verarbeitung der vom Benutzer eingegebenen Information mit Hilfe von Methoden der Signal- bzw. Mustererkennung erfolgt und somit keine zusätzlichen manuell bedienbaren, mechanischen bzw. berührungssensitiven Hardware-Vorrich- tungen zur Eingabe von Steuerbefehlen benötigt werden.1. Process for the visual representation of objects on min ¬ least a field of view (203), characterized in that at least a displayed object manipulated using interactive control commands of a user in its properties and / or actions are controlled or influenced and / or It is possible for the user to navigate in a depicted scene (204), the detection and processing of the information entered by the user being carried out with the aid of methods of signal or pattern recognition and thus no additional manually operated, mechanical or touch-sensitive hardware -Devices for entering control commands are required.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass a) die interaktiven Steuerbefehle des Benutzers mit Hilfe von Sensoren (502) und/oder Aufnahmegeräten2. The method according to claim 1, characterized in that a) the interactive control commands of the user with the aid of sensors (502) and / or recording devices
(501) registriert werden, b) die erfassten Eingabe-Daten einer Auswerte- und Steuerungsvorrichtung (503) zugeführt und als Steuerbefehle interpretiert werden und c) die Objekte entsprechend diesen Steuerbefehlen manipuliert bzw. beeinflusst werden oder/und eine Aktion ausgelöst wird d) die manipulierten bzw. beeinflussten Objekte oder/und die ausgelöste Aktion auf einem Display (204) visua- lisiert bzw. akustisch und/oder optisch angezeigt werden. (501) are registered, b) the recorded input data are fed to an evaluation and control device (503) and interpreted as control commands, and c) the objects are manipulated or influenced according to these control commands or / and an action is triggered d) which manipulated or influenced objects and / or the triggered action are visualized or acoustically and / or optically displayed on a display (204).
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet , dass es sich bei den zu steuernden Objekten um real existierende Objekte in einer realen Umgebung handelt.3. The method according to any one of the preceding claims, characterized in that the objects to be controlled are actually existing objects in a real environment.
4. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass es sich bei den zu steuernden Objekten um nicht real existierende Objekte in einer virtuellen Umgebung eines computergesteuerten Modells han- delt.4. The method according to claim 1 or 2, characterized in that the objects to be controlled are non-real objects in a virtual environment of a computer-controlled model.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet , dass es sich bei den interaktiven Steuerbefehlen eines Benutzers um akustische Signale, wie etwa Sprachkommandos, handelt.5. The method according to any one of claims 1 to 4, characterized in that the interactive control commands of a user are acoustic signals, such as voice commands.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet , dass es sich bei der Vorrichtung (503) zur Interpretation von Steuerbefehlen um ein automa- tisches Erkennungssystem für Sprachsignale handelt.6. The method according to any one of claims 1 to 5, characterized in that the device (503) for interpreting control commands is an automatic recognition system for speech signals.
7. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet , dass es sich bei den interaktiven Steuerbefehlen eines Benutzers um optische Signale, wie etwa Körper-, Kopf-, Fuß-, Hand- und/oder Fingerbewegungen, also Gebärden, Gestik und/oder Mimik, handelt.7. The method according to any one of claims 1 to 4, characterized in that the interactive control commands of a user are optical signals, such as body, head, foot, hand and / or finger movements, ie gestures, gestures and / or facial expressions.
8. Verfahren nach einem der Ansprüche 1 bis 4 oder 7, dadurch gekennzeichnet , dass es sich bei den Sensoren (502) und/oder Aufnahmegeräten (501) zur Registrierung von optischen Signalen des Benutzers um Abstandssensoren und/oder Videokameras handelt. 8. The method according to any one of claims 1 to 4 or 7, characterized in that the sensors (502) and / or recording devices (501) for registering optical signals of the user are distance sensors and / or video cameras.
9. Verfahren nach einem der Ansprüche 1 bis 4, 7 oder 8, dadurch gekennzeichnet , dass es sich bei der Vorrichtung zur Interpretation von Steuerbefehlen um ein automatisches ErkennungsSystem für Bewegungssignale handelt.9. The method according to any one of claims 1 to 4, 7 or 8, characterized in that the device for interpreting control commands is an automatic detection system for motion signals.
10.Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet , dass es sich bei der Ausgabevorrichtung 505 zur Darstellung einer virtuellen Umgebung um ein Gerät zur Erzeugung eines sogenannten "Virtual Retinal Displays" (VRD) handelt, bei dem ein virtuelles Display (203) auf die Netzhaut des Anwenders projiziert wird.10. The method as claimed in one of claims 1 to 9, characterized in that the output device 505 for displaying a virtual environment is a device for generating a so-called "Virtual Retinal Display" (VRD), in which a virtual display (203 ) is projected onto the user's retina.
11.Verfahren nach einem der Ansprüche 1 bis 4 oder 7 bis 10, dadurch gekennzeichnet , dass Eingaben ausgelöst werden, wenn ein reales Objekt die Ebene des virtuellen Displays (401) an einer eingabesensitiven Fläche (403) schneidet bzw. berührt.11. The method according to any one of claims 1 to 4 or 7 to 10, characterized in that inputs are triggered when a real object intersects or touches the plane of the virtual display (401) on an input-sensitive surface (403).
12. erfahren nach einem der Ansprüche 1 bis 4 oder 7 bis 11, dadurch gekennzeichnet , dass die Ermittlung des Abstands zwischen der Ebene (303) des virtuellen Displays und der Netzhaut eines der Augen (304) des Benutzers bzw. die Begrenzung und räumliche Ausrichtung der Fläche (401) des virtuellen Displays durch die Erkennung von optischen Signalen des Benutzers mit Hilfe eines Abstandssensors (502) sowie einer nachgeschalteten Auswerteelektronik (503) vorgenommen wird.12. experienced according to one of claims 1 to 4 or 7 to 11, characterized in that the determination of the distance between the plane (303) of the virtual display and the retina of one of the eyes (304) of the user or the limitation and spatial orientation the surface (401) of the virtual display is carried out by the detection of optical signals of the user with the aid of a distance sensor (502) and a downstream evaluation electronics (503).
13.Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet , dass es sich bei der Ausgabevorrichtung (505) zur Darstellung einer virtuellen Umgebung um ein sogenanntes "Head-Mounted Display" (HMD) handelt. 13. The method according to any one of claims 1 to 9, characterized in that the output device (505) for displaying a virtual environment is a so-called "head-mounted display" (HMD).
PCT/DE2001/004267 2000-11-14 2001-11-14 Method for visually representing and interactively controlling virtual objects on an output visual field WO2002041069A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE2000156291 DE10056291A1 (en) 2000-11-14 2000-11-14 Visual display of objects in field of view for man-machine communication by acquiring information input by user using signal or pattern recognition
DE10056291.4 2000-11-14

Publications (1)

Publication Number Publication Date
WO2002041069A1 true WO2002041069A1 (en) 2002-05-23

Family

ID=7663184

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2001/004267 WO2002041069A1 (en) 2000-11-14 2001-11-14 Method for visually representing and interactively controlling virtual objects on an output visual field

Country Status (2)

Country Link
DE (1) DE10056291A1 (en)
WO (1) WO2002041069A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7312788B2 (en) 2003-03-11 2007-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Gesture-based input device for a user interface of a computer
EP2116966A1 (en) 2008-05-05 2009-11-11 Rheinmetall Waffe Munition GmbH System for voice-controlled, interactive support for maintenance work or similar
GB2494907A (en) * 2011-09-23 2013-03-27 Sony Corp A Head-mountable display with gesture recognition
EP2998781A1 (en) 2005-09-08 2016-03-23 Swisscom AG Communication device, system and method
WO2019020608A1 (en) * 2017-07-24 2019-01-31 Medivrse Bv Method and system for providing virtual reality experience based on ultrasound data

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10318376A1 (en) * 2003-04-14 2004-11-04 Volkswagen Ag Haptic operating device, especially for a motor vehicle, e.g. for use in the control panel, has a number of bitmap display elements each with an associated switch that when activated indicates haptically that is has switched
US20050010875A1 (en) * 2003-05-28 2005-01-13 Darty Mark Anthony Multi-focal plane user interface system and method
DE10337538A1 (en) * 2003-08-06 2005-02-24 E.G.O. Elektro-Gerätebau GmbH Apparatus and method for operating a cooking system
DE10349673B4 (en) 2003-10-24 2024-06-13 Bayerische Motoren Werke Aktiengesellschaft Device and method for data input in a motor vehicle
DE102004016329A1 (en) * 2003-11-10 2005-05-25 Siemens Ag System and method for performing and visualizing simulations in an augmented reality
DE10361341B4 (en) * 2003-12-18 2007-09-13 E.G.O. Elektro-Gerätebau GmbH Device for operating a hob
DE102004053738A1 (en) * 2004-11-06 2006-05-11 Man Roland Druckmaschinen Ag Printing press control station
EP1667423B1 (en) * 2004-12-02 2009-03-11 Swisscom Mobile AG Method and system for displaying the image of a person
DE102006032117A1 (en) * 2006-07-12 2008-01-24 Volkswagen Ag Information system for transport medium, particularly motor vehicles, has input unit and indicator with display, where input unit has device to record position of object before display with in transport medium
DE102008029736B3 (en) * 2008-06-23 2009-07-16 Abb Ag Door bell or door station for apartment station, comprises projection unit and projection surface, where projection unit comprises control unit, in which memory unit, projector and light reflection sensor are connected
DE102008043446B4 (en) * 2008-11-04 2014-07-31 BSH Bosch und Siemens Hausgeräte GmbH Domestic appliance with a display unit and method for displaying information on a display unit of a household appliance
TWI423112B (en) 2009-12-09 2014-01-11 Ind Tech Res Inst Portable virtual human-machine interaction device and method therewith
DE102011075467A1 (en) * 2011-05-06 2012-11-08 Deckel Maho Pfronten Gmbh DEVICE FOR OPERATING AN AUTOMATED MACHINE FOR HANDLING, ASSEMBLING OR MACHINING WORKPIECES
DE102012203163A1 (en) * 2012-02-29 2013-08-29 Airbus Operations Gmbh Apparatus and method for exchanging information between at least one operator and one machine
DE102013013166A1 (en) 2013-08-08 2015-02-12 Audi Ag Car with head-up display and associated gesture operation
DE102013021927A1 (en) 2013-12-20 2015-06-25 Audi Ag Method and system for operating a display device and device with a display device
DE102014222194A1 (en) * 2014-10-30 2016-05-04 Bayerische Motoren Werke Aktiengesellschaft Vehicle with three-dimensional user interface

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0679984A1 (en) * 1994-04-22 1995-11-02 Canon Kabushiki Kaisha Display apparatus
DE29519078U1 (en) * 1995-12-01 1996-01-25 Kelle Olaf Dr Device for detecting the spatial position of a human body part
WO1999050735A1 (en) * 1998-03-16 1999-10-07 Tony Paul Lindeberg Method and arrangement for controlling means for three-dimensional transfer of information by motion detection
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0679984A1 (en) * 1994-04-22 1995-11-02 Canon Kabushiki Kaisha Display apparatus
DE29519078U1 (en) * 1995-12-01 1996-01-25 Kelle Olaf Dr Device for detecting the spatial position of a human body part
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
WO1999050735A1 (en) * 1998-03-16 1999-10-07 Tony Paul Lindeberg Method and arrangement for controlling means for three-dimensional transfer of information by motion detection

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PAVLOVIC V I ET AL: "VISUAL INTERPRETATION OF HAND GESTURES FOR HUMAN-COMPUTER INTERACTION: A REVIEW", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE INC. NEW YORK, US, VOL. 19, NR. 7, PAGE(S) 677-695, ISSN: 0162-8828, XP000698168 *
SUNDAY PANDZIC I ET AL: "REAL-TIME FACIAL INTERACTION", DISPLAYS, ELSEVIER SCIENCE PUBLISHERS BV., BARKING, GB, VOL. 15, NR. 3, PAGE(S) 157-163, ISSN: 0141-9382, XP000511192 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7312788B2 (en) 2003-03-11 2007-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Gesture-based input device for a user interface of a computer
EP2998781A1 (en) 2005-09-08 2016-03-23 Swisscom AG Communication device, system and method
EP2116966A1 (en) 2008-05-05 2009-11-11 Rheinmetall Waffe Munition GmbH System for voice-controlled, interactive support for maintenance work or similar
DE102008022158A1 (en) * 2008-05-05 2009-12-03 Rheinmetall Waffe Munition Gmbh System for voice-controlled, interactive assistance during maintenance work or the like
GB2494907A (en) * 2011-09-23 2013-03-27 Sony Corp A Head-mountable display with gesture recognition
WO2019020608A1 (en) * 2017-07-24 2019-01-31 Medivrse Bv Method and system for providing virtual reality experience based on ultrasound data

Also Published As

Publication number Publication date
DE10056291A1 (en) 2002-05-23

Similar Documents

Publication Publication Date Title
WO2002041069A1 (en) Method for visually representing and interactively controlling virtual objects on an output visual field
Boman International survey: Virtual-environment research
US10529248B2 (en) Aircraft pilot training system, method and apparatus for theory, practice and evaluation
EP3143478B1 (en) Method for displaying a virtual interaction on at least one screen and input device
EP2499550A1 (en) Avatar-based virtual collaborative assistance
DE112006002954T5 (en) Virtual interface system
EP1319207A2 (en) Freely specifiable real-time control
Istance et al. Providing motor impaired users with access to standard Graphical User Interface (GUI) software via eye-based interaction
Fink et al. Expanded situational awareness without vision: a novel haptic interface for use in fully autonomous vehicles
Shree DV et al. Operating different displays in military fast jets using eye gaze tracker
DE112019002798T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
Fu et al. Research on application of cognitive-driven human-computer interaction
Alcañiz et al. Technological background of VR
Po et al. Pointing and visual feedback for spatial interaction in large-screen display environments
DE102021120629B3 (en) Method and device for controlling the movement of a virtually embodied, real-physical avatar, computer program for carrying out such a method
Elepfandt et al. Multimodal, touchless interaction in spatial augmented reality environments
US20190064920A1 (en) Controlling and configuring unit and method for controlling and configuring a microscope
RU160084U1 (en) DRIVING SIMULATOR OF VIRTUAL REALITY WITH ADDITION OF REAL OBJECTS
Bibb Determining principles for the development of mixed reality systems for command and control applications
Chernakova et al. Assistive Multimodal Interface for Medical Applications
Pölzl Investigating Users’ Mid-Air Spatial Memory
Sonnino et al. Fusion4D: 4D unencumbered direct manipulation and visualization
Yan Application of Virtual Reality Technology in Contemporary Environmental Design
Sanders Gesture Based Control of Semi-Autonomous Vehicles
IKHLAS EXPLORING VIRTUAL ENVIRONMENT USING STEROESCOPIC DISPLAY DEVICES

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase