[go: up one dir, main page]

DE102023105347A1 - Enrichment of classified objects in room scans with real-time data through radio and optical trackers - Google Patents

Enrichment of classified objects in room scans with real-time data through radio and optical trackers Download PDF

Info

Publication number
DE102023105347A1
DE102023105347A1 DE102023105347.7A DE102023105347A DE102023105347A1 DE 102023105347 A1 DE102023105347 A1 DE 102023105347A1 DE 102023105347 A DE102023105347 A DE 102023105347A DE 102023105347 A1 DE102023105347 A1 DE 102023105347A1
Authority
DE
Germany
Prior art keywords
room
objects
user
virtual
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102023105347.7A
Other languages
German (de)
Inventor
Cyril Kade
Bruno Lennart Hansen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Syncreality GmbH
Original Assignee
Syncreality GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Syncreality GmbH filed Critical Syncreality GmbH
Priority to DE102023105347.7A priority Critical patent/DE102023105347A1/en
Publication of DE102023105347A1 publication Critical patent/DE102023105347A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

1. Verfahren zum Scannen eines Raumes, wobei das Verfahren ein Scannen ein oder mehrerer realer Objekte des Raumes umfasst, wobei das Scannen eines Objekts (84, 85) ein Erfassen einer Anzahl von Vermessungspunkten (89) des realen Objekts (84, 85) mittels einer Geste oder eines Hand-Controllers (40, 42) umfasst und wobei die realen Objekte mit jeweiligen Funk- oder Optik-Trackern versehen werden, die in ihrer Position erkannt werden.

Figure DE102023105347A1_0000
1. A method for scanning a room, the method comprising scanning one or more real objects of the room, wherein scanning an object (84, 85) comprises detecting a number of survey points (89) of the real object (84, 85) by means of a gesture or a hand controller (40, 42), and wherein the real objects are provided with respective radio or optical trackers which are recognized in their position.
Figure DE102023105347A1_0000

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die vorliegende Offenbarung bezieht sich im Allgemeinen auf Verfahren und Vorrichtungen und Systeme für Virtual Reality (VR) und Augmented Reality (AR) zur Darstellung auf einem Display eines elektronischen Geräts und insbesondere auf die dynamische Erzeugung solcher VR/AR-Erfahrungen.The present disclosure relates generally to methods and apparatus and systems for virtual reality (VR) and augmented reality (AR) for presentation on a display of an electronic device, and more particularly to the dynamic generation of such VR/AR experiences.

TECHNISCHER HINTERGRUNDTECHNICAL BACKGROUND

Als „virtuelle Realität“ (englisch: Virtual Reality, kurz VR) wird eine computergenerierte Wirklichkeit mit Bild (3D) und ggf. auch Ton bezeichnet. VR/AR-Systeme ermöglichen es dem Benutzer, in unterschiedlichem Maße in eine simulierte virtuelle Umgebung einzutauchen. Eine VR-Umgebung bezieht sich auf eine ganz oder teilweise simulierte Umgebung, die ein Benutzer über ein elektronisches System wahrnehmen und/oder mit der er interagieren kann. Unter dem Begriff „erweiterter Realität“ (englisch: „Augmented Reality“, AR, oder auch „Extenden Reallity“, XR) versteht man beispielsweise die computergestützte Erweiterung der Realitätswahrnehmung. Eine VR/AR-Umgebung umfasst beispielsweise virtuelle Szenen und virtuelle Objekte, die ein Benutzer mittels eines elektronischen Displays wahrnehmen und/oder mit denen er, beispielsweise durch Simulation der Anwesenheit des Benutzers in der computergenerierten Umgebung, interagieren kann. Die VR/AR-Umgebung kann Teil eines Videospiels sein und kann beispielsweise die Szene eines Videospiels darstellen.“Virtual reality” (VR for short) is a computer-generated reality with images (3D) and possibly also sound. VR/AR systems enable the user to immerse themselves in a simulated virtual environment to varying degrees. A VR environment refers to a fully or partially simulated environment that a user can perceive and/or interact with via an electronic system. The term “augmented reality” (AR, or “extended reality” (XR) refers, for example, to the computer-aided extension of the perception of reality. A VR/AR environment includes, for example, virtual scenes and virtual objects that a user can perceive via an electronic display and/or interact with, for example by simulating the user’s presence in the computer-generated environment. The VR/AR environment can be part of a video game and can, for example, represent the scene from a video game.

Eine VR-Erfahrung wird einem Nutzer beispielsweise durch ein am Kopf getragenes Head-Mounted-Display vermittelt, das auch als Headset oder VR-Brille bezeichnet wird. Eine „erweiterte Realität“ (AR oder XR) wird beispielsweise durch eine sogenannte AR-Brille vermittelt, bei der eine optische Projektion auf ein teildurchsichtiges Glas eingeblendet wird, durch welches auch die natürlichen physischen Objekte betrachtet werden („see-through“ HMD).A VR experience is provided to a user, for example, by a head-mounted display worn on the head, which is also known as a headset or VR glasses. An "augmented reality" (AR or XR), for example, is provided by so-called AR glasses, in which an optical projection is displayed on a partially transparent glass through which the natural physical objects are also viewed ("see-through" HMD).

Eine virtuelle Realität (VR) oder erweiterte Realität (AR) kann aber auch durch ein Smartphone oder einen Tablet-Computer vermittelt werden, indem virtuell erzeugte Objekte den Bildern aus Smartphone- oder Tabletkameras überlagert werden und diese ergänzen oder ganz- oder teilweise ersetzen.Virtual reality (VR) or augmented reality (AR) can also be conveyed through a smartphone or tablet computer by superimposing virtually generated objects on the images from smartphone or tablet cameras, supplementing them or replacing them in whole or in part.

Um dem Benutzer ein VR/AR-Erlebnis zu bieten, werden physische sensorische Inhalte, die einer physischen Umgebung in der Nähe des Benutzers entsprechen, durch virtuelle Inhalte ersetzt, oder - bei AR-Umgebungen - um virtuelle Inhalte ergänzt.To provide the user with a VR/AR experience, physical sensory content corresponding to a physical environment close to the user is replaced by virtual content or, in the case of AR environments, supplemented by virtual content.

Durch aus dem Stand der Technik bekannte automatische Scanner kann der Benutzer beispielsweise physische Objekte und Ebenen scannen, um sie durch virtuelle Inhalte zu ersetzen. Er richtet den Scanner aus, und Kameras erkennen automatisch physische Objekte und Ebenen und wandeln sie in Datenpunkte um. Der Nachteil dieser Technologie besteht darin, dass sie spezielle Geräte wie LIDAR erfordert, die bei Verbrauchergeräten nicht weit verbreitet sind. Außerdem ist das automatische Scannen nicht sehr zuverlässig, wenn es um Vollständigkeit und Präzision geht. Letzteres ist ein besonders wichtiger Faktor, da bei der Entwicklung eines benutzerfreundlichen Systems haptisches Feedback eine entscheidende Rolle spielt.For example, state-of-the-art automated scanners allow the user to scan physical objects and planes to replace them with virtual content. They align the scanner, and cameras automatically detect physical objects and planes and convert them into data points. The disadvantage of this technology is that it requires specialized equipment such as LIDAR, which is not widely used in consumer devices. In addition, automated scanning is not very reliable when it comes to completeness and precision. The latter is a particularly important factor because haptic feedback plays a crucial role in developing a user-friendly system.

Hiervon ausgehend liegt der Erfindung die Aufgabe zu Grunde die Nutzererfahrung in VR/AR-Umgebungen zu verbessern.Based on this, the invention is based on the task of improving the user experience in VR/AR environments.

Diese Aufgabe wird durch das Verfahren nach Anspruch 1 und die Vorrichtung nach Anspruch 10 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.This object is achieved by the method according to claim 1 and the device according to claim 10. Further advantageous embodiments of the invention emerge from the subclaims and the following description of preferred embodiments of the present invention.

Die Ausführungsbeispiele zeigen ein Verfahren zum Scannen eines Raumes, wobei das Verfahren ein Scannen ein oder mehrerer realer Objekte des Raumes umfasst, wobei das Scannen eines Objekts ein Erfassen einer Anzahl von Vermessungspunkten des realen Objekts mittels einer Geste oder eines Hand-Controllers umfasst und wobei die realen Objekte mit jeweiligen Funk- oder Optik-Trackern versehen werden, die in ihrer Position erkannt werden.The embodiments show a method for scanning a room, wherein the method comprises scanning one or more real objects of the room, wherein the scanning of an object comprises detecting a number of measurement points of the real object by means of a gesture or a hand controller, and wherein the real objects are provided with respective radio or optical trackers which are recognized in their position.

Ein Funk-Tracker bestimmt seine Position beispielsweise über Funktechniken wie Bluetooth und/oder Ultrawideband und sendet diese an ein VR/AR-Gerät. Ein Tracker kann ferner auch eine inertiale Messeinheit (IMU) nutzen, um seine Position und/oder Ausrichtung im Raum zu ermitteln und diese an VR/AR-Gerät zu übermitteln.A radio tracker determines its position using radio technologies such as Bluetooth and/or ultrawideband and sends this to a VR/AR device. A tracker can also be an inertial measuring unit (IMU) to determine its position and/or orientation in space and transmit this to the VR/AR device.

Die Position eines optischen Trackers kann beispielsweise mittels der Kamera bzw. der Kameras eines Smartphones oder eines Headsets (z.B. VR/AR-Brille) ermittelt werden. Dazu können LED's am Tracker vorgesehen sein, deren Position durch das Headset aus den Kameradaten ermittelt werden und aus deren Position das VR/AR-Gerät die Position des optischen Trackers ermitteln kann. Auch kann die Position eines optischen Trackers aus den Kameradaten einer zum Headset externen Kamera ermittelt werden, die beispielsweise mit einer VR/AR-Konsole oder mit dem Headset in Kommunikation steht. Nach einer weiteren alternativen Ausführungsform kann ein optischer Tracker auch mit einer oder mehreren Kameras oder Tiefensensoren ausgerüstet sein, mittels derer sich der Tracker durch einen Blick nach außen im Raum verortet, wobei Techniken wie SLAM („Simultaneous Localization and Mapping“) oder dergleichen zur Anwendung kommen können.The position of an optical tracker can be determined, for example, using the camera or cameras of a smartphone or a headset (e.g. VR/AR glasses). For this purpose, LEDs can be provided on the tracker, the position of which is determined by the headset from the camera data and from whose position the VR/AR device can determine the position of the optical tracker. The position of an optical tracker can also be determined from the camera data of a camera external to the headset, which is in communication with a VR/AR console or with the headset, for example. According to another alternative embodiment, an optical tracker can also be equipped with one or more cameras or depth sensors, by means of which the tracker locates itself in space by looking outside, whereby techniques such as SLAM ("Simultaneous Localization and Mapping") or the like can be used.

Bei dem Raum kann es sich beispielsweise um einen Innenraum eines Gebäudes handeln, oder aber auch um einen Außenraum.The room can, for example, be an interior space of a building or an outdoor space.

Bei dem zu scannenden Objekt kann es sich beispielsweise um ein Sofa, einen Sitz, einen Tisch, einen Stuhl, ein Regal, einen Schrank, eine Pflanze, ein Bett, oder ein Fenster handeln.The object to be scanned can be, for example, a sofa, a seat, a table, a chair, a shelf, a cupboard, a plant, a bed, or a window.

Bei einem Vermessungspunkt kann es sich beispielsweise um eine Ecke des Objektes (z.B. um eine Tischecke) oder einen Punkt an einer Ecke einer Wand handeln. Mit dem hier beschriebenen Verfahren ist es beispielsweise möglich, leistungsstarke Entwicklungswerkzeuge bereitzustellen, die es den Benutzern ermöglichen, kreativ und effektiv auf solchen Scans aufzubauen. Die erstellten Raumscans können sowohl für die interne Entwicklung dieser Werkzeuge dienen, als auch für die Bereitstellung eines effektiven Pakets für die Benutzer der Entwicklungswerkzeuge. Auch Endanwender von Applikationen (wie beispielsweise Spielen oder dergleichen) können das Scanning verwenden, um damit virtuelle Räume zu gestalten.A survey point can be, for example, a corner of the object (e.g. a corner of a table) or a point on a corner of a wall. With the method described here, it is possible, for example, to provide powerful development tools that allow users to build creatively and effectively on such scans. The room scans created can be used both for the internal development of these tools and for providing an effective package for the users of the development tools. End users of applications (such as games or the like) can also use scanning to design virtual rooms.

Das Verfahren zum Scannen eines virtuellen Raumes kann beispielsweise ein manuelles Scannen der Objekte bzw. der Wände durch Berührung ermöglichen.The method for scanning a virtual room can, for example, enable manual scanning of objects or walls by touch.

Mittels des manuellen Scannens kann der Benutzer relevante Objekte bzw. Ebenendaten identifizieren und eine Art von Interaktion anbieten, um diese Objekte so genau (und idealerweise so effizient) wie möglich auf Daten abzubilden. Das Verfahren hat den Vorteil, dass es schnell und genau ist und auch bei schlechten Lichtverhältnissen gut funktioniert.Manual scanning allows the user to identify relevant objects or layer data and provide some form of interaction to map those objects to data as accurately (and ideally as efficiently) as possible. The method has the advantage of being fast and accurate and works well even in low light conditions.

Nach einer Ausführungsform umfasst die Geste zum Erfassen eines Vermessungspunktes eines Objekts bzw. einer Wand eine mit einer Hand ausgeführte Zeigegeste des Zeigens auf einen Vermessungspunkt des Objekts bzw. der Wand und eine mit der anderen Hand ausgeführte Bestätigungsgeste, wobei die Position der Hand zum Zeitpunkt des Ausführens der Bestätigungsgeste die erfasste Position des Vermessungspunkts festlegt.According to one embodiment, the gesture for detecting a measurement point of an object or a wall comprises a pointing gesture performed with one hand to point to a measurement point of the object or the wall and a confirmation gesture performed with the other hand, wherein the position of the hand at the time of executing the confirmation gesture determines the detected position of the measurement point.

Diese Vorgehensweise zum manuellen Scannen eines Raumobjekts führt der Benutzer vorzugsweise so aus, dass er dabei das zu scannende Objekt berührt. Dies ermöglicht ein direktes physisches Feedback durch Berühren des realen Objekts mit den Händen.When manually scanning a spatial object, the user preferably performs this procedure by touching the object to be scanned. This enables direct physical feedback by touching the real object with the hands.

Durch das Scannen eines realen Objekts auf Grundlage der erfassten Vermessungspunkte wird ein virtuelles Objekt erzeugt.By scanning a real object based on the recorded survey points, a virtual object is created.

Nach dem Scannen eines Objekts kann auf Grundlage der erfassten Vermessungspunkte des Objekts ein virtueller Kasten um das Objekt erzeugt werden. Auf diese Weise können physische Objekte mit Hilfe von Boxen dargestellt werden. Rechteckige Netze können dabei als repräsentative Daten erstellt werden, wenn der Benutzer ein physisches Objekt zuordnet.After scanning an object, a virtual box can be created around the object based on the object's captured survey points. In this way, physical objects can be represented using boxes. Rectangular meshes can be created as representative data when the user assigns a physical object.

Vorzugsweise ermittelt ein Tracker die Position des zugeordneten realen Objekts im Raum und die vom Tracker ermittelte Position wird auf das verknüpfte virtuelle Objekt übertragen.Preferably, a tracker determines the position of the associated real object in space and the position determined by the tracker is transferred to the linked virtual object.

Ein Tracker kann ferner die Orientierung des zugeordneten realen Objekts im Raum ermitteln und die vom Tracker ermittelte Orientierung kann auf das verknüpfte virtuelle Objekt übertragen werden.A tracker can also determine the orientation of the associated real object in space and the orientation determined by the tracker can be transferred to the linked virtual object.

Beim Erzeugen eines virtuellen Objekts kann ferner die Position der Vermessungspunkte eines gescannten Objekts mit den Positionsinformationen des zugehörigen Trackers verknüpft werden, um den Tracker zu kalibrieren.When creating a virtual object, the position of the survey points of a scanned object can also be linked to the position information of the associated tracker in order to calibrate the tracker.

Gemäß dem Ausführungsbeispiel erfolgt das Scannen des Raumes mittels eines VR/AR-Gerätes, das die jeweiligen Positionen der den Objekten zugeordneten Tracker erkennt.According to the embodiment, the room is scanned using a VR/AR device that detects the respective positions of the trackers assigned to the objects.

Das VR/AR-Gerät kann sich vorzugsweise durch Inside-Out-Tracking im Raum verorten. Obgleich oben Inside-Out-Tracking als bevorzugtes Ausführungsbeispiel beschrieben ist, kann auch Outside-In-Tracking zur Anwendung kommen, bei der Basisstationen mit Kameras im Raum stehen, um das Headset von außen zu tracken. Das Headset hat in diesem Fall beispielsweise Infrarot-Markierungen (wie es Controller z.B. auch haben).The VR/AR device can preferably locate itself in the room using inside-out tracking. Although inside-out tracking is described above as the preferred embodiment, outside-in tracking can also be used, where base stations with cameras are placed in the room to track the headset from the outside. In this case, the headset has infrared markings (like controllers, for example).

In Ausführungsbeispielen wird davon ausgegangen wird, dass ein Objekt entweder statisch oder beweglich ist.In embodiments it is assumed that an object is either static or moving.

Bei dem Verfahren kann ferner eine Klassifizierung der gescannten Objekte erfolgen und die Klassifizierungsinformation können mit den virtuellen Objekten verknüpft werden. Die Klassifizierung der gescannten Objekte kann beispielsweise manuell oder automatisch erfolgen. Beispielsweise kann die Klassifizierungsinformation beim Prozess des Scannens des Raums erfasst werden.The method can also classify the scanned objects and link the classification information to the virtual objects. The classification of the scanned objects can be done manually or automatically, for example. For example, the classification information can be recorded during the process of scanning the room.

Die Ausführungsbeispiele zeigen auch eine Vorrichtung zum Scannen eines Raumes, wobei die Vorrichtung dazu ausgelegt ist, ein Scannen ein oder mehrerer realer Objekte des Raumes durchzuführen, wobei das Scannen eines realen Objekts ein Erfassen einer Anzahl von Vermessungspunkten des realen Objekts mittels einer Geste oder eines Hand-Controllers umfasst und wobei die Vorrichtung dazu ausgelegt ist, Positionsinformationen von jeweiligen Funk- oder Optik-Trackern zu empfangen und diese mit jeweiligen virtuellen Objekt zu verknüpfen.The embodiments also show a device for scanning a room, wherein the device is designed to perform a scan of one or more real objects of the room, wherein the scanning of a real object comprises detecting a number of survey points of the real object by means of a gesture or a hand controller, and wherein the device is designed to receive position information from respective radio or optical trackers and to link this to respective virtual objects.

Die Ausführungsbeispiele zeigen auch ein System mit der obigen Funktionalität, wobei das System beispielsweise eine VR-Konsole und ein Headset aufweist.The embodiments also show a system with the above functionality, wherein the system comprises, for example, a VR console and a headset.

Die Ausführungsbeispiele beziehen sich auch auf ein Computerprogramm, das Programminstruktionen umfasst, welche die hier beschriebenen Verfahren realisieren.The embodiments also relate to a computer program comprising program instructions that implement the methods described here.

Durch die Vorrichtungen und Verfahren, die in den hier beschriebenen Ausführungsbeispielen bereitgestellt werden, wird es dem Benutzer ermöglicht, mit seiner physischen Umgebung zu interagieren und Elemente der realen Welt aus der physischen Umgebung in die virtuelle Umgebung einzubeziehen, deren Position sich analog zur Position zugeordneter realer Objekte verändert.The devices and methods provided in the embodiments described herein enable the user to interact with his physical environment and to incorporate real-world elements from the physical environment into the virtual environment, the position of which changes analogously to the position of associated real objects.

Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:

  • 1 schematisch die Erstellung von klassifizierten Scans durch Extended-Reality-Geräte zeigt, die sich durch Inside-Out-Tracking im Raum verorten, kombiniert mit dem Prinzip von Funk- oder Optik-Trackern, die durch ein Extended-Reality-Gerät in ihrer Position erkannt werden;
  • 2 eine schematisierte Darstellung einer beispielhaften Virtual-Reality (VR)-Systemumgebung ist;
  • 3a-c eine beispielhafte vordefinierte Handgeste zeigen, mittels welcher der Benutzer die Anzeige eines Menüs bewirken kann;
  • 3d zeigt, wie der Benutzer ein virtuelles Auswahlmenü und eine Handgeste zur Auswahl eines Raumobjekts mittels des Auswahlmenüs virtuell erlebt;
  • 4a und 4b ein Beispiel für eine Zeigegeste der linken Hand und für eine Bestätigungsgeste der rechten Hand darstellen, um einen Eckpunkt eines Objekts oder einer Wand festzulegen;
  • 5 den Ablauf der Selektion eines bereits erstellten Scans aus einer Menüliste zum Starten eines Benutzererlebnisses zeigt;
  • 6 zeigt, wie der Benutzer die Eingabe zum Start des Benutzererlebnisses virtuell erlebt.
  • 7 ein Beispiel eines VR-Erlebnisses darstellt, wie es dem Benutzer nach Auswahl eines Raumscans, oder auch nach Erstellen eines neuen Raumscans, über das Headset geboten wird;
  • 8a-e einen beispielhaften Prozess des Scannens eines Raumes zeigen;
  • 9 zeigt, wie der Benutzer das Scannen eines Raumobjekts mittels der oben beschriebenen Handgesten virtuell erlebt;
  • 10 zeigt, wie der Benutzer das Scannen einer Wand eines Raumes mittels der oben beschriebenen Handgesten virtuell erlebt;
  • 11 eine beispielhafte Datenstruktur einer gescannten virtuellen Umgebung zeigt, wie sie durch den oben dargestellten Scan-Prozess gewonnen wird;
  • 12 eine genauere Darstellung der Unterstruktur Raumobjekte_0 der 11 des Raums Raum_0 zeigt;
  • 13a-d schematisch zeigen, wie - sobald Funk- oder Optik-Tracker an realen Objekten platziert werden - diese durch das Extended-Reality-Gerät mit virtuellen Objekten verknüpft werden, um die realen Objekte in ihrer relativen Position zum Gerät zu verfolgen;
  • 14 schematisch ein virtuelles Objekt, hier in Form eines Würfels, zeigt, das in einem Objektkoordinatensystem definiert ist;
  • 15a beispielhaft die Verschiebung eines virtuellen Objekts von einer Ausgangsposition in eine Endposition zeigt; und
  • 15b beispielhaft die Rotation eines virtuellen Objekts von einer Ausgangsposition in eine Endposition zeigt.
Embodiments will now be described by way of example and with reference to the accompanying drawings, in which:
  • 1 schematically shows the creation of classified scans by extended reality devices that locate themselves in space through inside-out tracking, combined with the principle of radio or optical trackers that are recognized in their position by an extended reality device;
  • 2 is a schematic representation of an exemplary virtual reality (VR) system environment;
  • 3a -c show an example predefined hand gesture by which the user can cause a menu to be displayed;
  • 3d shows how the user virtually experiences a virtual selection menu and a hand gesture for selecting a spatial object using the selection menu;
  • 4a and 4b show an example of a left-hand pointing gesture and a right-hand confirmation gesture to specify a corner point of an object or a wall;
  • 5 shows the process of selecting an already created scan from a menu list to start a user experience;
  • 6 shows how the user virtually experiences the input to start the user experience.
  • 7 represents an example of a VR experience as provided to the user after selecting a room scan, or even after creating a new room scan, via the headset;
  • 8a -e show an example process of scanning a room;
  • 9 shows how the user virtually experiences the scanning of a spatial object using the hand gestures described above;
  • 10 shows how the user virtually experiences scanning a wall of a room using the hand gestures described above;
  • 11 an example data structure of a scanned virtual environment shows how it is obtained by the scanning process shown above;
  • 12 a more detailed representation of the substructure Raumobjekte_0 of the 11 of the room Room_0;
  • 13a -d show schematically how - once radio or optical trackers are placed on real objects - these are linked to virtual objects by the extended reality device in order to track the real objects in their relative position to the device;
  • 14 schematically shows a virtual object, here in the form of a cube, defined in an object coordinate system;
  • 15a shows, by way of example, the movement of a virtual object from a starting position to a final position; and
  • 15b shows, as an example, the rotation of a virtual object from a starting position to a final position.

Verbindung von Tracking im Raum mit dem Prinzip von Funk- oder Optik-TrackernCombining tracking in space with the principle of radio or optical trackers

Wie in 1 gezeigt ist, verbinden die im Folgenden beschriebenen Ausführungsbeispiele zwei Technologien, die in einem realen Innen- oder Außenraum 1 angewendet werden. Es wird dabei die Erstellung von klassifizierten Scans durch Extended-Reality-Geräte 2, die sich durch Inside-Out-Tracking im Raum verorten, mit dem Prinzip von Funk- oder Optik-Trackern 3 kombiniert, die durch das Extended-Reality-Gerät in ihrer Position erkannt werden. Es wird dabei angenommen, dass der Nutzer sich in einem realen Innen- oder Außenraum 1 mit natürlichen Grenzen befindet. Der Nutzer verwendet einerseits ein Extended-Reality-Gerät 2, das sich durch Inside-Out Tracking im Raum orientieren und eine virtuelle Szene darstellen kann. Inside-Out-Tracking bedeutet, dass das Headset oder Smartphone sich durch einen Blick nach außen (Kameras oder Tiefensensoren) im Raum verortet. Hier kommen beispielsweise Techniken wie SLAM („Simultaneous Localization and Mapping“) zur Anwendung. Das Extended-Reality-Gerät 2 kann beispielsweise ein Smartphone oder ein Tablet sein, das der Nutzer in der Hand hält, oder eine Extended-Reality-Brille, die er auf dem Kopf trägt. Das Gerät muss außerdem die Fähigkeit besitzen mit oder ohne Zutun des Nutzers einen Scan der Geometrie anzufertigen, die es umgibt. Des Weiteren werden Funk- oder Optik-Tracker 3 verwendet, die an Objekten im Raum 1 befestigt werden und von dem Extended-Reality-Gerät 2 in ihrer Position erkannt werden.As in 1 As shown, the embodiments described below combine two technologies that are used in a real indoor or outdoor space 1. The creation of classified scans by extended reality devices 2, which locate themselves in the room using inside-out tracking, is combined with the principle of radio or optical trackers 3, whose position is recognized by the extended reality device. It is assumed that the user is in a real indoor or outdoor space 1 with natural boundaries. On the one hand, the user uses an extended reality device 2, which can orient itself in the room using inside-out tracking and display a virtual scene. Inside-out tracking means that the headset or smartphone locates itself in the room by looking outside (cameras or depth sensors). Techniques such as SLAM (“Simultaneous Localization and Mapping”) are used here, for example. The extended reality device 2 can, for example, be a smartphone or a tablet that the user holds in their hand, or extended reality glasses that they wear on their head. The device must also have the ability to create a scan of the geometry that surrounds it with or without the user's intervention. Furthermore, radio or optical trackers 3 are used, which are attached to objects in the room 1 and are recognized in their position by the extended reality device 2.

VR/AR-SystemumgebungVR/AR system environment

2 ist eine schematisierte Darstellung einer beispielhaften Virtual-Reality (VR)-Systemumgebung. In diesem Beispiel umfasst die VR-Systemumgebung eine VR-Konsole 30 und ein Headset 20, das mit der VR-Konsole 30 verbunden ist. Das Headset 20 ist so konfiguriert, dass es vom Benutzer getragen wird, um ihn in eine dreidimensionale (3D) virtuelle Umgebung eintauchen zu lassen. In 2 ist ein einzelnes Headset 20 dargestellt. In alternativen Ausführungsformen kann die Systemumgebung jedoch auch mehrere Headsets 20 umfassen, wobei jedes Headset 20 mit der VR-Konsole 30 kommuniziert. 2 is a schematic representation of an example virtual reality (VR) system environment. In this example, the VR system environment includes a VR console 30 and a headset 20 connected to the VR console 30. The headset 20 is configured to be worn by the user to immerse the user in a three-dimensional (3D) virtual environment. In 2 a single headset 20 is shown. However, in alternative embodiments, the system environment may also include multiple headsets 20, with each headset 20 communicating with the VR console 30.

Die VR-Konsole 30 stellt dem Headset 20 Inhalte zur Verfügung, die dem Benutzer als virtuelle Umgebung präsentiert werden. In dem in 2 gezeigten Beispiel umfasst die VR-Konsole 30 eine Kommunikationsschnittstelle 31, eine Gestenerkennungs-Einheit 32, eine VR-Einheit 33, einen Speicher 34, eine Tracking-Einheit 36 und eine Eingabeschnittstelle 38.The VR console 30 provides the headset 20 with content that is presented to the user as a virtual environment. 2 In the example shown, the VR console 30 comprises a communication interface 31, a gesture recognition unit 32, a VR unit 33, a memory 34, a tracking unit 36 and an input interface 38.

Der Speicher 34 speichert eine oder mehrere Anwendungen die, wenn sie von einem Prozessor (z.B. der VR-Einheit 33) ausgeführt werden, virtuelle Inhalte zur Präsentation für den Benutzer erzeugen, sowie Daten, welche die virtuelle Realität repräsentieren. Der von einer Anwendung erzeugte Inhalt kann auf Eingaben reagieren, die vom Benutzer durch Bewegung des Headsets 20 oder über die Gestenerkennungseinheit 32 oder die Eingabeschnittstelle 38 erhalten werden. Beispiele für Anwendungen sind Spieleanwendungen, Videowiedergabeanwendungen oder dergleichen.The memory 34 stores one or more applications that, when executed by a processor (eg, the VR unit 33), generate virtual content for presentation to the user, as well as data representing the virtual reality. The content generated by an application may respond to inputs provided by the user by moving the headset 20 or via the gesture recognition unit 32 or the input interface 38. Examples of applications are gaming applications, video playback applications or the like.

Die Gestenerkennungseinheit 32 führt eine Gestenerkennung basierend auf Bildinformationen durch, die von einer Kamera 24 des Headsets 2 bereitgestellt werden. Insbesondere erkennt die Gestenerkennungseinheit 32, basierend auf den empfangenen Bildinformationen, vordefinierte vom Benutzer ausgeführte Handgesten, beispielsweise eine Zeigegeste oder eine Bestätigungsgeste, wie sie weiter unten in Bezug auf 3a-c, 4 und 6a, b ausführlicher beschrieben sind. Gesten können beispielsweise Aktionsanforderung entsprechen, wie beispielsweise eine Aufforderung zur Durchführung einer bestimmten Aktion. Eine Aktionsanforderung kann zum Beispiel das Starten oder Beenden einer Anwendung oder die Durchführung einer bestimmten Aktion innerhalb der Anwendung sein.The gesture recognition unit 32 performs gesture recognition based on image information provided by a camera 24 of the headset 2. In particular, the gesture recognition unit 32 recognizes, based on the received image information, predefined hand gestures performed by the user, for example a pointing gesture or a confirmation gesture, as described below with respect to 3a -c, 4 and 6a , b are described in more detail. Gestures can, for example, correspond to action requests, such as a request to perform a specific action. An action request can, for example, be starting or stopping an application or performing a specific action within the application.

Die Eingabeschnittstelle 38 ist neben der Gestenerkennungseinheit 32 eine weitere Funktionalität, die es einem Benutzer ermöglicht, Aktionsanforderungen an die VR-Konsole 30 zu senden. Die Eingabeschnittstelle 38 kann beispielsweise ein oder mehrere Eingabegeräte enthalten. Beispiele für Eingabegeräte sind VR-Controller, eine Maus, eine Tastatur, ein Joystick oder ein anderes geeignetes Gerät, um Aktionsanforderungen zu empfangen und die empfangenen Aktionsanforderungen an die VR-Konsole 30 zu übermitteln.The input interface 38 is, in addition to the gesture recognition unit 32, another functionality that allows a user to send action requests to the VR console 30. The input interface 38 may, for example, contain one or more input devices. Examples of input devices are VR controllers, a mouse, a keyboard, a joystick, or another suitable device for receiving action requests and transmitting the received action requests to the VR console 30.

Die VR-Einheit 33 führt Anwendungen innerhalb des VR-Systems aus und bestimmt den virtuellen Inhalt, der dem Headset 20 zur Präsentation für den Benutzer zur Verfügung gestellt werden soll. Die VR-Einheit 33 empfängt insbesondere Informationen von der Gestenerkennungseinheit 32, der Tracking-Einheit 36 und der Eingabeschnittstelle 38 und kontrolliert, basierend auf den empfangenen Informationen den virtuellen Inhalt zur Anzeige auf dem Headset 20. Die VR-Einheit 33 kann hierzu beispielsweise eine Rendering-Engine wie das Unity SDK verwenden.The VR unit 33 executes applications within the VR system and determines the virtual content to be made available to the headset 20 for presentation to the user. In particular, the VR unit 33 receives information from the gesture recognition unit 32, the tracking unit 36 and the input interface 38 and, based on the information received, controls the virtual content for display on the headset 20. The VR unit 33 can use a rendering engine such as the Unity SDK for this purpose, for example.

Die Tracking-Einheit 36 kalibriert das VR-System, indem es beispielsweise die von der internen Messeinheit (IMU) 22 des Headsets 20 erhaltenen Informationen verwendet. Die Tracking-Einheit 36 empfängt beispielsweise aktuelle Positionsinformationen, Beschleunigungsinformationen, Geschwindigkeitsinformationen und/oder vorhergesagte zukünftige Positionen des Headsets 20. Basierend auf den Informationen der Tracking-Einheit 36 kontrolliert die VR-Einheit 33 den virtuellen Inhalt zur Anzeige auf dem Headset 20. Wenn die empfangenen Informationen beispielsweise anzeigen, dass der Benutzer eine Kopfbewegung durchgeführt hat, so erzeugt die VR-Einheit 33 Inhalte für das Headset 20, die die Kopfbewegung des Benutzers in einer virtuellen Umgebung widerspiegeln. Darüber hinaus führt die VR-Einheit 33 eine Aktion innerhalb einer auf der VR-Konsole 30 ausgeführten Anwendung als Reaktion auf eine von der Gestenerkennungseinheit 32 oder der Eingabeschnittstelle 38 empfangene Aktionsanforderung aus.The tracking unit 36 calibrates the VR system using, for example, the information received from the internal measurement unit (IMU) 22 of the headset 20. The tracking unit 36 receives, for example, current position information, acceleration information, velocity information, and/or predicted future positions of the headset 20. Based on the information from the tracking unit 36, the VR unit 33 controls the virtual content for display on the headset 20. For example, if the received information indicates that the user has performed a head movement, the VR unit 33 generates content for the headset 20 that reflects the user's head movement in a virtual environment. In addition, the VR unit 33 performs an action within an application running on the VR console 30 in response to an action request received from the gesture recognition unit 32 or the input interface 38.

Die Informationsübertragung zwischen dem Headset 20 und der VR-Konsole 30 erfolgt über Kommunikationsschnittstellen 21 (Headset) und 31 (VR-Konsole). Die Kommunikation kann beispielsweise über eine drahtlose Funkanbindung erfolgen.The information transfer between the headset 20 and the VR console 30 takes place via communication interfaces 21 (headset) and 31 (VR console). The communication can take place, for example, via a wireless radio connection.

Das Headset 20 präsentiert dem Benutzer - gesteuert durch die VR-Konsole 30 - virtuelle Inhalte. Virtuelle Inhalte können beispielsweise Bilder, Videos und/oder Audioinhalte umfassen. Audioinhalte können über ein separates Gerät (z. B. Lautsprecher und/oder Kopfhörer) außerhalb des Headsets 20, das Audioinformationen vom Headset 20, der VR-Konsole 30 oder beiden empfängt, präsentiert werden. Das Headset 20 kann eine Kommunikationsschnittstelle 21, eine inertiale Messeinheit (IMU) 22, eine Kamera 24, eine Rendering-Einheit 26 und ein Display 28 umfassen.The headset 20 presents virtual content to the user - controlled by the VR console 30. Virtual content may include, for example, images, videos and/or audio content. Audio content may be presented via a separate device (e.g., speakers and/or headphones) outside the headset 20 that receives audio information from the headset 20, the VR console 30, or both. The headset 20 may include a communication interface 21, an inertial measurement unit (IMU) 22, a camera 24, a rendering unit 26, and a display 28.

Die Rendering-Einheit 26 des Headsets 20 empfängt Inhalte für die virtuelle Umgebung von der VR-Einheit 33 der Konsole und stellt die Inhalte zur Anzeige auf dem Display 28 bereit. Ferner kann die Rendering-Einheit 26 den Inhalt beispielsweise basierend auf Informationen von der IMU 22 anpassen.The rendering unit 26 of the headset 20 receives content for the virtual environment from the VR unit 33 of the console and provides the content for display on the display 28. Furthermore, the rendering unit 26 can adapt the content based on information from the IMU 22, for example.

Die inertiale Messeinheit (IMU) 22 ist eine elektronische Komponente, die Kalibrierungsdaten auf der Grundlage von Messsignalen erzeugt, die von einem oder mehreren Kopfverfolgungssensoren empfangen werden, die als Reaktion auf die Bewegung des Headsets 20 ein oder mehrere Messsignale erzeugen. Beispiele für Kopfverfolgungssensoren sind Beschleunigungssensoren 23 zur Messung von Translationsbewegungen (vorwärts/rückwärts, aufwärts/abwärts, links/rechts Bewegungen), Gyroskope 25 zur Messung von Rotationsbewegungen (z. B. Nick-, Gier- und Rollbewegungen), Magnetometer 27 zur Bestimmung der Ausrichtung gegenüber dem Erdmagnetfeld und dergleichen, die für die Erfassung von Bewegungen und/oder die Korrektur von Fehlern im Zusammenhang mit der IMU 22 geeignet sind. Basierend auf den Messsignalen der Kopfverfolgungssensoren und mittels dem Fachmann bekannten Verfahren der Sensorfusion erzeugt die IMU 22 Kalibrierungsdaten, die eine geschätzte Position des Headsets 20 relativ zu einer Anfangsposition anzeigen. Die IMU 22 kann zum Beispiel die Messsignale schnell abtasten und die geschätzte Position des Headsets 20 aus den abgetasteten Daten berechnen. Beispielsweise integriert die IMU 22 die von den Beschleunigungssensoren 23 empfangenen Messsignale über die Zeit, um einen Geschwindigkeitsvektor zu schätzen, und integriert den Geschwindigkeitsvektor über die Zeit, um eine geschätzte Position eines Referenzpunktes auf dem Headset 20 zu bestimmen. Der Referenzpunkt ist beispielsweise ein Punkt, der verwendet werden kann, um die Position des Headsets 20 zu beschreiben (z. B. ein Mittelpunkt der IMU 22).The inertial measurement unit (IMU) 22 is an electronic component that generates calibration data based on measurement signals received from one or more head tracking sensors that generate one or more measurement signals in response to the movement of the headset 20. Examples of head tracking sensors are accelerometers 23 for measuring translational movements (forward/backward, up/down, left/right movements), gyroscopes 25 for measuring rotational movements (e.g. pitch, yaw and roll movements), magnetometers 27 for determining the orientation with respect to the earth's magnetic field and the like, which are suitable for detecting movements and/or correcting errors associated with the IMU 22. Based on the measurement signals of the head tracking sensors and by means of sensor fusion methods known to those skilled in the art, the IMU 22 Calibration data indicating an estimated position of the headset 20 relative to an initial position. The IMU 22 may, for example, rapidly sample the measurement signals and calculate the estimated position of the headset 20 from the sampled data. For example, the IMU 22 integrates the measurement signals received from the acceleration sensors 23 over time to estimate a velocity vector and integrates the velocity vector over time to determine an estimated position of a reference point on the headset 20. The reference point is, for example, a point that can be used to describe the position of the headset 20 (e.g., a center point of the IMU 22).

Alternativ oder zusätzlich kann sich das Headset mittels Technologien wie SLAM („Simultaneous Localization and Mapping“) auch selbst im Raum tracken. Dazu werden die optischen Daten der Kameras bzw. Tiefen-Sensoren ausgewertet.Alternatively or additionally, the headset can also track itself in space using technologies such as SLAM (“Simultaneous Localization and Mapping”). To do this, the optical data from the cameras or depth sensors is evaluated.

Auf diese Weise können VR/AR-Erfahrungen, die von der VR-Konsole 30 mittels dem Headset 20 vermittelt werden, physische Bewegungen eines Benutzers verfolgen, und, abhängig von den verfolgten physischen Bewegungen, eine oder mehrere Eigenschaften eines oder mehrerer virtueller Objekte, die in der VR/AR-Umgebung simuliert werden, anpassen. Beispielsweise kann das VR/AR-System erkennen, dass sich der Kopf des Benutzers dreht, und daraufhin die Bilddaten, die dem Benutzer präsentiert werden, so anpassen, dass sie mit dem veränderten Blickfeld des Benutzers korrelieren.In this way, VR/AR experiences delivered by the VR console 30 via the headset 20 may track physical movements of a user and, depending on the tracked physical movements, adjust one or more properties of one or more virtual objects simulated in the VR/AR environment. For example, the VR/AR system may detect that the user's head is turning and subsequently adjust the image data presented to the user to correlate with the user's changed field of view.

Die Kamera 24 nimmt Bilder des Raumes vor dem Benutzer auf, auf denen der Raum und gegebenenfalls auch die Hände des Benutzers zu sehen sind. Gemäß einer beispielhaften Ausführungsform kann die Kamera 24 ein paar von RGB Kameras oder Graustufenkameras umfassen, die ein jeweiliges Bild einer Szene aufnehmen, das für ein linkes bzw. ein rechtes Auge des Nutzers vorgesehen ist. Die Kamera 24 kann ferner eine oder mehrere optische Linsen, ggf. eine Beleuchtungsquelle und elektronische Steuerungen umfassen. Die von der Kamera 24 gelieferten Bilddaten werden beispielsweise dazu verwendet, dem Benutzer ein Abbild der realen Umgebung vor ihm über das Display 28 des Headsets bereitzustellen, oder sie werden der Gestenerkennungs-Einheit 32 zugeführt, so dass diese auf Grundlage der Bilder eine Gestenerkennung durchführen kann, beispielsweise um zu bestimmen, ob der Benutzer eine Zeigegeste beziehungsweise eine Bestätigungsgeste wie weiter unten beschrieben ausführt.The camera 24 takes pictures of the room in front of the user, on which the room and possibly also the user's hands can be seen. According to an exemplary embodiment, the camera 24 can comprise a pair of RGB cameras or grayscale cameras, which take a respective image of a scene intended for a left or a right eye of the user. The camera 24 can further comprise one or more optical lenses, possibly an illumination source and electronic controls. The image data provided by the camera 24 is used, for example, to provide the user with an image of the real environment in front of him via the display 28 of the headset, or it is fed to the gesture recognition unit 32 so that it can perform gesture recognition based on the images, for example to determine whether the user is performing a pointing gesture or a confirmation gesture as described below.

Die Bilddaten der Kamera 24 werden durch eine Gestenerkennung (32 in 2) verarbeitet, um beispielsweise die Position der Hände und Finger des Benutzers zu bestimmen. Insbesondere können Algorithmen angewendet werden, um ein Handskelettmodell auf der Grundlage der Bilddaten zu bestimmen und auf der Grundlage des Handskelettmodells vordefinierte Gesten zu erkennen.The image data of the camera 24 are processed by a gesture recognition (32 in 2 ) to determine, for example, the position of the user's hands and fingers. In particular, algorithms can be applied to determine a hand skeleton model based on the image data and to recognize predefined gestures based on the hand skeleton model.

Die Funktionalität von Konsole und Headset kann durch Software-Updates ständig verbessert werden.The functionality of the console and headset can be continually improved through software updates.

Das obige Ausführungsbeispiel der 2 zeigt eine VR-Systemumgebung bestehend aus VR-Konsole und Headset, bei der die Umgebung mittels im Headset integrierten Kameras aufgenommen wird und mittels Displays im Headset dem Benutzer zugespielt wird. In alternativen Ausführungsformen kann die VR-Systemumgebung aber auch in einem Smartphone oder einem Tablet implementiert sein, das so konfiguriert ist, dass es einem Benutzer eine computergenerierte Realitätserfahrung („VR/AR-Erfahrung“) bieten kann. In diesem Fall wird die im Smartphone bzw. Tablet integrierte Kamera verwendet und die virtuelle Realität bzw. eine erweiterte Realität wird dem Nutzer auf dem Display des Smartphones bzw. des Tablets angezeigt.The above example of the 2 shows a VR system environment consisting of a VR console and headset, in which the environment is recorded using cameras integrated in the headset and is fed to the user via displays in the headset. In alternative embodiments, the VR system environment can also be implemented in a smartphone or a tablet that is configured to offer a user a computer-generated reality experience ("VR/AR experience"). In this case, the camera integrated in the smartphone or tablet is used and the virtual reality or an augmented reality is shown to the user on the display of the smartphone or tablet.

2 zeigt ein VR-System, bei dem Headset und Konsole physisch voneinander getrennt sind. In alternativen Ausführungsformen, wie beispielsweise bei aktuellen Standalone-Brillen, sowie bei Smartphones kann es jedoch so sein, dass sich beide Komponenten in einem Gerät befinden. 2 shows a VR system in which the headset and console are physically separated from each other. In alternative embodiments, such as current standalone glasses and smartphones, however, both components may be located in one device.

GestenerkennungGesture recognition

Die hier beschriebene VR-Konsole kann eine Reihe von Gesten verwenden, um Benutzereingaben zu erkennen.The VR console described here can use a number of gestures to detect user input.

Die 3a-c zeigen eine beispielhafte vordefinierte Handgeste, mittels welcher der Benutzer die Anzeige eines Menüs bewirken kann. Wie aus den 3a-c ersichtlich, kann eine definierte Handgeste zum Einblenden eines Menüs darin bestehen, den Daumen der rechten Hand von einer gespreizten Position (siehe 3a) in eine anliegende Position (siehe 3c) zu bringen, in der die Hand zur Faust geballt ist.The 3a -c show an example predefined hand gesture by which the user can cause a menu to be displayed. As can be seen from the 3a -c, a defined hand gesture for displaying a menu can be to move the thumb of the right hand from a spread position (see 3a) into a snug position (see 3c ) with the hand clenched into a fist.

In 3d ist gezeigt, wie der Benutzer ein virtuelles Auswahlmenü und eine Handgeste zur Auswahl eines Raumobjekts mittels des Auswahlmenüs virtuell erlebt, wobei nur die dem Benutzer eingeblendeten virtuellen Objekte zu sehen sind, nicht aber der reale Raumeindruck, der mittels Kameras des Headsets erfasst wird und dem Benutzer gleichzeitig mit den virtuellen Objekten angezeigt wird. Mittels eines virtuellen Menüs 80 kann der Benutzer unter mehreren Raumobjekten ein Objekt auswählen, wie beispielsweise ein Sofa, einen Sitz, einen Tisch, einen Stuhl, ein Regal, einen Schrank, eine Pflanze, ein Bett, ein Fenster oder dergleichen. Dem Benutzer wird nicht nur das virtuelle Menü 80 eingeblendet, sondern auch ein virtuelles Abbild 81, 82 seiner beiden Hände. Die Auswahl kann beispielsweise, wie in 3d gezeigt, über eine Zeigegeste der linken Hand 81 erfolgen und über eine Bestätigungsgeste der rechten Hand 82 bestätigt werden.In 3d it is shown how the user virtually experiences a virtual selection menu and a hand gesture for selecting a room object using the selection menu, whereby only the virtual objects displayed to the user can be seen, but not the real impression of the room, which is captured by the headset's cameras and is displayed to the user at the same time as the virtual objects. Using a virtual menu 80, the user can select an object from among several room objects, such as a sofa, a seat, a table, a chair, a shelf, a cupboard, a plant, a bed, a window or the like. The user is not only shown the virtual menu 80, but also a virtual image 81, 82 of his two hands. The selection can be made, for example, as in 3d shown, via a pointing gesture of the left hand 81 and confirmed via a confirmation gesture of the right hand 82.

Durch die Objekt-Auswahl, wie sie in 3d gezeigt ist, kann eine Kategorisierung von Objekten stattfinden. Die verfügbaren Objektklassen können vom Entwickler angepasst und erweitert werden.Through the object selection, as shown in 3d As shown, a categorization of objects can take place. The available object classes can be adapted and extended by the developer.

Ein weiteres Beispiel für eine Zeigegeste der linken Hand und für eine Bestätigungsgeste der rechten Hand ist in den 4a und 4b dargestellt. Diese Geste kann beispielsweise dazu verwendet werden, um Objekte und Wände eines Raumes zu scannen, wie dies unten mit Bezug auf die 9 und 10 beschrieben ist. Ein Raumobjekt kann von dem Benutzer per Hand durch Ausführen einer solchen vorbestimmten Handgeste gescannt werden. Beispielsweise kann ein Raumobjekt gescannt werden, indem drei Eckpunkte des Raumobjekts durch wiederholtes Ausführen einer Zeigegeste mit der linken Hand und einer Bestätigungsgeste mit der rechten Hand definiert werden.Another example of a pointing gesture of the left hand and a confirmation gesture of the right hand is shown in the 4a and 4b This gesture can be used, for example, to scan objects and walls of a room, as shown below with reference to the 9 and 10 A spatial object can be scanned by the user by hand by performing such a predetermined hand gesture. For example, a spatial object can be scanned by defining three corner points of the spatial object by repeatedly performing a pointing gesture with the left hand and a confirmation gesture with the right hand.

4a zeigt, in einem ersten Stadium, wie der Benutzer mit der linken Hand 81 eine Zeigegeste ausführt, während er mit der rechten Hand 82 eine vordefinierte Bestätigungsgeste ausführt, um einen Eckpunkt eines Objekts festzulegen. Im ersten Stadium deutet der Benutzer mit der linken Hand und mit einem ausgestreckten Zeigefinger auf einen bestimmten Punkt, um einen Eckpunkt eines Objekts festzulegen. Bevorzugt berührt der Benutzer dabei das reale Objekt, so dass er von dem realen Objekt haptisches Feedback erlangt. Der Benutzer beginnt damit, den Daumen der rechten Hand mit dem Zeigefinger der rechten Hand zusammenzuführen, um eine Bestätigungsgeste durchzuführen. 4a shows, in a first stage, how the user performs a pointing gesture with the left hand 81 while performing a predefined confirmation gesture with the right hand 82 in order to define a corner point of an object. In the first stage, the user points to a specific point with the left hand and an outstretched index finger in order to define a corner point of an object. Preferably, the user touches the real object so that he receives haptic feedback from the real object. The user begins by bringing the thumb of the right hand together with the index finger of the right hand in order to perform a confirmation gesture.

4b zeigt, in einem zweiten Stadium, wie der Benutzer mit der linken Hand 81 eine Zeigegeste ausführt, während er mit der rechten Hand 82 eine Bestätigungsgeste ausführt, um einen Eckpunkt eines Objekts festzulegen. Im zweiten Stadium hat der Benutzer den Daumen der rechten Hand mit dem Zeigefinger der rechten Hand zusammengeführt. Diese Geste der rechten Hand erkennt die Gestenerkennungs-Einheit (32 in 1) als Bestätigung. Die Position der Fingerspitze des Zeigefingers der linken Hand zum Zeitpunkt des Ausführens der Bestätigungsgeste legt die erfasste Position des Vermessungspunkts (z.B. der Ecke) des Objekts fest. 4b shows, in a second stage, how the user performs a pointing gesture with the left hand 81 while performing a confirmation gesture with the right hand 82 to set a corner point of an object. In the second stage, the user has brought the thumb of the right hand together with the index finger of the right hand. This gesture of the right hand is recognized by the gesture recognition unit (32 in 1 ) as confirmation. The position of the fingertip of the index finger of the left hand at the time of executing the confirmation gesture determines the detected position of the survey point (eg the corner) of the object.

Das obige Beispiel einer Geste verwendet den Zeigefinger der linken Hand als virtuellen Mauspfeil, um Objekteckpunkte zu berühren und zu bestätigen. Die Funktion der linken und rechten Hand kann aber auch umgeschaltet werden.The gesture example above uses the index finger of the left hand as a virtual mouse arrow to touch and confirm object vertices. However, the function of the left and right hands can also be switched.

Die in den 4a und 4b dargestellte Geste ist als Beispiel für eine Zeigegeste beziehungsweise eine Bestätigungsgeste zu verstehen, um einen Eckpunkt eines Objekts festzulegen. Sowohl die Zeigegeste als auch die Bestätigungsgeste können aber auch beliebige andere vordefinierte Gesten sein.The 4a and 4b The gesture shown is an example of a pointing gesture or a confirmation gesture to specify a corner point of an object. However, both the pointing gesture and the confirmation gesture can also be any other predefined gestures.

Um Fehler bei der Gestenerkennung zu vermeiden, können solche Gesten dem Benutzer mittels Tutorials vermittelt werden.To avoid errors in gesture recognition, such gestures can be taught to the user via tutorials.

VR-BenutzererlebnisVR user experience

5 stellt den Ablauf der Selektion eines bereits erstellten Scans aus einer Menüliste zum Starten eines Benutzererlebnisses (Schritte S2 bis S8 von 2) aus der Perspektive des Benutzers dar. 5 represents the process of selecting an already created scan from a menu list to start a user experience (steps S2 to S8 of 2 ) from the user's perspective.

5 zeigt im Bild auf der linken Seite ein Menü, das dem Benutzer mittels des Displays (28 in 2) des Headsets angezeigt wird. Durch Selektion des Menüfelds „Liste gespeicherte Scans auf“ gibt der Benutzer ein, dass er möchte, dass eine Liste der bereits gespeicherten Scans angezeigt wird, um daraus einen Scan auszuwählen. Die Eingabe kann beispielsweise durch eine vordefinierte Zeigegeste erfolgen. Im nächsten Bild ist die Liste der bereits gespeicherten Scans gezeigt, aus denen der Benutzer auswählen kann. Mittels der im Menü angezeigten Liste kann der Benutzer zum Beispiel aus einem Scan „Scan 0“, einem Scan „Scan 1“ und einem Scan „Scan 2“ auswählen. Darüber hinaus kann der Benutzer die aufgelisteten Scans auch durch eine entsprechende Eingabe löschen (siehe Bild oben). Die Eingabe kann erneut beispielsweise durch eine vordefinierte Zeigegeste auf das Menü erfolgen. Nach Auswahl eines Scans aus der Liste sieht der Benutzer eine Darstellung des ausgewählten Raumes mit den gescannten Raumobjekten und Wänden. Durch eine entsprechende Eingabe kann der Benutzer das mit dem gewählten Scan verbundene Benutzererlebnis starten. Ein Beispiel für eine Eingabe zum Start des Benutzererlebnisses ist in 5 veranschaulicht. Auf diese Weise kann der Benutzer ein Benutzererlebnis starten und in eine virtuelle Welt eintauchen, die mit virtualisierten Darstellungen der gescannten Raumobjekte und Wände des gewählten Scans angereichert ist. 5 shows in the picture on the left a menu that is shown to the user via the display (28 in 2 ) of the headset. By selecting the menu field "List saved scans on", the user indicates that he would like to see a list of the scans already saved in order to select a scan from it. The input can be made, for example, using a predefined pointing gesture. The next image shows the list of scans already saved from which the user can select. Using the list displayed in the menu, the user can, for example, select from a scan "Scan 0", a scan "Scan 1" and a scan "Scan 2". In addition, the user can select the listed scans can also be deleted by making a corresponding input (see image above). The input can be made again, for example, by a predefined pointing gesture to the menu. After selecting a scan from the list, the user sees a representation of the selected room with the scanned room objects and walls. By making a corresponding input, the user can start the user experience associated with the selected scan. An example of an input to start the user experience is shown in 5 This allows the user to start a user experience and immerse themselves in a virtual world enriched with virtualized representations of the scanned room objects and walls of the selected scan.

Die Auswahl eines Scans aus einer Liste von Scans, wie dies in 5 gezeigt ist, ermöglicht die Verwaltung von Raumprofilen und das Umschalten zwischen ihnen.Selecting a scan from a list of scans, as shown in 5 shown allows you to manage room profiles and switch between them.

6 zeigt, wie der Benutzer die Eingabe zum Start des Benutzererlebnisses virtuell erlebt. Wie bei den 4, 7 und 9 sind nur die dem Benutzer eingeblendeten virtuellen Objekte zu sehen, nicht aber der reale Raumeindruck, der mittels Kameras des Headsets erfasst wird und dem Benutzer gleichzeitig mit den virtuellen Objekten angezeigt wird. Wie aus 6 ersichtlich, selektioniert der Benutzer in einem Menü 80 eine Starttaste („Run“). Die Auswahl erfolgt, wie auch die Auswahl eines zu scannenden Raumobjekts in 5, beispielsweise über eine Zeigegeste der linken Hand 81 und über eine Bestätigungsgeste der rechten Hand 82. 6 shows how the user virtually experiences the input to start the user experience. As with the 4 , 7 and 9 Only the virtual objects displayed to the user are visible, but not the real spatial impression, which is captured by the headset's cameras and displayed to the user at the same time as the virtual objects. As can be seen from 6 As can be seen, the user selects a start button (“Run”) in a menu 80. The selection is made, as is the selection of a spatial object to be scanned in 5 , for example via a pointing gesture of the left hand 81 and a confirmation gesture of the right hand 82.

7 stellt ein Beispiel eines VR-Erlebnisses dar, wie es dem Benutzer nach Auswahl eines Raumscans, oder auch nach Erstellen eines neuen Raumscans, über das Headset geboten wird. Anders als während dem Prozess des Scannens eines Raumes, wird dem Benutzer während der VR-Erfahrung der Raumeindruck des realen Raumes (der mittels Kameras des Headsets erfasst wird und der dem Benutzer während dem Scan-Prozess mittels der Displays des Headsets dargestellt wird) nicht vermittelt. Bei dem VR-Erlebnis handelt es sich um eine rein virtuelle Erfahrung, bei der die Realität durch eine (virtuelle) künstliche Realität ersetzt wird. Während dem VR-Erlebnis werden reale Objekte des Raumes durch virtuelle Objekte ersetzt, indem beispielsweise an Stelle der mittels des Scans erhaltenen virtuellen Kästen um reale Objekte beliebige virtuelle Objekte gesetzt werden. So kann beispielsweise ein realer Tisch durch einen virtuellen Altar ersetzt werden. Eine Wand kann durch eine virtuelle Feuerwand ersetzt werden. Auf diese Weise kann der Benutzer in eine virtuelle Welt eintauchen, die mit virtualisierten Objekten und Wänden ausgebildet ist, die sich an Orten befinden, in denen sich reale Objekte des Raumes befinden, in dem sich der Benutzer während des VR-Erlebnisses bewegt. Die Korrespondenz zwischen den virtuellen Objekten des VR-Erlebnisses und realen Objekten des realen Raumes bietet den Vorteil, dass der Benutzer bei seinen Bewegungen im realen Raum während dem VR-Erlebnis Kollisionen mit realen Objekten vermeidet oder zumindest physikalisches Feedback bekommt, sofern er in der virtuellen Welt mit einem virtuellen Objekt zusammenstößt, das in der realen Welt eine Korrespondenz hat, welche für das physikalisches Feedback sorgt. Ferner bekommt der Benutzer haptisches Feedback, soweit er ein virtuelles Objekt mit den Händen berührt, das eine physikalische Korrespondenz im realen Raum aufweist. 7 represents an example of a VR experience as offered to the user via the headset after selecting a room scan or after creating a new room scan. Unlike during the process of scanning a room, during the VR experience the user is not given the spatial impression of the real room (which is captured by the headset's cameras and shown to the user during the scanning process via the headset's displays). The VR experience is a purely virtual experience in which reality is replaced by a (virtual) artificial reality. During the VR experience, real objects in the room are replaced by virtual objects, for example by placing any virtual objects in place of the virtual boxes around real objects obtained by scanning. For example, a real table can be replaced by a virtual altar. A wall can be replaced by a virtual fire wall. In this way, the user can immerse themselves in a virtual world that is designed with virtualized objects and walls that are located in places where real objects are located in the space in which the user moves during the VR experience. The correspondence between the virtual objects of the VR experience and real objects in the real space offers the advantage that the user avoids collisions with real objects when moving in real space during the VR experience, or at least receives physical feedback if he collides with a virtual object in the virtual world that has a correspondence in the real world that provides physical feedback. Furthermore, the user receives haptic feedback if he touches a virtual object with his hands that has a physical correspondence in real space.

Scannen der Objekte eines RaumesScanning the objects in a room

In den 8a-e, 9 und 10 wird das Scannen eines Raumobjekts näher beschrieben. Ein Raumobjekt kann von dem Benutzer per Hand durch Ausführen vorbestimmter Handgesten gescannt werden. Beispielsweise kann ein Raumobjekt gescannt werden, indem drei Eckpunkte des Raumobjekts durch wiederholtes Ausführen einer Zeigegeste mit der linken Hand und einer Bestätigungsgeste mit der rechten Hand definiert werden.In the 8a -e, 9 and 10 The scanning of a spatial object is described in more detail. A spatial object can be scanned by the user by hand by performing predetermined hand gestures. For example, a spatial object can be scanned by defining three corner points of the spatial object by repeatedly performing a pointing gesture with the left hand and a confirmation gesture with the right hand.

Die 8a-e beschreiben schematisch den Ablauf der Erstellung eines neuen Scans eines Raumes.The 8a -e describe schematically the process of creating a new scan of a room.

8a zeigt schematisch einen noch nicht gescannten Raum, in dem sich der Benutzer befindet. Der Raum kann ein oder mehrere physische Objekte enthalten. In 5c sind beispielsweise ein Tisch 84 und ein Sofa 85 dargestellt. Die physischen Objekte werden von Kameras (24 in 2) des Headsets erfasst, und die Bilddaten werden dazu verwendet, dem Benutzer ein Abbild der realen Umgebung vor ihm über das Display (28 in 2) des Headsets bereitzustellen. 8a shows a schematic of a not yet scanned room in which the user is located. The room can contain one or more physical objects. In 5c For example, a table 84 and a sofa 85 are shown. The physical objects are captured by cameras (24 in 2 ) of the headset and the image data is used to show the user an image of the real environment in front of him via the display (28 in 2 ) of the headset.

8b zeigt schematisch ein Stadium des Scanvorgangs, in dem der Benutzer ein erstes Raumobjekt 84, nämlich den Tisch, gescannt hat, so dass eine virtualisierte Darstellung 86 des ersten Raumobjekts, in Form eines Kastens um das Objekt, mittels des Headsets abgebildet wird. 8b schematically shows a stage of the scanning process in which the user has scanned a first spatial object 84, namely the table, so that a virtualized representation 86 of the first spatial object, in the form of a box around the object, is displayed by means of the headset.

8c zeigt schematisch ein Stadium des Scanvorgangs, in dem der Benutzer ein zweites Raumobjekt 85, nämlich das Sofa, gescannt hat, so dass eine virtualisierte Darstellung 87 des zweiten Raumobjekts, in Form eines Kastens um das Objekt, mittels des Headsets abgebildet wird. 8c schematically shows a stage of the scanning process in which the user has scanned a second spatial object 85, namely the sofa, so that a virtualized representation 87 of the second spatial object, in the form of a box around the object, is displayed by means of the headset.

Durch dieses Scannen durch den Benutzer können die physischen Objekte in eine virtuelle Umgebung integriert werden, wie dies oben unter Bezug auf 7 näher beschrieben ist. Auf diese Weise kann der Benutzer, während er in eine virtuelle Umgebung eintaucht, um die physischen Objekte herum navigieren und mit den physischen Objekten interagieren. Through this scanning by the user, the physical objects can be integrated into a virtual environment, as described above with reference to 7 This allows the user to navigate around and interact with physical objects while immersed in a virtual environment.

8d zeigt schematisch ein Stadium des Scanvorgangs, in dem der Benutzer nach Beenden des Scannens der Raumobjekte, das Scannen der Wände des Raums durchgeführt hat, so dass eine virtualisierte Darstellung 88 der Wände des Raums auf dem Headset abgebildet wird. Die Wände sind durch gestrichelte Linien symbolisch dargestellt. 8d schematically shows a stage of the scanning process in which the user, after completing the scanning of the room objects, has scanned the walls of the room so that a virtualized representation 88 of the walls of the room is displayed on the headset. The walls are symbolically represented by dashed lines.

8e zeigt schematisch den fertig gescannten Raum. Mittels dem Headset werden sowohl virtualisierte Darstellungen der gescannten Raumobjekte als auch virtualisierte Darstellungen der Wände abgebildet. 8e shows a schematic of the finished scanned room. The headset displays both virtualized representations of the scanned room objects and virtualized representations of the walls.

Mittels einer Starttaste die dem Benutzer mittels des Displays des Headsets angezeigt wird, kann der Benutzer das Benutzererlebnis mit dem neu erstellten Scan starten, wie dies in den obigen 5, 6 und 7 beschrieben ist.By means of a start button that is displayed to the user via the headset display, the user can start the user experience with the newly created scan, as shown in the above 5 , 6 and 7 described.

In 9 ist gezeigt, wie der Benutzer das Scannen eines Raumobjekts mittels der oben beschriebenen Handgesten virtuell erlebt, wobei in 9 nur die dem Benutzer eingeblendeten virtuellen Objekte dargestellt sind, nicht aber der reale Raumeindruck, der mittels Kameras des Headsets erfasst wird und dem Benutzer gleichzeitig mit den virtuellen Objekten angezeigt wird (was in 9 aus Gründen der Übersichtlichkeit nicht dargestellt ist). Zum Scannen eines Raumobjekts zeigt der Benutzer in einem ersten Schritt (nicht dargestellt) mit einer Zeigegeste der linken Hand 81 auf eine erste Ecke, beispielsweise die linke vordere obere Ecke, des zu scannenden Objekts und führt dann mit der rechten Hand 82 eine Bestätigungsgeste aus, um einen ersten Eckpunkt festzulegen. In einem zweiten Schritt (nicht dargestellt) zeigt der Benutzer mit der linken Hand 81 auf eine zweite Ecke, beispielsweise die linke hintere obere Ecke, des Objekts und führt dann mit der rechten Hand erneut die Bestätigungsgeste aus, um einen zweiten Eckpunkt des zu scannenden Objekts festzulegen. In einem in 9 dargestellten dritten Schritt zeigt der Benutzer mit der linken Hand 81 auf eine dritte Ecke, beispielsweise die rechte vordere obere Ecke 83, des Objekts und führt dann mit der rechten Hand 82 erneut die Bestätigungsgeste aus, um einen dritten Eckpunkt festzulegen. 9 zeigt den Zeitpunkt kurz nach Bestätigung des dritten Eckpunkts 83 durch die Bestätigungsgeste der rechten Hand 82 (der Daumen der rechten Hand ist bereits wieder vom Zeigefinger der Hand gelöst). Nach Festlegen dieser drei Eckpunkte wird auf dem Headset ein dem Raumobjekt entsprechendes virtuelles Objekt in Form eines Kastens abgebildet, der durch die drei Eckpunkte und die vordefinierte Ebene des Bodens des Raumes definiert ist. In 9 is shown how the user virtually experiences the scanning of a spatial object using the hand gestures described above, whereby 9 only the virtual objects displayed to the user are shown, but not the real spatial impression, which is captured by the headset's cameras and displayed to the user at the same time as the virtual objects (which in 9 not shown for reasons of clarity). To scan a spatial object, the user points with the left hand 81 to a first corner, for example the left front upper corner, of the object to be scanned with a pointing gesture and then performs a confirmation gesture with the right hand 82 to set a first corner point. In a second step (not shown), the user points with the left hand 81 to a second corner, for example the left rear upper corner, of the object and then performs the confirmation gesture again with the right hand to set a second corner point of the object to be scanned. In a 9 In the third step shown, the user points with the left hand 81 to a third corner, for example the right front upper corner 83, of the object and then performs the confirmation gesture again with the right hand 82 to specify a third corner point. 9 shows the point in time shortly after confirmation of the third corner point 83 by the confirmation gesture of the right hand 82 (the thumb of the right hand has already been released from the index finger of the hand). After setting these three corner points, a virtual object corresponding to the room object is displayed on the headset in the form of a box that is defined by the three corner points and the predefined level of the floor of the room.

Beispielsweise ergibt sich - unter der Annahme, dass eine Seitenfläche senkrecht zum Boden steht - aus einem ersten und einem zweiten Vermessungspunkten eine erste Seitenfläche des Kastens. Durch Parallelverschiebung der ersten Seitenfläche zum dritten Vermessungspunkt ergibt sich eine erste Seitenfläche des Kastens, die der ersten Seitenfläche gegenüberliegt. Die weiteren Seitenflächen des Kastens ergeben sich aus diesen beiden Seitenflächen.For example, assuming that a side surface is perpendicular to the ground, a first side surface of the box is obtained from a first and a second measurement point. By moving the first side surface parallel to the third measurement point, a first side surface of the box is obtained that is opposite the first side surface. The other side surfaces of the box are obtained from these two side surfaces.

Als untere Begrenzung der virtuellen Box wird - wie oben beschrieben - automatisch entweder die Grundebene des Raums oder die Oberkante einer darunterliegenden Geometrie gewählt, falls bereits ein Objekt gescannt wurde, das sich unter dem neu hinzukommenden Objekt befindet. Die Begrenzung kann beispielsweise die Oberkante eines Tischs sein, während man ein Objekt auf dem Tisch scannt.As described above, the lower boundary of the virtual box is automatically chosen to be either the ground plane of the room or the upper edge of an underlying geometry if an object has already been scanned that is located under the new object. The boundary can, for example, be the upper edge of a table while scanning an object on the table.

Die drei Punkte können entweder im oder gegen den Uhrzeigersinn bestätigt werden.The three points can be confirmed either clockwise or counterclockwise.

Die oben beschriebene Vorgehensweise zum manuellen Scannen eines Raumobjekts durch Berührung verwendet vordefinierte Gesten, um Benutzereingaben zu erkennen. Sie ermöglicht ein direktes physisches Feedback durch Berühren von realen Objekten mit den Händen.The approach described above for manually scanning a spatial object by touch uses predefined gestures to detect user inputs and enables direct physical feedback by touching real objects with the hands.

Beispielsweise ergibt sich - unter der Annahme, dass eine Seitenfläche senkrecht zum Boden steht - aus einem ersten und einem zweiten Vermessungspunkten eine erste Seitenfläche des Kastens. Durch Parallelverschiebung der ersten Seitenfläche zum dritten Vermessungspunkt ergibt sich eine erste Seitenfläche des Kastens, die der ersten Seitenfläche gegenüberliegt. Die weiteren Seitenflächen des Kastens ergeben sich aus diesen beiden Seitenflächen.For example, assuming that a side surface is perpendicular to the ground, a first side surface of the box results from a first and a second measurement point. Parallel displacement of the first side surface to the third measurement point results in a first side surface of the box that is opposite the first side surface. The other side surfaces of the box result from these two side surfaces.

Die Scandaten (beispielsweise Eckpunkte), die physische Objekte repräsentieren, können darüber hinaus einige Informationen über die Art des Objekts enthalten, die über die Orts- und Geometriedaten hinausgehen und eine Klassifizierung oder Kategorisierung des jeweiligen Objekts ermöglichen. Diese Klassifizierung ist beispielsweise relevant für die spätere Verwendung der Scandaten beim Aufbauen einer neuen virtuellen Realität.The scan data (e.g. corner points) representing physical objects may also contain some information about the type of object that goes beyond the location and geometry data and allows a classification or categorization of the respective object. This classification is relevant, for example, for the later use of the scan data when building a new virtual reality.

In einer zweiten Phase, nach Beenden des Scannens der Raumobjekte, kann der Benutzer durch ähnliche Vorgehensweise die Wände des Raumes scannen, um diese gemeinsam mit den gescannten physischen Objekten in einer virtualisierten Darstellung abzubilden. Sobald der Benutzer durch eine Eingabe bestätigt hat, dass er keine weiteren Objekte scannen möchte, wird er durch eine entsprechende Anzeige auf dem Display dazu aufgefordert, die Wände des Raumes in dem er sich aufhält zu scannen. Das Scannen der Wände des Raumes erfolgt auf ähnliche Weise wie vorgehend für die physischen Objekte beschrieben.In a second phase, after scanning the room objects has been completed, the user can scan the walls of the room using a similar procedure in order to display them together with the scanned physical objects in a virtualized representation. As soon as the user has confirmed by an input that he does not want to scan any more objects, he is prompted by a corresponding display to scan the walls of the room in which he is located. The scanning of the walls of the room is carried out in a similar way to that described above for the physical objects.

In 10 ist gezeigt, wie der Benutzer das Scannen einer Wand eines Raumes mittels der oben beschriebenen Handgesten virtuell erlebt. Wie bei den 3d und 9 sind in 10 nur die dem Benutzer eingeblendeten virtuellen Objekte dargestellt, nicht aber der reale Raumeindruck, der mittels Kameras des Headsets erfasst wird und dem Benutzer gleichzeitig mit den virtuellen Objekten angezeigt wird (was in 10 aus Gründen der Übersichtlichkeit nicht dargestellt ist). Zum Scannen einer Wand zeigt der Benutzer, in einem ersten Schritt (nicht dargestellt), mit der linken Hand auf einen ersten Eckpunkt am linken Ende der Wand und führt mit der rechten Hand die Bestätigungsgeste aus, um einen ersten Eckpunkt festzulegen. In einem zweiten Schritt zeigt der Benutzer mit der linken Hand auf einen zweiten Eckpunkt am rechten Ende der Wand und führt dann erneut mit der rechten Hand die Bestätigungsgeste aus, um einen zweiten Eckpunkt festzulegen. 9 zeigt den Zeitpunkt, zu dem die linke Hand 81 auf den zweiten Eckpunkt 89 am rechten Ende der Wand zeigt und die rechte Hand 82 die Bestätigungsgeste ausführt. Nach Festlegen dieser zwei Eckpunkte wird dem Benutzer mittels des Headsets eine der Wand entsprechende virtuelle Fläche angezeigt, die durch die zwei Eckpunkte und die vordefinierte Ebene des Bodens des Raumes definiert ist.In 10 is shown how the user virtually experiences the scanning of a wall of a room using the hand gestures described above. As with the 3d and 9 are in 10 only the virtual objects displayed to the user are shown, but not the real spatial impression, which is captured by the headset's cameras and displayed to the user at the same time as the virtual objects (which in 10 not shown for reasons of clarity). To scan a wall, the user, in a first step (not shown), points with the left hand to a first corner point at the left end of the wall and performs the confirmation gesture with the right hand to set a first corner point. In a second step, the user points with the left hand to a second corner point at the right end of the wall and then performs the confirmation gesture again with the right hand to set a second corner point. 9 shows the time at which the left hand 81 points to the second corner point 89 at the right end of the wall and the right hand 82 performs the confirmation gesture. After setting these two corner points, the user is shown a virtual surface corresponding to the wall via the headset, which is defined by the two corner points and the predefined plane of the floor of the room.

Bei der Erzeugung der virtuellen Ebene, welche die Wand beschreibt, wird davon ausgegangen, dass die Wand senkrecht zum Boden steht und durch die festgelegten zwei Eckpunkte läuft. Die virtuelle Wand wird seitlich durch die festgelegten Eckpunkte begrenzt. Nach unten wird die erzeugte virtuelle Wand durch den vordefinierten Boden begrenzt, der dem realen Boden des Raumes entspricht, in dem der Benutzer sich während der VR/AR-Erfahrung bewegt. Nach oben wird die virtuelle Wand durch eine vordefinierte Raumhöhe begrenzt, wobei diese Raumhöhe (bzw. Wandhöhe) in einem virtuellen Erlebnis beliebig gewählt werden kann und nicht unbedingt der physikalischen Raumhöhe des realen Raumes entsprechen muss, in dem sich der Benutzer während der VR/AR-Erfahrung bewegt. Dies liegt daran, dass der Benutzer während der VR/AR-Erfahrung normaler Weise nicht mit der Decke des physikalischen Raumes, in dem er sich bewegt, in Berührung kommt.When generating the virtual plane that describes the wall, it is assumed that the wall is perpendicular to the floor and runs through the two specified corner points. The virtual wall is limited laterally by the specified corner points. The generated virtual wall is limited downwards by the predefined floor, which corresponds to the real floor of the room in which the user moves during the VR/AR experience. The virtual wall is limited upwards by a predefined room height, whereby this room height (or wall height) can be chosen arbitrarily in a virtual experience and does not necessarily have to correspond to the physical room height of the real room in which the user moves during the VR/AR experience. This is because the user does not normally come into contact with the ceiling of the physical room in which he moves during the VR/AR experience.

Bei dem Verfahren ist es somit unerheblich, in welcher Höhe ein Eckpunkt der Wand aufgezeichnet wird. Der Benutzer kann beim Scannen der Wand eine für ihn bequeme Höhe wählen, um die wanddefinierenden Eckpunkte festzulegen.In this method, it is therefore irrelevant at what height a corner point of the wall is recorded. When scanning the wall, the user can choose a comfortable height to determine the corner points that define the wall.

Das hier gezeigte Beispiel zum Scannen einer oder mehrerer Wände ist besonders effizient, da der Benutzer zum Scannen eines üblichen Raumes mit vier Wänden nur vier Eckpunkte des Raums festlegen muss, wobei jeder Eckpunkt in einer jeweiligen der vier Ecken des Raumes liegt. Jeweils zwei der vier gescannten Eckpunkte definieren eine Wand des Raumes. So definiert beispielsweise ein erster aufgezeichneter Eckpunkt und ein zweiter aufgezeichneter Eckpunkt eine erste Wand des Raumes, der zweite aufgezeichnete Eckpunkt und ein dritter aufgezeichneter Eckpunkt definieren eine zweite Wand des Raumes, der dritte aufgezeichnete Eckpunkt und ein vierter aufgezeichneter Eckpunkt definieren eine dritte Wand des Raums, die der ersten Wand gegenüberliegt und der vierte aufgezeichnete Eckpunkt und der erste aufgezeichnete Eckpunkt definieren eine vierte Wand des Raums, die der zweiten Wand gegenüberliegt.The example shown here for scanning one or more walls is particularly efficient because to scan a typical room with four walls the user only needs to specify four corner points of the room, with each corner point located in a respective one of the four corners of the room. Any two of the four scanned corner points define a wall of the room. For example, a first recorded corner point and a second recorded corner point define a first wall of the room, the second recorded corner point and a third recorded corner point define a second wall of the room, the third recorded corner point and a fourth recorded corner point define a third wall of the room that is opposite the first wall, and the fourth recorded corner point and the first recorded corner point define a fourth wall of the room that is opposite the second wall.

Der Benutzer fährt mit diesem Vorgehen so lange fort, bis alle Wände eines Raumes vermessen sind. Wenn die letzte Wand vermessen ist, führt der Benutzer beispielsweise eine vordefinierte Geste (beispielsweise „Daumen nach oben“) aus, so dass die vermessenen Wände im obigen Sinne untereinander verbunden werden.The user continues this process until all walls in a room have been measured. When the last wall has been measured, the user performs a predefined gesture (e.g. "thumbs up") so that the measured walls are connected to each other in the above sense.

Auf die oben beschriebene Weise können beliebig viele Räume durch den Benutzer gescannt werden.In the manner described above, any number of rooms can be scanned by the user.

Bei manuellen Scannern gibt es verschiedene Ansätze, um Objekte zu markieren und zuzuordnen. Der oben beschriebene Ansatz ist auf die Hände des Benutzers (und damit auf die Gestenerkennung einer VR-Konsole) basiert, um Objekte zu scannen. Jedoch können alternativ auch VR-Controller (Steuergeräte) zum Zeigen und Bestätigen verwendet werden.There are different approaches to marking and assigning objects with manual scanners. The approach described above relies on the user's hands (and thus on the gesture recognition of a VR console) to scan objects. However, VR controllers can alternatively be used for pointing and confirming.

11 zeigt eine beispielhafte Datenstruktur einer gescannten virtuellen Umgebung, wie sie durch den oben dargestellten Scan-Prozess gewonnen wird. Die Datenstruktur umfasst mehrere gespeicherte Scans, wovon ein erster gespeicherter Scan Profil_0 und ein n-ter gespeicherter Scan Profil_n gezeigt sind. Der erste gespeicherte Scan Profil_0 umfasst einen ersten Raum Raum_0, einen zweiten Raum Raum_1 und einen dritten Raum Raum_2. Raum_0 umfasst eine Unterstruktur 11 shows an example data structure of a scanned virtual environment, as obtained by the scanning process shown above. The data structure comprises several stored scans, of which a first stored scan Profile_0 and an nth stored scan Profile_n are shown. The first stored scan Profile_0 comprises a first room Room_0, a second room Room_1 and a third room Room_2. Room_0 comprises a substructure

Raumobjekte_0 gescannter Objekte des Raumes und eine Unterstruktur Wände_0 gescannter Wände des Raumes. Raum_1 umfasst eine Unterstruktur Raumobjekte_1 gescannter Objekte des Raumes, aber keine zugewiesenen Wände. Raum_2 hat noch keine zugewiesenen Objekte oder Wände. Der n-te gespeicherten Scan Profil_n umfasst einen n-ten Raum Raum_n und einen n+1-ten Raum Raum_n+1 und einen dritten Raum Raum_2. Raum_n umfasst eine Unterstruktur Raumobjekte_n gescannter Objekte des Raumes. Raum_n+1 umfasst eine Unterstruktur Wände_n+1 gescannter Wände des Raumes.RoomObjects_0 of scanned objects of the room and a substructure Walls_0 of scanned walls of the room. Room_1 includes a substructure RoomObjects_1 of scanned objects of the room, but no assigned walls. Room_2 has no assigned objects or walls yet. The nth saved scan Profile_n includes an nth room Room_n and an n+1th room Room_n+1 and a third room Room_2. Room_n includes a substructure RoomObjects_n of scanned objects of the room. Room_n+1 includes a substructure Walls_n+1 of scanned walls of the room.

Tracking von klassifizierten Objekten in Raum-Scans mit Echtzeit-Daten durch Funk- und Optik-TrackerTracking of classified objects in room scans with real-time data through radio and optical trackers

Um dem Nutzer von Extended-Reality-Geräten die Möglichkeit zu bieten sich in einem Gefüge von realen Objekten frei in virtuellen Umgebungen zu bewegen, ist es, wie oben beschrieben, hilfreich, mit einem digitalen Abbild der Geometrie der Realität zu arbeiten. Mit den Ausführungsbeispielen, die im Folgenden beschrieben werden, wird ein Raumverständnis des Extended-Reality-Gerätes bereitgestellt, das auf veränderliche Positionen der realen Objekte reagieren kann, die es umgeben.In order to offer the user of extended reality devices the possibility of moving freely in a structure of real objects in virtual environments, it is helpful, as described above, to work with a digital image of the geometry of reality. The embodiments described below provide a spatial understanding of the extended reality device that can react to changing positions of the real objects that surround it.

Um trotz der Verwendung eines einmalig angefertigten statischen Raum-Scans einzelne virtuelle Objekte analog zu den Positionsänderungen ihrer realen Gegenstücke zu bewegen, wird die Scan-Erstellung mit der manuellen oder automatischen Klassifizierung der gescannten Objekte in realen Innen- oder Außenräumen durch Extended-Reality-Geräte, die sich durch Inside-Out-Tracking im Raum verorten, mit dem Prinzip von Funk- oder Optik-Trackern kombiniert, die durch das Extended-Reality-Gerät in ihrer Position erkannt werden. Um virtuellen Objekten die Eigenschaft der freien Positionierung im Raum zuzuordnen, werden die dafür vorgesehenen im Raum befindlichen Funk- oder Optik-Tracker mit den entsprechenden klassifizierten virtuellen Objekten logisch verknüpft.In order to move individual virtual objects analogously to the position changes of their real counterparts despite the use of a one-time static room scan, the scan creation is combined with the manual or automatic classification of the scanned objects in real indoor or outdoor spaces by extended reality devices that locate themselves in the room using inside-out tracking, with the principle of radio or optical trackers that are recognized in their position by the extended reality device. In order to assign virtual objects the property of free positioning in space, the radio or optical trackers provided for this purpose in the room are logically linked to the corresponding classified virtual objects.

Da sich die Realität um den Nutzer während der Nutzung von Extended-Reality-Geräten in ihrer geometrischen Form verändern kann, sollte ein okkludierendes digitales Abbild eines sich bewegenden Objektes auf diesen Umstand reagieren. Wenn für das digitale Abbild mit einem statischen Scan gearbeitet wird, der entweder manuell oder automatisch erzeugt wurde und dessen Objekte auf Grund ihrer Beschaffenheit und Zweck klassifiziert wurden, müssen jegliche Parameter, die ihre Position in der realen Welt kontinuierlich verändern, gesondert aufgezeichnet werden. Dies kann durch dedizierte Funk- und Optik-Tracker erfolgen, die logisch mit den klassifizierten beweglichen Objekten im Raum-Scan verknüpft werden.Since the reality around the user can change in its geometric shape during the use of extended reality devices, an occluding digital image of a moving object should react to this circumstance. If the digital image is based on a static scan that was generated either manually or automatically and whose objects were classified based on their nature and purpose, any parameters that continuously change their position in the real world must be recorded separately. This can be done by dedicated radio and optical trackers that are logically linked to the classified moving objects in the spatial scan.

Im Rahmen des Inside-Out-Trackings ist es Extended-Reality-Geräten, wie Handhelds und Brillen, möglich, sich durch SLAM-Methoden uneingeschränkt selbst im Raum zu lokalisieren. Wenn die realen Objekte dabei von virtuellen Inhalten okkludiert werden, sollten die virtuellen Objekte die realen Geometrien passend abbilden und auf deren Bewegungen reagieren. Durch die Vermeidung von Abweichungen zwischen realen Geometrien und virtuellen Objekten werden Kollisionen zwischen Nutzer und realen Gegenständen vermieden.Inside-out tracking allows extended reality devices such as handhelds and glasses to locate themselves in space without restrictions using SLAM methods. If the real objects are occluded by virtual content, the virtual objects should appropriately map the real geometries and react to their movements. By avoiding deviations between real geometries and virtual objects, collisions between users and real objects are avoided.

Je nach technischer Ausstattung des Extended-Reality-Geräts kann zur Kartografierung der Realität eine Lösung zur Verwendung kommen, die nur zu Beginn der Nutzung des Extended-Reality-Geräts ein Mal die Geometrie vermisst, wie dies in den 8a-e, 9 und 10 oben beispielhaft dargestellt ist. Dabei ist es egal, ob die Vermessung der Geometrien manuell durch das Zutun des Nutzers oder automatisch durch laser- oder videobasierte Methoden stattfindet. Um trotz dieses statischen Raum-Scans einzelne reale bewegliche Geometrien und ihre Positionen im Raum live zu tracken, liegt der Ansatz der im Folgenden beschriebenen Ausführungsbeispiele in der Kombination der eindeutigen Klassifizierung aller im Scan vorhandenen Geometrien und der Verbindung dieser mit Funk- oder Optik-Trackern.Depending on the technical equipment of the extended reality device, a solution can be used to map reality that only measures the geometry once at the beginning of the use of the extended reality device, as is the case in the 8a -e, 9 and 10 It does not matter whether the measurement of the geometries is done manually by the user or automatically by laser or video-based methods. In order to track individual real moving geometries and their positions in space live despite this static room scan, the approach of the following The described embodiments combine the clear classification of all geometries present in the scan and the connection of these with radio or optical trackers.

Die Funk- oder Optik-Tracker, beispielsweise Infrarot-, Bluetooth- oder UWB-Tracker, werden logisch mit einzelnen klassifizierten Objekten in Beziehung gebracht. Dadurch kann pro Tracker das virtuelle Gegenstück eines sich bewegenden realen Objektes in einem statisch erzeugten Scan live verfolgt werden.The radio or optical trackers, such as infrared, Bluetooth or UWB trackers, are logically related to individual classified objects. This means that the virtual counterpart of a moving real object can be tracked live in a statically generated scan for each tracker.

In einem realen Innen- oder Außenraum ist zu erkennen, dass gewöhnlicherweise reale Objekte auf Grund ihrer Eigenschaften vornehmlich entweder eher fest oder eher beweglich positioniert sind. Durch eine Einordnung des Verhaltens der realen Objekte kann entschieden werden, an welchen Objekten die Anbringung von Funk- und Optik-Trackern sinnvoll ist, um ihr Verhalten in Bewegung zu verfolgen.In a real indoor or outdoor space, it can be seen that real objects are usually positioned either in a fixed or a mobile manner due to their properties. By classifying the behavior of the real objects, it can be decided which objects make sense to attach radio and optical trackers to in order to track their behavior in motion.

In den folgenden 12 und 13a-d wird davon ausgegangen, dass es im realen Raum Objekte gibt, die in ihrer Form vornehmlich statisch 4 positioniert sind, und solche, die vornehmlich frei 5 bewegt werden.In the following 12 and 13a -d it is assumed that in real space there are objects that are primarily statically positioned 4 and those that are primarily freely moved 5 .

12 zeigt eine genauere Darstellung der Unterstruktur Raumobjekte_0 der 11 des Raums Raum_0. Die Unterstruktur Raumobjekte_0 umfasst die gescannten Objekte Objekt_0, Objekt_1, Objekt_2 und Objekt_3. Objekt_0 der Raumobjekte_0 ist ein Objekt, das im Raum statisch positioniert ist und ist deswegen nicht mit einem Tracker verbunden. Objekt_1 der Raumobjekte_0 ist ein Objekt, das frei bewegt werden kann und ist deswegen mit einem Tracker_0 logisch verbunden. Objekt_2 der Raumobjekte_0 ist ein Objekt, das frei bewegt werden kann und ist deswegen mit einem Tracker_1 logisch verbunden. Objekt_3 der Raumobjekte_0 ist ein Objekt, das im Raum statisch positioniert ist und ist deswegen nicht mit einem Tracker verbunden. 12 shows a more detailed representation of the substructure Raumobjekte_0 of the 11 of the room Room_0. The substructure Room_Objects_0 includes the scanned objects Object_0, Object_1, Object_2 and Object_3. Object_0 of the Room_Objects_0 is an object that is statically positioned in the room and is therefore not connected to a tracker. Object_1 of the Room_Objects_0 is an object that can be moved freely and is therefore logically connected to a Tracker_0. Object_2 of the Room_Objects_0 is an object that can be moved freely and is therefore logically connected to a Tracker_1. Object_3 of the Room_Objects_0 is an object that is statically positioned in the room and is therefore not connected to a tracker.

Das Verknüpfen der virtuellen Objekte mit den im Raum befindlichen Funk- oder Optik-Tracker erfolgt beispielsweise, indem der Nutzer in der Benutzeroberfläche des Scanning-Programms auf dem Extended-Reality-Gerät die erweiterte Eigenschaft für ein klassifiziertes Objekt auswählt und die Tracker-Identifikationsmerkmale angibt.The virtual objects are linked to the radio or optical trackers located in the room, for example, by the user selecting the extended property for a classified object in the user interface of the scanning program on the extended reality device and specifying the tracker identification features.

13a zeigt den Raum, dem die Datenstruktur Raumobjekte_0 zugeordnet ist. Der Raum umfasst einen Tisch 85, welcher als Objekt 0 in der Datenstruktur Raumobjekte_0 erfasst ist, das ein entsprechendes virtuelles Objekt referenziert. Der Tisch 85 wird als statisch betrachtet. Der Raum umfasst ferner einen Gegenstand 86, der sich auf dem Tisch 85 befindet. Der Gegenstand 89 wird als beweglich betrachtet. Der Raum umfasst ferner eine Türe 90, die in einer Wand angeordnet ist. Die Türe 90 wird als beweglich betrachtet. Der Raum umfasst ferner ein Sofa 85. Das Sofa 85 wird als beweglich betrachtet. 13a shows the room to which the data structure RoomObjects_0 is assigned. The room includes a table 85, which is recorded as object 0 in the data structure RoomObjects_0, which references a corresponding virtual object. The table 85 is considered static. The room further includes an object 86 located on the table 85. The object 89 is considered movable. The room further includes a door 90 arranged in a wall. The door 90 is considered movable. The room further includes a sofa 85. The sofa 85 is considered movable.

13b zeigt schematisch, wie mittels des Scanning-Vorgangs aufgrund der Scanning-Methode ein virtuelles Abbild der realen Geometrie erzeugt wird. Während oder nach dem Scanning-Vorgang werden die einzelnen realen Objekte 6 in ihrer Art verstanden und die darauf liegenden virtuellen Geometrien in ihrer Form definiert und entsprechend klassifiziert. Tisch 84 ist als Objekt_0 in der Datenstruktur Raumobjekte_0 erfasst, das ein entsprechendes virtuelles Objekt referenziert. Sofa 85 ist als Objekt_3 in der Datenstruktur Raumobjekte_0 erfasst, das ein entsprechendes virtuelles Objekt referenziert. Gegenstand 89 ist als Objekt_1 in der Datenstruktur Raumobjekte_0 erfasst, das ein entsprechendes virtuelles Objekt referenziert. Türe 90 ist als Objekt_2 in der Datenstruktur Raumobjekte_0 erfasst, das ein entsprechendes virtuelles Objekt referenziert. 13b shows schematically how a virtual image of the real geometry is created by means of the scanning process based on the scanning method. During or after the scanning process, the type of the individual real objects 6 is understood and the virtual geometries lying on them are defined in their shape and classified accordingly. Table 84 is recorded as object_0 in the data structure room objects_0, which references a corresponding virtual object. Sofa 85 is recorded as object_3 in the data structure room objects_0, which references a corresponding virtual object. Object 89 is recorded as object_1 in the data structure room objects_0, which references a corresponding virtual object. Door 90 is recorded as object_2 in the data structure room objects_0, which references a corresponding virtual object.

Das Ziel des Raum-Scans ist es, ein digitales Abbild des realen Raumes zu erzeugen, das geometrisch mit der Realität übereinstimmt. Das kann mit Hilfe des Nutzers durch händisches Abmessen oder durch eine automatische Abtastung des Raumes durch die Sensoren des Extended-Reality-Geräts passieren. Während dieses Vorgangs oder danach werden die virtuellen Objekt-Geometrien basierend auf den realen Objekten, die ihnen zu Grunde liegen, durch den Nutzer oder automatisch durch die Scanning-Software klassifiziert und in ihrer Gesamtform verstanden. Dies ist notwendig, um den virtuellen Objekten für die Unabhängigkeit von einer statischen Position verschiedene Eigenschaften zuweisen zu können.The aim of the room scan is to create a digital image of the real room that geometrically corresponds to reality. This can be done with the help of the user by measuring manually or by an automatic scanning of the room by the sensors of the extended reality device. During this process or afterwards, the virtual object geometries are classified by the user or automatically by the scanning software based on the real objects on which they are based and their overall shape is understood. This is necessary in order to be able to assign different properties to the virtual objects so that they are independent of a static position.

13c zeigt schematisch, wie - sobald Funk- oder Optik-Tracker an realen Objekten platziert werden - diese durch das Extended-Reality-Gerät mit virtuellen Objekten verknüpft werden, um die realen Objekte in ihrer relativen Position zum Gerät zu verfolgen. Dies findet unabhängig von dem SLAM-Tracking des Extended-Reality-Geräts 20 statt, das das Verhältnis zwischen Gerät und Raum verfolgt. Das virtuelle Objekt Objekt_1, das dem Gegenstand (89 in 13a) auf dem Tisch (84 in 1a3) entspricht, ist logisch mit einem Tracker Tracker_0 verknüpft. Das virtuelle Objekt Objekt_2, das der Türe (90 in 13a) entspricht, ist logisch mit einem Tracker Tracker_1 verknüpft. Den virtuellen Objekten wird die Eigenschaft der freien Positionierung im Raum zugeordnet, indem die dafür vorgesehenen im Raum befindlichen Funk- oder Optik-Tracker mit den entsprechenden virtuellen Objekten logisch verknüpft werden. 13c shows schematically how - as soon as radio or optical trackers are placed on real objects - these are linked to virtual objects by the extended reality device in order to track the real objects in their relative position to the device. This takes place independently of the SLAM tracking of the extended reality device 20, which tracks the relationship between device and space. The virtual object Object_1, which corresponds to the object (89 in 13a) on the table (84 in 1a3 ) is logical linked to a tracker Tracker_0. The virtual object Object_2, which is the door (90 in 13a) is logically linked to a tracker Tracker_1. The virtual objects are assigned the property of free positioning in space by logically linking the radio or optical trackers provided for this purpose in the room with the corresponding virtual objects.

Um Funk- und Optik-Tracker wie beispielsweise Infrarot-, Bluetooth- oder UWB-Tracker nutzen zu können ist das im Raum verwendete Extended-Reality-Gerät dieses Ausführungsbeispiels nicht nur in der Lage, seine Relation zur realen Geometrie durch Inside-Out-Tracking zu berechnen, sondern es kann analog dazu dessen räumliche Relation zum Tracker durch die direkte Funk- oder Optikverbindung in Echtzeit verfolgen.In order to be able to use radio and optical trackers such as infrared, Bluetooth or UWB trackers, the extended reality device used in the room in this embodiment is not only able to calculate its relation to the real geometry through inside-out tracking, but it can also track its spatial relation to the tracker in real time through the direct radio or optical connection.

Bei einer Nutzung von unterschiedlichen Technologien für Inside-Out-Tracking des Extended Reality-Geräts und Verortung der Tracker durch dieses, wie zum Beispiel bei einer Mischung von Funk- und Optikdaten, wird darauf geachtet, dass es nicht zu Verzögerung oder Versatz der Daten kommt, damit die räumliche Beziehung der realen Objekte im Raum mit der Anzeige der virtuellen Objekte übereinstimmt.When using different technologies for inside-out tracking of the extended reality device and location of the trackers by it, such as when mixing radio and optical data, care is taken to ensure that there is no delay or offset in the data so that the spatial relationship of the real objects in the room matches the display of the virtual objects.

13d zeigt schematisch, wie - sobald Funk- oder Optik-Tracker 7 an realen Objekten platziert werden - diese durch das Extended-Reality-Gerät 8 in ihrer relativen Position zum Gerät verfolgt werden. Das Extended-Reality-Gerät bewegt, während es die Bewegung der Tracker Tracker_0 und Tracker_1 verfolgt, die jeweiligen logisch verknüpften virtuellen Objekte Objekt_1 und Objekt 2 des klassifizierten Raum-Scans analog dazu. Beispielsweise hat sich die Türe (90 in 13a), die mit dem Tracker_1 verknüpft ist geöffnet. Diese Bewegung wird vom Tracker_1 verfolgt und das Extended-Reality-Gerät überträgt die Bewegung der realen Türe auf das damit verknüpfte virtuelle Objekt Objekt_2. Im Beispiel hier wird beispielsweise eine virtuelle Türe geöffnet, deren Position der realen Türe entspricht. Wenn im realen Raum durch den Nutzer während der Nutzung des Extended-Reality-Geräts eine reale Geometrie bewegt wird, an der ein Funk- oder Optik-Tracker befestigt ist, wird diese Bewegung in Echtzeit durch das Extended-Reality-Gerät verarbeitet werden. Durch die direkte Verbindung von Extended-Reality-Gerät und Tracker wird dieses analog zur Positionsveränderung des Trackers im realen Raum das logisch verknüpfte digitale Objekt im digitalen Raum bewegen. Dies geschieht während die restlichen virtuellen Objekte der virtuellen Szene durch das Inside-Out Tracking des Extended-Reality-Geräts in ihrer Position gehalten werden. 13d shows schematically how - as soon as radio or optical trackers 7 are placed on real objects - these are tracked by the extended reality device 8 in their relative position to the device. While tracking the movement of the trackers Tracker_0 and Tracker_1, the extended reality device moves the respective logically linked virtual objects Object_1 and Object 2 of the classified room scan analogously. For example, the door (90 in 13a) , which is linked to Tracker_1, is opened. This movement is tracked by Tracker_1, and the extended reality device transfers the movement of the real door to the virtual object Object_2 linked to it. In the example here, for example, a virtual door is opened whose position corresponds to the real door. If the user moves a real geometry to which a radio or optical tracker is attached in real time while using the extended reality device, this movement will be processed in real time by the extended reality device. By directly connecting the extended reality device and the tracker, the tracker will move the logically linked digital object in digital space analogous to the change in position of the tracker in real space. This happens while the remaining virtual objects in the virtual scene are held in their position by the inside-out tracking of the extended reality device.

Dreidimensionale Transformationen eines virtuellen Objekts werden beispielsweise durchgeführt, indem jeder Objektpunkt (z.B. Vertex) transformiert wird.For example, three-dimensional transformations of a virtual object are performed by transforming each object point (e.g. vertex).

Wenn ein Objekt beispielsweise durch mehrere Eckpunkte definiert ist, wird die Verschiebung (Translation) beispielsweise durch Verschieben aller Eckpunkte an eine neue Positionen erreicht.For example, if an object is defined by several vertices, the translation is achieved by moving all vertices to a new position.

Statt jeden Vertex des Objekts gesondert im Raum zu positionieren wird die relative Lage der Objekt-Vertices üblicherweise in einem Objektkoordinatensystem definiert, dessen Ursprung beispielsweise im Schwerpunkt des Objekts im Raumkoordinatensystem liegt, oder an einem sonstigen Ort, der die Position des Objekts im Raumkoordinatensystem („Objektposition“) definiert.Instead of positioning each vertex of the object separately in space, the relative position of the object vertices is usually defined in an object coordinate system whose origin lies, for example, at the center of gravity of the object in the spatial coordinate system, or at another location that defines the position of the object in the spatial coordinate system ("object position").

14 zeigt schematisch ein virtuelles Objekt 93, hier in Form eines Würfels, das in einem Objektkoordinatensystem 91 definiert ist, in dem die Vertices v1, v2, v3, v4, v5, v6, v7, v8 des Objekts festgelegt sind. 14 shows schematically a virtual object 93, here in the form of a cube, which is defined in an object coordinate system 91 in which the vertices v1, v2, v3, v4, v5, v6, v7, v8 of the object are defined.

15a zeigt beispielhaft die Verschiebung eines virtuellen Objekts 93 von einer Ausgangsposition (mit durchgezogenen Linien dargestellt) in eine Endposition (mit gestrichelten Linien dargestellt). Eine Translation des Objekts 93 erfolgt in diesem Fall durch Verschiebung des Objektkoordinatensystems 91 im Raumkoordinatensystem 92, also indem die Objektposition im Raum verschoben wird. Da dadurch das gesamte Objektkoordinatensystem 91 verschoben wird, werden durch diese Verschiebung der Objektposition automatisch alle Vertices des Objekts mitverschoben. 15a shows, as an example, the displacement of a virtual object 93 from a starting position (shown with solid lines) to a final position (shown with dashed lines). In this case, the object 93 is translated by displacing the object coordinate system 91 in the spatial coordinate system 92, i.e. by displacing the object position in space. Since this displaces the entire object coordinate system 91, all vertices of the object are automatically displaced by this displacement of the object position.

Eine Translation wird in homogenen Koordinaten (in denen 3D-Transformationen durch 4x4-Matrizen dargestellt werden) üblicherweise durch eine Translationsmatrix T = ( 1 0 0 t x 0 1 0 t y 0 0 1 t z 0 0 0 1 )

Figure DE102023105347A1_0001
dargestellt, wobei tx, ty, and tz die Einträge des Translationsvektors sind.A translation is usually represented in homogeneous coordinates (in which 3D transformations are represented by 4x4 matrices) by a translation matrix T = ( 1 0 0 t x 0 1 0 t y 0 0 1 t e 0 0 0 1 )
Figure DE102023105347A1_0001
, where t x , t y , and t z are the entries of the translation vector.

Die Verschiebung eines Objekts, das sich zur Zeit t0 an der Objektposition Pobj(t0) im Raumkoordinatensystem befindet, wird durch Matrixmultiplikation wie folgt ausgedrückt: ( P o b j ( t ) ,1 ) T = T ( P o b j ( t 0 ) ,1 ) T

Figure DE102023105347A1_0002
wobei Pobj(t) die Position des Objekts zur Zeit t nach der Verschiebung ist.The displacement of an object located at the object position P obj (t 0 ) in the spatial coordinate system at time t 0 is expressed by matrix multiplication as follows: ( P O b j ( t ) ,1 ) T = T ( P O b j ( t 0 ) ,1 ) T
Figure DE102023105347A1_0002
where P obj (t) is the position of the object at time t after the translation.

Eine beliebige Rotation eines Objekts im 3D-Raum wird in homogenen Koordinaten durch drei Drehmatrizen Rz(α), Ry(γ), and Rx(β) ausgedrückt: R x = ( 1 0 0 0 0 cos β sin β 0 0 sin β cos β 0 0 0 0 1 )

Figure DE102023105347A1_0003
R z = ( cos α sin α 0 0 sin α cos α 0 0 0 0 1 0 0 0 0 1 )
Figure DE102023105347A1_0004
R y = ( cos γ 0 sin γ 0 0 1 0 0 sin γ 0 cos γ 0 0 0 0 1 )
Figure DE102023105347A1_0005
wobei α, β, und y die Drehwinkel (Euler-Winkel) sind, welche die Änderung der Orientierungsänderung des Objekts bestimmen.Any rotation of an object in 3D space is expressed in homogeneous coordinates by three rotation matrices R z (α), R y (γ), and R x (β): R x = ( 1 0 0 0 0 cos β sin β 0 0 sin β cos β 0 0 0 0 1 )
Figure DE102023105347A1_0003
R e = ( cos α sin α 0 0 sin α cos α 0 0 0 0 1 0 0 0 0 1 )
Figure DE102023105347A1_0004
R y = ( cos γ 0 sin γ 0 0 1 0 0 sin γ 0 cos γ 0 0 0 0 1 )
Figure DE102023105347A1_0005
where α, β, and y are the rotation angles (Euler angles) that determine the change in orientation of the object.

Um die Orientierung eines Objekts im dreidimensionalen Raum zu ändern, werden die Vertices gemäß der Drehwinkel α, β, und γ im Objektkoordinatensystem gedreht.To change the orientation of an object in three-dimensional space, the vertices are rotated according to the rotation angles α, β, and γ in the object coordinate system.

15b zeigt beispielhaft die Rotation eines virtuellen Objekts 93 von einer Ausgangsposition (mit durchgezogenen Linien dargestellt) in eine Endposition (mit gestrichelten Linien dargestellt). Eine Rotation des Objekts 93 erfolgt in diesem Fall durch Rotation des Objektkoordinatensystem im Raumkoordinatensystem 92, oder durch Rotation der Vertices im Objektkoordinatensystem. Im Ergebnis wird das Objekt um seinen zentralen Punkt rotiert, wie dies in 15b dargestellt ist (das Objektkoordinatensystem ist in 15b zur Vereinfachung nicht dargestellt). 15b shows, by way of example, the rotation of a virtual object 93 from a starting position (shown with solid lines) to a final position (shown with dashed lines). In this case, rotation of the object 93 is achieved by rotating the object coordinate system in the spatial coordinate system 92, or by rotating the vertices in the object coordinate system. As a result, the object is rotated around its central point, as shown in 15b is shown (the object coordinate system is in 15b not shown for simplicity).

Arbeitet man, wie oben beschrieben, mit einem Objektkoordinatensystem, kann die Orientierungsänderung des Objekts direkt im Objektkoordinatensystem vorgenommen werden, indem die Position Pvertex(t0) jedes Vertex vor der Rotation (Zeit t0) mit den entsprechenden Rotationsmatrizen multipliziert wird: ( P v e r t e x ( t ) ,1 ) T = R z ( α ) R y ( γ ) R x ( β ) ( P v e r t e x ( t 0 ) ,1 ) T

Figure DE102023105347A1_0006
wobei Pvertex(t) die Position des Vertex im Objektkoordinatensystem zur Zeit t nach der Rotation ist.If one works with an object coordinate system as described above, the orientation change of the object can be made directly in the object coordinate system by multiplying the position P vertex (t 0 ) of each vertex before the rotation (time t 0 ) with the corresponding rotation matrices: ( P v e r t e x ( t ) ,1 ) T = R e ( α ) R y ( γ ) R x ( β ) ( P v e r t e x ( t 0 ) ,1 ) T
Figure DE102023105347A1_0006
where P vertex (t) is the position of the vertex in the object coordinate system at time t after the rotation.

Es sei Ptracker(t0) die Ausgangsposition des Trackers eines Objekts zum Zeitpunkt t0 der Erzeugung des Objekts und Ptracker(t) die aktuelle Position des Trackers zum Zeitpunkt t, wie sie vom Tracker bereitgestellt werden.Let P tracker (t 0 ) be the initial position of the tracker of an object at time t 0 of the object's creation and P tracker (t) be the current position of the tracker at time t, as provided by the tracker.

Der Translationsvektor t = ( t x , t y , t z ) = P t r a c k e r ( t ) P t r a c k e r ( t 0 )

Figure DE102023105347A1_0007
beschreibt die Positionsveränderung des Trackers zwischen dem Ausgangszeitpunkt t0 der Erzeugung des Objekts und zum aktuellen Zeitpunkt t.The translation vector t = ( t x , t y , t e ) = P t r a c k e r ( t ) P t r a c k e r ( t 0 )
Figure DE102023105347A1_0007
describes the change in position of the tracker between the initial time t 0 of the creation of the object and the current time t.

Der Tracker liefert zudem die Drehwinkel α, β, und γ (Euler-Winkel), welche die Änderung der Orientierung des Trackers zwischen dem Ausgangszeitpunkt t0 und dem aktuellen Zeitpunkt t beschreiben.The tracker also provides the rotation angles α, β, and γ (Euler angles), which describe the change in the orientation of the tracker between the initial time t 0 and the current time t.

Die Drehwinkel α(t), β(t), und y(t) und der Translationsvektor t(t) = (tx(t), ty(t), tz(t)) beschreiben die Bewegung des Trackers im Raum.The rotation angles α(t), β(t), and y(t) and the translation vector t(t) = (t x (t), t y (t), t z (t)) describe the movement of the tracker in space.

Unter der Annahme, dass das dem Tracker zugeordnete virtuelle Objekt dieselbe Bewegung, d.h. Translation und Orientierungsänderung (Rotation), durchführen soll, wie der am physikalischen Objekt befestigte Tracker (bzw. das physikalische Objekt selbst) gilt für die aktuelle Position Pobj(t) des virtuellen Objekts zum Zeitpunkt t: ( P o b j ( t ) ,1 ) T = T ( t ) ( P o b j ( t 0 ) ,1 ) T

Figure DE102023105347A1_0008
wobei Pobj(t0) die Ausgangsposition des virtuellen Objekts zum Zeitpunkt t0 darstellt und T(t) die Translationsmatrix beschreibt, welche der Verschiebung zum Zeitpunkt t entspricht.Assuming that the virtual object assigned to the tracker is to perform the same movement, i.e. translation and change of orientation (rotation), as the tracker attached to the physical object (or the physical object itself), the following applies to the current position P obj (t) of the virtual object at time t: ( P O b j ( t ) ,1 ) T = T ( t ) ( P O b j ( t 0 ) ,1 ) T
Figure DE102023105347A1_0008
where P obj (t 0 ) represents the initial position of the virtual object at time t 0 and T(t) describes the translation matrix, which corresponds to the displacement at time t.

Eine Orientierungsänderung des Objekts, die jener des Trackers entspricht, kann im Objektkoordinatensystem wie folgt erreicht werden: ( P i v e r t e x ( t ) ,1 ) T = R z ( α ( t ) ) R y ( γ ( t ) ) R x ( β ( t ) ) ( P i v e r t e x ( t 0 ) ,1 ) T

Figure DE102023105347A1_0009
A change in the orientation of the object corresponding to that of the tracker can be achieved in the object coordinate system as follows: ( P i v e r t e x ( t ) ,1 ) T = R e ( α ( t ) ) R y ( γ ( t ) ) R x ( β ( t ) ) ( P i v e r t e x ( t 0 ) ,1 ) T
Figure DE102023105347A1_0009

Eine Kalibrierung erfolgt beim Erstellen des Scans, während das Headset die Ausgangsposition Ptracker(t0) des Trackers durch Funk-Daten oder eine direkte OptikVerbindung kennt. Optik-Tracker funktionieren genauso wie die Controller der Brillen selbst und haben Infrarot-Merkmale, die die Brille (oder das Smartphone/Tablet) sieht.Calibration occurs when the scan is created, while the headset knows the tracker's starting position P tracker (t 0 ) through radio data or a direct optical connection. Optical trackers work in the same way as the controllers of the glasses themselves and have infrared features that the glasses (or smartphone/tablet) see.

Um die Kalibrierung über Neustarts einer VR/AR-Anwendung zu vereinfachen, kann die Technologie der „Spatial Anchor“ eingesetzt werden. Wenn bei einem Neustart der Anwendung der Spatial Anchor den alten Scan wieder korrekt platziert, sollte es auch kein Problem sein neue Daten der Tracker einzubinden. Falls sich die beweglichen Objekte im Raum seit der letzten Benutzung der Anwendung bewegt haben, und die Tracker somit auch, kann das AR/VR-Device die logisch verknüpften virtuellen Elemente dann an die neuen Positionsdaten der Tracker anpassen - also diese verschieben.To simplify calibration when restarting a VR/AR application, the "Spatial Anchor" technology can be used. If the Spatial Anchor correctly places the old scan again when the application is restarted, it should not be a problem to integrate new data from the trackers. If the moving objects in the room have moved since the application was last used, and so have the trackers, the AR/VR device can then adapt the logically linked virtual elements to the new position data of the trackers - in other words, move them.

Durch diese direkte Verbindung von Position und Ausrichtung des virtuellen Objekts mit Position und Ausrichtung des Trackers wird das virtuelle Objekt im virtuellen Raum analog zur Positionsveränderung des Trackers im realen Raum bewegt.Through this direct connection of the position and orientation of the virtual object with the position and orientation of the tracker, the virtual object is moved in virtual space analogously to the change in position of the tracker in real space.

BezugszeichenReference symbols

20, 5020, 50
HeadsetHeadset
21, 5121, 51
Kommunikationsschnittstelle HeadsetCommunication interface headset
22, 5222, 52
IMUIMU
23, 5323, 53
BeschleunigungssensorAccelerometer
24, 5424, 54
Kameracamera
25,5525.55
Gyroskopgyroscope
26, 5626, 56
Rendering-EinheitRendering unit
27, 5727, 57
MagnetometerMagnetometer
28, 5828, 58
DisplayDisplay
30, 6030, 60
VR-KonsoleVR console
31, 6131, 61
Kommunikationsschnittstelle VR-KonsoleCommunication interface VR console
3232
GestenerkennungseinheitGesture recognition unit
33, 6333, 63
VR-EinheitVR unit
34, 6434, 64
Speichermemory
36, 6636, 66
Tracking-EinheitTracking unit
38, 6838, 68
EingabeschnittstelleInput interface
40, 4240, 42
Hand-ControllerHand controller
8080
Display-MenüDisplay menu
8181
linke Handleft hand
8282
rechte Handright hand
83, 8983, 89
Vermessungspunkt (z.B. Eckpunkt)Survey point (e.g. corner point)
8484
Raumobjekt (Tisch)Spatial object (table)
8585
Raumobjekt (Sofa)Room object (sofa)
86, 8786, 87
virtualisierte Darstellung eines Raumobjektsvirtualized representation of a spatial object
8888
virtualisierte Darstellung einer Wandvirtualized representation of a wall
8989
Raumobjekt (Gegenstand)Spatial object (object)
9090
Raumobjekt (Türe)Room object (door)
9191
ObjektkoordinatensystemsObject coordinate system
9292
RaumkoordinatensystemSpatial coordinate system

Claims (10)

Verfahren zum Scannen eines Raumes, wobei das Verfahren ein Scannen ein oder mehrerer realer Objekte des Raumes umfasst, wobei das Scannen eines Objekts (84, 85) ein Erfassen einer Anzahl von Vermessungspunkten (89) des realen Objekts (84, 85) mittels einer Geste oder eines Hand-Controllers (40, 42) umfasst und wobei die realen Objekte mit jeweiligen Funk- oder Optik-Trackern versehen werden, die in ihrer Position erkannt werden.A method for scanning a room, the method comprising scanning one or more real objects of the room, wherein scanning an object (84, 85) comprises detecting a number of survey points (89) of the real object (84, 85) by means of a gesture or a hand controller (40, 42), and wherein the real objects are provided with respective radio or optical trackers which are recognized in their position. Verfahren nach Anspruch 1, wobei durch das Scannen eines realen Objekts auf Grundlage der erfassten Vermessungspunkte ein virtuelles Objekt erzeugt wird.Procedure according to Claim 1 , whereby a virtual object is created by scanning a real object based on the recorded survey points. Verfahren nach Anspruch 1 oder 2, bei dem ein Tracker die Position des zugeordneten realen Objekts im Raum ermittelt und die vom Tracker ermittelte Position auf das verknüpfte virtuelle Objekt übertragen wird.Procedure according to Claim 1 or 2 , in which a tracker determines the position of the associated real object in space and the position determined by the tracker is transferred to the linked virtual object. Verfahren nach Anspruch 3, bei dem ein Tracker ferner die Orientierung des zugeordneten realen Objekts im Raum ermittelt und die vom Tracker ermittelte Orientierung auf das verknüpfte virtuelle Objekt übertragen wird.Procedure according to Claim 3 , in which a tracker further determines the orientation of the associated real object in space and the orientation determined by the tracker is transferred to the linked virtual object. Verfahren nach einem der vorstehenden Ansprüche, wobei beim Erzeugen des virtuellen Objekts die Position der Vermessungspunkte eines gescannten Objekts mit den Positionsinformationen des zugehörigen Trackers verknüpft werden, um den Tracker zu kalibrieren.Method according to one of the preceding claims, wherein when generating the virtual object, the position of the survey points of a scanned object are linked to the position information of the associated tracker in order to calibrate the tracker. Verfahren nach einem der vorstehenden Ansprüche, wobei das Scannen des Raumes mittels eines VR/AR-Gerätes erfolgt, das die jeweiligen Positionen der den Objekten zugeordneten Tracker erkennt.Method according to one of the preceding claims, wherein the scanning of the room is carried out by means of a VR/AR device that recognizes the respective positions of the trackers assigned to the objects. Verfahren nach Anspruch 6, wobei sich das VR/AR-Gerät durch Inside-Out-Tracking im Raum verortet.Procedure according to Claim 6 , whereby the VR/AR device locates itself in the room through inside-out tracking. Verfahren nach einem der vorstehenden Ansprüche, wobei davon ausgegangen wird, dass ein Objekt entweder statisch oder beweglich ist.Method according to one of the preceding claims, wherein it is assumed that an object is either static or moving. Verfahren nach einem der vorstehenden Ansprüche, bei dem eine Klassifizierung der gescannten Objekte erfolgt und die Klassifizierungsinformation mit den virtuellen Objekten verknüpft wird.Method according to one of the preceding claims, in which a classification of the scanned objects is carried out and the classification information is linked to the virtual objects. Vorrichtung zum Scannen eines Raumes, wobei die Vorrichtung dazu ausgelegt ist, ein Scannen ein oder mehrerer realer Objekte des Raumes durchzuführen, wobei das Scannen eines realen Objekts (84, 85) ein Erfassen einer Anzahl von Vermessungspunkten (89) des realen Objekts (84, 85) mittels einer Geste oder eines Hand-Controllers (40, 42) umfasst und wobei die Vorrichtung dazu ausgelegt ist, Positionsinformationen von jeweiligen Funk- oder Optik-Trackern zu empfangen und diese mit jeweiligen virtuellen Objekt zu verknüpfen.Device for scanning a room, wherein the device is designed to perform a scan of one or more real objects of the room, wherein the scanning of a real object (84, 85) comprises detecting a number of survey points (89) of the real object (84, 85) by means of a gesture or a hand controller (40, 42) and wherein the device is designed to receive position information from respective radio or optical trackers and to link this to respective virtual objects.
DE102023105347.7A 2023-03-03 2023-03-03 Enrichment of classified objects in room scans with real-time data through radio and optical trackers Ceased DE102023105347A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023105347.7A DE102023105347A1 (en) 2023-03-03 2023-03-03 Enrichment of classified objects in room scans with real-time data through radio and optical trackers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023105347.7A DE102023105347A1 (en) 2023-03-03 2023-03-03 Enrichment of classified objects in room scans with real-time data through radio and optical trackers

Publications (1)

Publication Number Publication Date
DE102023105347A1 true DE102023105347A1 (en) 2024-09-05

Family

ID=92422408

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023105347.7A Ceased DE102023105347A1 (en) 2023-03-03 2023-03-03 Enrichment of classified objects in room scans with real-time data through radio and optical trackers

Country Status (1)

Country Link
DE (1) DE102023105347A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007059478A1 (en) * 2007-12-11 2009-06-18 Kuka Roboter Gmbh Method and system for aligning a virtual model with a real object
US10586302B1 (en) * 2017-08-23 2020-03-10 Meta View, Inc. Systems and methods to generate an environmental record for an interactive space
DE102019112781A1 (en) * 2019-05-15 2020-11-19 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method for coupling coordinate systems and computer-aided system
US20220084279A1 (en) * 2020-09-11 2022-03-17 Apple Inc. Methods for manipulating objects in an environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007059478A1 (en) * 2007-12-11 2009-06-18 Kuka Roboter Gmbh Method and system for aligning a virtual model with a real object
US10586302B1 (en) * 2017-08-23 2020-03-10 Meta View, Inc. Systems and methods to generate an environmental record for an interactive space
DE102019112781A1 (en) * 2019-05-15 2020-11-19 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method for coupling coordinate systems and computer-aided system
US20220084279A1 (en) * 2020-09-11 2022-03-17 Apple Inc. Methods for manipulating objects in an environment

Similar Documents

Publication Publication Date Title
DE102020110662B4 (en) SIMULTANEOUS POSITIONING AND MAPPING (SLAM) FOR MULTIPLE USERS
DE102018109463B3 (en) Method for using a multi-unit actuated kinematics, preferably a robot, particularly preferably an articulated robot, by a user by means of a mobile display device
DE102019002898A1 (en) ROBOTORSIMULATIONSVORRICHTUNG
DE60201692T2 (en) 2D image processing applied to 3D objects
DE60133386T2 (en) DEVICE AND METHOD FOR DISPLAYING A TARGET BY IMAGE PROCESSING WITHOUT THREE DIMENSIONAL MODELING
DE102024127890A1 (en) Stage transition systems and procedures for creative workflows
EP2977961B1 (en) Method and communication device for creating and/or editing virtual objects
DE112018004313T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
DE112019006107B4 (en) Authoring device, authoring method and authoring program
DE102019218787A1 (en) METHOD, DEVICE AND SYSTEM FOR GENERATING OFFERS ASSOCIATED WITH A PRESENTATION OF AN ARTICLE
WO2009062492A2 (en) Method for representing image objects in a virtual three-dimensional image space
DE112021002752T5 (en) Capture and playback of spatial video
DE102020104415A1 (en) MOVEMENT IN AN ENVIRONMENT
DE102014114131A1 (en) Information processing and electronic device
DE112017007791B4 (en) CONTROL DEVICE FOR AN OPTICAL DEVICE, CONTROL METHOD FOR AN OPTICAL DEVICE, AND CONTROL PROGRAM FOR AN OPTICAL DEVICE
DE112020000725T5 (en) OBJECT POSITIONING AND MOVEMENT IN THREE-DIMENSIONAL CONTENT
DE112018005224T5 (en) Display device and display device control method
EP3716014B1 (en) Transfer of a condition between vr environments
DE102025114516A1 (en) CREATING SPATIAL TRUTH FOR SPATIAL GROUPS IN MULTI-USER COMMUNICATION SESSIONS
DE102020122635A1 (en) PRESENTATION OF AN ENVIRONMENT BASED ON USER MOVEMENTS
WO2008104426A2 (en) Industrial robot, and methods for determining the position of an industrial robot relative to an object
DE102004061841A1 (en) Markerless tracking system for augmented reality applications enables search space for features in camera image to be restricted by user by manipulating three-dimensional data model
DE112016006840T5 (en) CONTROLLING A TELEROBOTER BASED ON MOTION MAPPING
DE102023105347A1 (en) Enrichment of classified objects in room scans with real-time data through radio and optical trackers
WO2007014966A1 (en) Method and device for determining the relative position of a first object with respect to a second object, corresponding computer program and a computer-readable storage medium

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final