AT526735B1 - Messsystem zur Erzeugung von 3D-Bildern - Google Patents
Messsystem zur Erzeugung von 3D-Bildern Download PDFInfo
- Publication number
- AT526735B1 AT526735B1 ATA50926/2022A AT509262022A AT526735B1 AT 526735 B1 AT526735 B1 AT 526735B1 AT 509262022 A AT509262022 A AT 509262022A AT 526735 B1 AT526735 B1 AT 526735B1
- Authority
- AT
- Austria
- Prior art keywords
- image sensor
- light
- beam splitter
- recording
- wavelength
- Prior art date
Links
- 230000003595 spectral effect Effects 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000012546 transfer Methods 0.000 claims abstract 2
- 238000005286 illumination Methods 0.000 claims description 29
- 238000005259 measurement Methods 0.000 claims description 24
- 238000000034 method Methods 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 11
- 239000000203 mixture Substances 0.000 claims description 9
- 238000000844 transformation Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 abstract 1
- 238000003384 imaging method Methods 0.000 description 10
- 230000001419 dependent effect Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00193—Optical arrangements adapted for stereoscopic vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00194—Optical arrangements adapted for three-dimensional imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0638—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0676—Endoscope light sources at distal tip of an endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0684—Endoscope light sources using light emitting diodes [LED]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/07—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/1006—Beam splitting or combining systems for splitting or combining different wavelengths
- G02B27/102—Beam splitting or combining systems for splitting or combining different wavelengths for generating a colour image from monochromatic image signal sources
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/14—Beam splitting or combining systems operating by reflection only
- G02B27/149—Beam splitting or combining systems operating by reflection only using crossed beamsplitting surfaces, e.g. cross-dichroic cubes or X-cubes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/34—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/1006—Beam splitting or combining systems for splitting or combining different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft ein stereoskopisches Aufnahmesystem zur Erstellung dreidimensionaler Abbilder umfassend - ein Messsystem (100) umfassend - zumindest eine Beleuchtungseinheit (4) zur Abgabe von multispektralem Licht, - einen wellenlängenselektiven Strahlteiler (1), auf den die Beleuchtungseinheit (4) gerichtet ist, und - zumindest einen wellenlängensensitiven Bildsensor (2), der für verschiedene Spektralkomponenten aufnahmefähig ist, und - eine Steuer- und Verarbeitungseinheit, die dazu ausgebildet ist, - die Beleuchtungseinheit (4) zur Abgabe von Licht anzusteuern, - den einzelnen mit dem Bildsensor (2) erstellten Aufnahmen jeweils eine separate virtuelle Kameraposition (61, 62, 63) zuzuordnen, - vorab die Position und Orientierung des Bildsensors (2) und der Beleuchtungseinheit (4) zueinander und intrinsische Kameraparameter des Bildsensors (2) zu ermitteln, - vorab eine geometrische Kalibrierung der virtuellen Kamerapositionen (61, 62, 63) zueinander durchzuführen, indem eine Transformation in ein gemeinsames Koordinatensystem ermittelt wird, und - die in den einzelnen virtuellen Kamerapositionen (61, 62, 63) erstellten Aufnahmen, in ein gemeinsames Koordinatensystem zu überführen und zu einem dreidimensionalen Abbild zusammenzuführen.
Description
[0001] Die Erfindung betrifft ein stereoskopisches Aufnahmesystem zur Erstellung dreidimensionaler Abbilder von Hohlräumen gemäß Patentanspruch 1, sowie ein Verfahren zur Erstellung dreidimensionaler Abbilder von Hohlräumen gemäß Patentanspruch 9.
[0002] US 2009292168 A1 zeigt ein Endoskopie-Messsystem zur Erzeugung von 3D-Abbildern umfassend einen dichromatischen Strahlteiler, eine RGB-Lichtquelle und einen Farbbildsensor. Aus dem Stand der Technik WO 2021016644 A1 sind ein Verfahren und eine Vorrichtung zur simultanen 3D-Oberflächenrekonstruktion von Hohlräumen bzw. Körperöffnungen oder dergleichen aus bis zu drei unterschiedlichen Blickrichtungen mit bis zu drei getrennt betriebenen Abbildungssystemen bekannt. Dabei ist jedes der Abbildungssysteme für sich in eine jeweilig gewünschte Messrichtung ausgerichtet oder mit Spiegeln zur Strahlumlenkung ausgestattet. Die von den einzelnen Abbildungssystemen aufgezeichneten Bildinformationen werden dabei in ein gemeinsames Koordinatensystem überführt und mittels einer Registrierung in Bezug auf ein Referenz-Abbild zu einem 3D-Abbild der aufgenommenen Oberfläche eines Hohlraums zusammengeführt.
[0003] Nachteilig bei einer derartigen Vorgehensweise ist der komplexe Hardware-Aufbau mit mehreren einzelnen Abbildungssystemen, der einerseits kostspielig und andererseits aufgrund seiner großen Anzahl an Einzelteilen schwer miniaturisierbar sowie anfällig für Beschädigungen ist. Weiters ist die Vorgehensweise zur Erstellung von dreidimensionalen Abbildern mit drei einzelnen Abbildungssystemen, deren Bildaufnahmen zeitlich synchronisiert werden müssen, aufwändig zu realisieren, da einerseits zunächst eine Kalibration jedes der einzelnen Abbildungssysteme für sich und anschließend eine Kalibration der einzelnen Abbildungssysteme zueinander durchgeführt werden muss, um die von den Abbildungssystemen aufgenommenen Messpunkte in einem gemeinsamen Messraum zu verorten. Die Erstellung eines dichten 3D-Abbilds wird auch dadurch verkompliziert, dass die Aufnahmen der einzelnen Abbildungssysteme räumlich zueinander versetzt angeordnet sind und sich so z.B. bei der Vermessung von Bohrungen Bereiche im gemeinsamen 3D-Abbild gegeben sind, die nicht mit 3D-Messwerten aufgefüllt werden können.
[0004] Aufgabe der Erfindung ist es daher, die zuvor genannten Nachteile zu beheben und ein kompaktes, robustes stereoskopisches Aufnahmesystem sowie ein Verfahren zur Verfügung zu stellen, mit denen die Erstellung dreidimensionaler Abbilder von Hohlräumen bei kompaktem, robustem Hardwareaufbau und gleichzeitig geringem Zeit- und Rechenaufwand realisierbar ist.
[0005] Die Erfindung löst diese Aufgabe mit einem stereoskopischen Aufnahmesystem zur Erstellung dreidimensionaler Abbilder von Hohlräumen gemäß Patentanspruch 1.
[0006] Mit einem erfindungsgemäßen stereoskopischen Aufnahmesystem ist eine Erstellung von dreidimensionalen Abbildern von Hohlräumen bzw. eine 3D-Oberflächenrekonstuktion der Hohlraumwand aus zumindest zwei unterschiedlichen Messperspektiven mit nur einem einzelnen Messsystem möglich, wobei die weiter unten erwähnten Vorteile des Messsystems genutzt werden können.
[0007] Die Hardware des stereoskopischen Aufnahmesystems kann daher vorteilhaft kompakt gehalten werden, sodass der Aufbau des stereoskopischen Aufnahmesystems insgesamt miniaturisiert werden kann. Mit einem solchen kompakten, miniaturisierten Aufbau ist es vorteilhaft möglich, handgeführte oder stationäre 3D-Rekonstruktionen und 3D-Modellierungen bzw. Vermessungen z.B. für allgemeine 3D-Messaufgaben in Hohlräumen und zur Inspektion und Vermessung von Bohrungen, Hohlräumen oder schwer zugänglichen Werkstückzonen, die für bekannte Messanordnungen auf Grund deren Größe nicht zugänglich wären, durchzuführen, aber auch zur Erstellung von medizinischen Diagnosen, zur Herstellung und Anpassung diverser medizinischer Hilfsmittel wie z.B. von Hörgeräten, Gehörschutz, Zahnkronen etc, vorzunehmen.
[0008] Der Einfachheit und Übersichtlichkeit halber ist im Folgenden unter einem Bildsensor bzw. einem Strahlteiler jeweils ein wellenlängensensitiver Bildsensor bzw. ein wellenlängenselektiver
Strahlteiler zu verstehen bzw. gemeint. Die Begriffe „wellenlängenselektiv“ bzw. „wellenlängensensitiv“ beziehen sich im Folgend auf die Lichtwellenlänge, d.h. die Wellenlänge der elektromagnetischen Strahlung, die für das menschliche Auge sichtbar ist.
[0009] Der Bildsensor und die Beleuchtungseinheit des Messsystems sind auf den Strahlteiler gerichtet, und die Aufnahmerichtung des Bildsensors entspricht der Richtung der Lichtabgabe der Beleuchtungseinheit.
[0010] Dies bedeutet, dass von der Beleuchtungseinheit eine Lichtmischung abgegeben wird, die auf den Strahlteiler einfällt und von diesem in getrennte Spektralkomponenten zerlegt und wellenlängenabhängig getrennt in unterschiedliche Richtungen umgelenkt wird und somit in verschiedenen Richtungen aus dem Strahlteiler austritt. Die Richtung in der diese Lichtmischung von der Beleuchtungseinheit abgegeben wird, entspricht der Aufnahmerichtung des Bildsensors.
[0011] Die einzelnen Spektralkomponenten, die getrennt voneinander aus dem Strahlteiler austreten, treten reflektiert durch die Umgebung des Messsystems auch wieder in den entsprechenden Richtungen getrennt in den Strahlteiler ein und werden von diesem gemischt und als Lichtmischung abgegeben. Da die Aufnahmerichtung des Bildsensors der Richtung der Lichtabgabe der Beleuchtungseinheit entspricht, fällt diese aus dem Strahlteiler austretende Lichtmischung auf den Bildsensor ein.
[0012] Das Messsystem zeichnet sich durch einen kompakten Aufbau aus Beleuchtungseinheit, wellenlängenselektivem Strahlteiler und wellenlängensensitivem Bildsensor aus. Je nach Ausgestaltung des wellenselektiven Strahlteilers sind bis zu drei unterschiedlichen Messperspektiven mit nur einem Messsystem realisierbar.
[0013] Die unterschiedlichen Messperspektiven werden vorteilhafterweise durch Strahlumlenkung mit Strahlteilung und eine spektrale Trennung des emittierten Lichts der Beleuchtungseinheit nach der Strahlumlenkung/Strahlteilung sowie durch eine entsprechend wellenlängenselektive Bildaufnahme des jeweils aus den bis zu drei unterschiedlichen Strahlengängen von der Oberfläche des Messobjekts reflektierten Lichts erzielt und stellen somit virtuelle Kamerapositionen dar. Es ist somit im Vergleich zum bekannten Stand der Technik vorteilhafterweise nicht erforderlich, einzelne Messsysteme für die unterschiedlichen gewünschten Messperspektiven vorzusehen.
[0014] Da die Beleuchtungseinheit, der Bildsensor und der Strahlteiler in den Spektralkomponenten aufeinander abgestimmt sind, ist es möglich, einerseits die Umlenkung bzw. Auftrennung durch den Strahlteiler voll zu nutzen und eine Umlenkung in möglichst viele verschiedene Richtungen, d.h. möglichst viele virtuelle Kamerapositionen zu erzielen. Andererseits ist es auf diese Weise auch möglich, alle Spektralkomponenten der Lichtmischung, die auf den Bildsensor einfällt, für die weitere Verarbeitung zu nutzen und durch die Wellenlängensensitivität des Bildsensors als einzelne Aufnahmen aus verschiedenen virtuellen Kamerapositionen zu nutzen.
[0015] Das Problem der Zeitsynchronisierung entfällt bei einem derartigen Messsystem vorteilhafterweise, da die Aufnahmen des Bildsensors stets alle einzelnen Spektralkomponenten des auf den Bildsensor einfallenden Lichts, für die der Bildsensor aufnahmefähig ist und die die einzelnen Messperspektiven bzw. virtuellen Kamerapositionen darstellen, enthalten.
[0016] Eine besonders detailreiche Aufnahme von schwach oder nicht texturierten Messobjektoberflächen kann erzielt werden, wenn die Beleuchtungseinheit einen Lichtmusterprojektor zur Projektion eines gerichteten Zufallsbilds umfasst, wobei insbesondere vorgesehen ist, - dass die einzelnen Pixel des Zufallsbilds einen von zumindest zwei voneinander abweichenden Farbwerten und/oder Intensitätswerten aufweisen und - die Umgebung eines jeden Pixels innerhalb des Zufallsbilds jeweils einem oder mehreren Pixeln des Bildsensors eindeutig zuordenbar ist.
[0017] Ein derartiges projiziertes Lichtmuster kann vorteilhafterweise gezielt für den jeweils gewählten Stereokorrespondenzfindungs- und Kalibrieralgorithmus sowie für die jeweilige Messobjektoberfläche und Messobjekttopografie optimiert werden.
[0018] Um das Licht innerhalb der Beleuchtungseinheit oder zwischen der Beleuchtungseinheit und dem wellenlängenselektiven Strahlteiler über längere Distanzen mit gleichzeitig hoher Intensität übertragen zu können und gleichzeitig eine effiziente thermische Entkopplung zwischen dem Bildsensor und einem Beleuchtungsmittel der Beleuchtungseinheit zu erzielen, kann vorgesehen sein, dass die Beleuchtungseinheit einen Lichtwellenleiter umfasst.
[0019] Um auf besonders einfache Weise sicherstellen zu können, dass das von der Beleuchtungseinheit abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor aufnahmefähig ist und für die der Strahlteiler ausgelegt ist, kann vorgesehen sein, dass die Beleuchtungseinheit zumindest zwei Beleuchtungsmittel, insbesondere Leuchtdioden oder Laserdioden, zur Abgabe von Licht mit zumindest zwei verschiedenen Spektralkomponenten und einen weiteren wellenlängenselektiven Strahlteiler umfasst, wobei die Beleuchtungsmittel derart auf den weiteren Strahlteiler gerichtet sind, dass durch den weiteren Strahlteiler eine Lichtmischung aus dem von den Beleuchtungsmitteln abgegebenen Licht erstellbar ist.
[0020] Durch den Einsatz eines weiteren wellenlängenselektiven Strahlteilers werden vorteilhafterweise diejenigen Spektralanteile, die zusätzlich von den Beleuchtungsmitteln abgegeben werden, für die jedoch der Bildsensor nicht aufnahmefähig ist, abgetrennt und nicht von der Beleuchtungseinheit an den Strahlteiler abgegeben.
[0021] Um Stereoskopie bei einem erfindungsgemäßen Aufnahmesystem nutzen zu können, kann vorgesehen sein, dass das Messsystem einen weiteren wellenlängensensitiven Bildsensor, insbesondere einen weiteren Videosensor, umfasst, wobei die Aufnahmerichtung des weiteren Bildsensors im Wesentlichen parallel zur Aufnahmerichtung des Bildsensors ist.
[0022] Mit zwei Bildsensoren und einem Lichtmusterprojektor in kalibrierter Anordnung können drei dreidimensionale Messanordnungen realisiert werden, die jeweils unter anderen Blickrichtungen auf die Messobjektoberfläche gerichtet sind. Werden nur die beiden Bildsensoren zueinander kalibriert und ist die Messobjektoberfläche ausreichend texturiert, so kann auf eine Lichtmusterprojektion verzichtet werden und eine multispektrale Beleuchtung reicht aus, um drei Blickrichtungen auf die Messobjektoberfläche zu erzielen.
[0023] Drei unterschiedliche Messperspektiven bzw. virtuelle Kamerapositionen können bei einem erfindungsgemäßen Aufnahmesystem vorteilhafterweise erzielt werden, wenn der Strahlteiler und/oder der weitere Strahlteiler ein kreuz-dichroitisches Prisma oder ein dichroitisches Prisma, insbesondere ein Philips-Prisma, ist.
[0024] Um bei einem Bildsensor mit Photozellen, der nur Helligkeitswerte wie Schwarz, Graustufen und Weiß erfassen kann, Farbinformationen erhalten zu können, kann vorgesehen sein, dass der Bildsensor und/oder der weitere Bildsensor Folgendes aufweist:
- eine Vielzahl von Sensorpixeln, die in Form eines Pixelrasters in Zeilen und Spalten angeordnet sind, und
- einen dem Pixelraster entsprechend und repetitiv angeordneten optischen Filterraster, insbesondere einen optischen Filterraster nach dem Bayer Pattern, der für zumindest zwei, insbesondere drei, verschiedene Wellenlängen aufnahmefähig ist.
[0025] Die einzelnen spektralen Empfindlichkeitsbereiche können vorteilhafterweise gezielt an die Eigenschaften der jeweiligen Messobjektoberfläche und/oder an die spektrale Charakteristik des eingesetzten Bildsensors angepasst werden.
[0026] Um bei einem erfindungsgemäßen Aufnahmesystem Bildsensoren nutzen zu können, die für die Spektralkomponenten rot, grün und blau aufnahmefähig sind, kann vorgesehen sein, dass der wellenlängenselektive Strahlteiler dazu ausgebildet ist, das von der Beleuchtungseinheit abgegebene Licht in drei Lichtstrahlen der Spektralkomponenten rot, grün und blau aufzuteilen und die Lichtstrahlen in drei verschiedene Richtungen umzulenken, wobei vorzugsweise die Richtungen in einem Winkel von 90 Grad zueinander stehen.
[0027] Aufgabe der Erfindung ist es weiters, ein Verfahren zur Verfügung zu stellen, mit dem mit einem erfindungsgemäßen stereoskopischen Aufnahmesystem dreidimensionale Abbilder von Hohlräumen erstellt werden können und das gleichzeitig rechnerisch einfach und rasch abläuft.
[0028] Die Erfindung löst diese Aufgabe mit einem Verfahren zur Erstellung dreidimensionaler Abbilder von Hohlräumen gemäß Patentanspruch 9. Erfindungsgemäß ist dabei vorgesehen, dass das stereoskopische Aufnahmesystem - eine Beleuchtungseinheit zur Abgabe von multispektralem Licht, - einen wellenlängenselektiven Strahlteiler, auf den die Beleuchtungseinheit gerichtet ist, und - zumindest einen wellenlängensensitiven Bildsensor, insbesondere einen Videosensor, der für verschiedene Spektralkomponenten aufnahmefähig ist, umfasst, - wobei der Bildsensor und die Beleuchtungseinheit auf den Strahlteiler gerichtet sind und die Aufnahmerichtung des Bildsensors der Richtung der Lichtabgabe der Beleuchtungseinheit entspricht, - wobei das von der Beleuchtungseinheit abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor aufnahmefähig ist und für die der Strahlteiler ausgelegt ist und - wobei der Bildsensor, der Strahlteiler und die Beleuchtungseinheit zueinander bewegungs- und drehungsstarr angeordnet sind, - wobei vorab im Rahmen einer extrinsischen Kamerakalibrierung die Position und Orientierung des Bildsensors und der Beleuchtungseinheit zueinander ermittelt werden, und im Rahmen einer intrinsischen Kamerakalibrierung intrinsische Kameraparameter des Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt werden, - wobei von der Beleuchtungseinheit multispektrales Licht auf den Strahlteiler abgegeben wird und vom Strahlteiler in zumindest zwei Lichtstrahlen unterschiedlicher Spektralkomponenten aufgeteilt wird, wobei die Lichtstrahlen wellenlängenabhängig in zumindest zwei verschiedene Richtungen umgelenkt werden, - wobei mit dem Bildsensor Aufnahmen des aus dem Strahlteiler auf den Bildsensor einfallenden Lichts erstellt werden, wobei die Aufnahmen jeweils eine einzelne der Spektralkomponenten des auf den Bildsensor einfallenden Lichts, für die der Bildsensor aufnahmefähig ist, enthalten, - wobei den jeweiligen Aufnahmen der zumindest zwei einzelnen Spektralkomponenten des einfallenden Lichts jeweils eine separate virtuelle Kameraposition zugeordnet wird, - wobei vorab eine geometrische Kalibrierung der zumindest zwei virtuellen Kamerapositionen zueinander durchgeführt wird, indem für jede der zumindest zwei virtuellen Kamerapositionen jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt wird, wobei diese Transformationen jeweils - einer in einer der virtuellen Kamerapositionen ermittelten Position eines Messraumpunkts genau eine Position im Koordinatensystem zuordnet, und - einer jeweils in zumindest einer anderen virtuellen Kameraposition ermittelten Position desselben Messraumpunkts dieselbe Position im Koordinatensystem zuordnet, und - die in den einzelnen virtuellen Kamerapositionen erstellten Aufnahmen unter Anwendung der ermittelten Transformationen in ein gemeinsames Koordinatensystem überführt und derart zu einem dreidimensionalen Abbild zusammengeführt werden.
[0029] Zusätzlich zu den bereits zuvor erwähnten Vorteilen des stereoskopischen Aufnahmesystems bzw. des Messsystems, die bei einem erfindungsgemäßen Verfahren auch genutzt werden können, ist eine Registrierung bei einem derartigen Verfahren vorteilhafterweise nicht erforderlich, da die Zusammenführung der einzelnen 3D-Punktewolken bzw. die Messpunkte der in den einzelnen virtuellen Kamerapositionen erstellten Aufnahmen in ein gemeinsames dreidimensionales Koordinatensystem automatisch durch die Kalibrierung der zumindest zwei virtuellen Kamerapositionen zueinander gegeben ist.
[0030] Um bei einem erfindungsgemäßen Verfahren möglichst viele Messperspektiven bzw. virtuelle Kamerapositionen nutzen zu können, kann vorgesehen sein,
- dass das Messsystem einen weiteren wellenlängensensitiven Bildsensor, insbesondere einen weiteren Videosensor, umfasst, wobei die Aufnahmerichtung des weiteren Bildsensors im Wesentlichen parallel zur Aufnahmerichtung des Bildsensors ist,
- dass im Rahmen der extrinsischen Kamerakalibrierung die Position und Orientierung des weiteren Bildsensors und der Beleuchtungseinheit zueinander, sowie die Position und Orientierung des Bildsensors und des weiteren Bildsensors zueinander ermittelt werden, und
- dass im Rahmen der intrinsischen Kamerakalibrierung intrinsische Kameraparameter des weiteren Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt werden.
[0031] Auf diese Weise ist es vorteilhaft möglich, noch unabhängig von der nachgelagerten Strahlumlenkung bis zu drei verschiedene Messperspektiven und drei 3D-Datenquellen zu erhalten, sodass gemeinsam mit der lichtwellenlängenselektiven Strahlumlenkung bis zu neun unabhängige 3D-Datenquellen bereitstehen.
[0032] Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und den beiliegenden Zeichnungen.
[0033] Die Erfindung ist im Folgenden anhand von besonders vorteilhaften, aber nicht einschränkend zu verstehenden Ausführungsbeispielen in den Zeichnungen schematisch dargestellt und wird unter Bezugnahme auf die Zeichnungen beispielhaft beschrieben.
[0034] Im Folgenden zeigen schematisch: [0035] Fig. 1 ein Ausführungsbeispiel eines Messsystems, [0036] Fig. 2 und Fig. 3 Ausführungsbeispiele von wellenlängenselektiven Strahlteilern,
[0037] Fig. 4 ein Ausführungsbeispiel eines optischen Filterrasters eines wellenlängensensitiven Bildsensors.
[0038] Fig. 1 zeigt schematisch den Aufbau eines Messsystems 100 wie es in einem erfindungsgemäßen stereoskopischen Aufnahmesystem zur Erstellung dreidimensionaler Abbilder von Hohlräumen genutzt werden kann.
[0039] Ein Messsystem 100 kann für eine zeitsynchrone, aus bis zu drei unabhängigen Messperspektiven bzw. virtuellen Kamerapositionen erfolgende 3D-Szenenrekonstruktion genutzt werden. Die bis zu drei unterschiedlichen Messperspektiven bzw. virtuellen Kamerapositionen werden multispektralbasiert mit nur einem einzigen Messsystem 100 mit entsprechend multispektraler Beleuchtung, lichtwellenlängenselektiver bzw. lichtwellenlängenabhängiger Strahlumlenkung und lichtwellenlängensensitive Bildaufnahme realisiert.
[0040] Das Messsystem 100 in Fig. 1 umfasst für die wellenlängenselektive Strahlumlenkung einen wellenlängenselektiven Strahlteiler 1. Im Ausführungsbeispiel in Fig. 1 wird die lichtwellenlängenselektive Strahlumlenkung mit einem kreuz-dichroitischen (engl. cross dichroic) Prisma (siehe Fig. 2a) realisiert, das für die Wellenlängenbereiche rot R, grün G und blau B selektiv wirkt und weißes Licht W in diese Spektralkomponenten aufspaltet bzw. diese Spektralkomponenten zu weißem Licht W vereint.
[0041] Ein derartiges kreuz-dichroitisches Prisma ist beispielsweise beschrieben in US 6407868 B1. Das kreuz-dichroitische Prisma teilt Licht, das auf das Prisma abgegeben wird, in drei Lichtstrahlen der Spektralkomponenten rot R, grün G und blau B auf und lenkt diese drei Lichtstrahlen in drei verschiedene Richtungen um, die in einem Winkel von 90 Grad zueinander stehen. Auf diese Weise ergeben sich drei zueinander orthogonal ausgerichtete, RGB- lichtwellenlängenabhängige Blickrichtungen.
[0042] Alternativ zu einem kreuz-dichroitischen Prisma kann ein dichroitisches Prisma (siehe Fig. 2b), wie es beispielsweise von der Firma Philips entwickelt wurde und daher als Philips-Prisma bekannt ist und nun z.B. von www.foctek net, zuletzt aufgerufen am 30.11.2022, hergestellt wird, eingesetzt werden. Ein derartiges Prisma ist beispielsweise beschrieben in US 3202039 A und unter htins/Avww.foctek com/upfies/file/13730058320.0d, zuletzt aufgerufen am 29.11.2022, erhältlich. Das dichroitische Prisma teilt Licht, das auf das Prisma abgegeben wird, ebenfalls in drei Lichtstrahlen der Spektralkomponenten rot R, grün G und blau B auf und lenkt diese drei Lichtstrahlen in drei verschiedene Richtungen um. Die Richtungen stehen zueinander jedoch nicht in einem Winkel von 90 Grad, sondern in einem Winkel von größer bzw. kleiner als 90 Grad.
[0043] Ein Lichtstrahl in Fig. 2b tritt in ein erstes Prisma P+; ein und die blaue Spektralkomponente B wird vom dichroitischen Filter F+ reflektiert. Längere Wellenlängen passieren und treten in ein zweites Prisma P2 ein und werden durch einen zweiten Filter F2 geteilt. Der Filter F2 reflektiert die
rote Spektralkomponente R. Die grüne Spektralkomponente G passiert die beiden Prismen P+ und P; und tritt gegenüber der Eintrittsstelle des Lichts W wieder aus. Zwischen den Prismen P+ und P>; ist ein Luftspalt angeordnet und die Winkel der Prismen P+ und P2 sind so gewählt, dass die blaue Spektralkomponente B und die rote Spektralkomponente R mittels Totalreflexion im Prisma umgelenkt werden.
[0044] Kreuz-dichroitische und dichroitische Prismen können auch genutzt werden, um Licht unterschiedlicher Wellenlängen zu kombinieren.
[0045] Bei der wellenlängensensitiven Bildaufnahme bestehen bei einem Messsystem 100 verschiedene Möglichkeiten, Stereoskopie zu nutzen. Dabei können folgende Komponenten genutzt werden:
- ein wellenlängensensitiver Bildsensor 2 und ein Lichtmusterprojektor 3, wobei der Bildsensor 2 z.B. in einer Videokamera 20 integriert sein kann und somit ein Videokamera/Projektor-3D-Messsystem bildet, wie sie vorteilhafterweise für schwach texturierte oder nicht texturierte Messobjektoberflächen besonders gut geeignet sind,
- zwei wellenlängensensitive Bildsensoren 2 und eine unstrukturierte Szenenbeleuchtung, wobei die Bildsensoren 2 z.B. jeweils oder gemeinsam in einer Videokamera 20 integriert sein können. Ein derartiges Messsystem 100 ist beispielsweise für stark texturierte Messobjektoberflächen besonders günstig, oder
- zwei wellenlängensensitive Bildsensoren 2 und ein Lichtmusterprojektor 3, wobei die Bildsensoren 2 z.B. jeweils oder gemeinsam in einer Videokamera 20 integriert sein können und somit ein Stereokamera/Projektor-3D-Messsystem bilden, was für beispielsweise schwach texturierte oder nicht texturierte Messobjektoberflächen besonders vorteilhaft ist.
[0046] So ist es bei einem Messsystem 100 möglich, zwei Bildsensoren 2 zu nutzen, sodass mit Hilfe von Stereoskopie bzw. aus verschiedenen Blickwinkeln aufgenommenen Abbildern ein räumlicher Eindruck der aufgenommenen Bereiche erzielt werden kann. Alternativ können, wie zuvor erwähnt, ein Bildsensor 2 und ein Lichtmusterprojektor 3 genutzt werden, was im Ausführungsbeispiel in Fig. 1 realisiert ist.
[0047] Das vom Lichtmusterprojektor 3 oder der Szenenbeleuchtung emittierte Licht enthält dabei jeweils jene Spektralkomponenten, für die der jeweilig eingesetzte wellenlängenselektive Strahlteiler 1 ausgelegt ist und für die der jeweilige wellenlängensensitive Bildsensor 2 sensitiv ist.
[0048] Im Ausführungsbeispiel in Fig. 1 werden die drei Messperspektiven in drei getrennten Spektralbereichen bzw. die drei virtuellen Kamerapositionen 61, 62, 63 mit nur einem einzigen Messsystem 100 umfassend einen Lichtmusterprojektor 3, einen Bildsensor 2 und einen wellenlängenselektiven Strahlteiler 1 als optischen Bauteil zur lichtwellenlängenabhängigen Strahlumlenkung realisiert. Die Spektralkomponenten, für die der Strahlteiler 1 und der Bildsensor 2 selektiv bzw. sensitiv sind, sind die Wellenlängenbereiche rot R, grün G und blau B.
[0049] Im Ausführungsbeispiel in Fig. 1 ist auf den wellenlängenselektiven Strahlteiler 1 das Kameraobjektiv 21 einer Videokamera 20 gerichtet, in die der Bildsensor 2 integriert ist. Der Bildsensor 2 besitzt eine Vielzahl von Sensorpixeln, die in Zeilen und Spalten angeordnet sind und somit ein Pixelraster bilden. Bei dem Bildsensor 2 handelt es sich in Fig. 1 um einen für die Wellenlängenbereiche rot, grün und blau aufnahmefähigen Bildsensor bzw. einen RGB-Bildsensor handelt. Die Videokamera 20 stellt somit eine RGB-Videokamera dar.
[0050] Um den Bildsensor 2 der Videokamera 20 der für die Wellenlängenbereiche rot, grün und blau sensitiv zu machen, ist der Bildsensor 2 im Ausführungsbeispiel mit einem dem Pixelraster entsprechenden, repetitiv angeordneten optischen Filterraster versehen. Ein geeigneter derartiger Filterraster ist je für bis zu vier unterschiedliche Lichtwellenlängen lichtdurchlässig.
[0051] Der RGB-Bildsensor bzw. RGB-Videosensor in Fig. 1 ist mit einem optischen Filterraster nach dem Bayer Patern (siehe Fig. 3), d.h. einer RGB-Bayerfiltermaske ausgestattet, um ihn für die Wellenlängenbereiche rot, grün und blau sensitiv zu machen. Ein derartiger Filterraster nach dem Bayer Pattern ist beispielsweise beschrieben in DE 2608998 B2. Die Bayer Pattern Filteran-
ordnung, die Standard für RGB-Farbvideosensoren ist, sei an dieser Stelle jedoch nur exemplarisch für einen geeigneten Filterraster genannt.
[0052] Alternativ zum Filterraster nach dem Bayer Pattern können auch andere Filterraster wie beispielsweise “Complementary Color Mosaic Filter“ oder “Primary Color Vertical Stripe Filter” eingesetzt werden, wie diese beispielsweise unter hitüsYAvww.baslerweb com/en/sales-supgor/knawlecdge-Dase/freqguenüv-asked-quesfionsÄrhal-are-coOlor-Aiiers/140989/ Zuletzt aufgerufen am 29.11.2022, beschrieben sind.
[0053] Das Messsystem 100 umfasst im ersten Ausführungsbeispiel weiters einen Lichtmusterprojektor 3 in Form eines RGB-Lichtmusterprojektors mit einem Projektionsobjektiv 31, einem Kollimationsobjektiv 33 und einem Dia 32 mit einem Zufallsbild.
[0054] Das Kollimationsobjektiv 33 - in der einfachsten Variante eine Kollimationslinse - sammelt divergierend abgestrahltes Licht einer Lichtquelle, richtet das Licht „parallel“ und leitet es bei Projektionsobjektiven mit Austrittspupillenpositionen, die in Projektionsrichtung hinter der Lichtmusterdiaebene liegen, direkt über das Lichtmusterdia und das Projektionsobjektiv auf die Messobjektoberfläche.
[0055] Zusätzlich kann nach dem Kollimationsobjektiv eine Fokussierlinse in den Strahlengang eingebracht werden, die das Licht in die Austrittspupille von Projektionsobjektiven fokussieren, welche in Projektionsrichtung vor der Lichtmusterdiaebene liegt. Eine Kombination von Kollimationsobjektiv und Fokussierlinse wird als „Kondensor“ bezeichnet.
[0056] Das Muster des projizierten Lichtmusters des Lichtmusterprojektors 3 ist so gestaltet, dass die Abbildungseigenschaften aller eingesetzten optischen Komponenten optimal genutzt werden, und dass die Szenenoberfläche für den 3D-Messvorgang mit einer bekannten Textur beaufschlagt wird. Das Zufallsbild besitzt dabei Pixel, die zwei oder mehr voneinander abweichende Farbwerte oder Intensitäten aufweisen und innerhalb des Zufallsbilds ist die Umgebung jedes Pixels jeweils einem oder mehreren Pixeln des Bildsensors 2 eindeutig zuordenbar.
[0057] Der Hintergrund der Anwendung eines derartigen Zufallsbilds ist, dass die Umgebung jedes Pixels beispielsweise eine 3x3 oder 5x5 Umgebung innerhalb des gesamten Zufallsbilds den jeweiligen korrespondierenden Pixel im dreidimensionalen Abbild eindeutig zuordenbar sein soll. Aufgrund der Eindeutigkeit der Umgebung kann ein Raumpunkt an unterschiedlichen Stellen gegebenenfalls in zwei oder drei in jeweils einer der virtuellen Kamerapositionen erstellten Aufnahmen enthalten sein.
[0058] Die Lichtquelle des Lichtmusterprojektors 3 ist, wie bereits zuvor erwähnt, in den abgegebenen Wellenlängenbereichen auf das kreuz-dichroitischen Prisma sowie den Bildsensor 2 der RGB- Videokamera abgestimmt.
[0059] In Fig. 1 ist eine Beleuchtungseinheit 4 als RGB-Lichtquelle auf den Lichtmusterprojektor 3 gerichtet. Die Beleuchtungseinheit 4 umfasst im Ausführungsbeispiel einen weiteren Strahlteiler 11 in Form eines weiteren kreuz-dichroitischen Prismas, sowie drei Beleuchtungsmittel - nämlich eine rote Leuchtdiode 41, eine grüne Leuchtdiode 42 und eine blaue Leuchtdiode 43 - die jeweils an den entsprechenden Seiten des weiteren kreuzdichroitischen Prismas angebracht sind, und als Lichtquellen für die Spektralkomponenten rot, grün und blau dienen. Durch diese Ausrichtung der Beleuchtungsmittel auf den weiteren Strahlteiler 11, wird durch den weiteren Strahlteiler 11 eine Lichtmischung aus dem von den Beleuchtungsmitteln abgegebenen Licht erstellbar.
[0060] Alternativ kann ohne den Einsatz eines weiteren Strahlteilers 11 bzw. eines kreuzdichroitischen Prismas auch eine weiße Lichtquelle wie z.B. eine LED, Glüh- oder Gasentladungslampe mit einer entsprechenden Spektralverteilung als Lichtquelle für den Lichtmusterprojektor 3 oder die Szenebeleuchtung eingesetzt werden.
[0061] Die Auskopplung der erstellten Lichtmischung in Form von RGB-Licht erfolgt im Ausführungsbeispiel an der entsprechenden Seite des kreuz-dichroitischen Prismas über einen Lichtwellenleiter 5, der auf das Kollimationsobjektiv 33 des Lichtmusterprojektor 3 gerichtet ist bzw. darin mündet. Das RGB-Licht der RGB-Lichtquelle wird somit über den Lichtwellenleiter 5 und
über das Kollimationsobjektiv 33 in den Lichtmusterprojektor 3 eingekoppelt. Das RGB-Licht kann mittels eines Lichtwellenleiters 5 über längere Distanzen mit gleichzeitig hoher Intensität übertragen werden, während eine effiziente thermische Entkopplung zwischen der RGB-Videokamera und der RGB-Lichtquelle gegeben ist.
[0062] Der Lichtmusterprojektor 3 und die Videokamera 20 bzw. deren Bildsensor 2, sind mechanisch starr, d.h. bewegungs- und drehungsstarr, zueinander angeordnet, sowie mechanisch starr, d.h. bewegungs- und drehungsstarr, zur entsprechenden Seite des Strahlteilers 1 bzw. kreuzdichroitischen Prismas und des weiteren Strahlteilers 11 bzw. weiteren kreuz-dichroitischen Prismas platziert.
[0063] Ein Messsystem 100 wie es in Fig. 1 dargestellt ist und zuvor beschrieben wurde, kann mit zusammen mit einer Steuer- und Verarbeitungseinheit ein erfindungsgemäßes stereoskopisches Aufnahmesystem bilden, mit dem dreidimensionale Abbilder von Hohlräumen erstellt werden können. Die Steuer- und Verarbeitungseinheit übernimmt darin die Ansteuerung der Beleuchtungseinheit 4 zur Lichtabgabe, sowie gegebenenfalls auch die Ansteuerung des Bildsensors 2 zur Erstellung von Aufnahmen. Die Steuer- und Verarbeitungseinheit übernimmt weiters die weiter unten im Detail beschriebenen Datenverarbeitungsschritte eines erfindungsgemäßen Verfahrens im Rahmen der extrinsischen und intrinsischen Kamerakalibrierung, der geometrischen Kalibrierung, sowie die Zusammenführung der in den virtuellen Kamerapositionen 61, 62, 63 erstellten Aufnahmen zu einem dreidimensionalen Abbild der Umgebung des Messsystems 100.
[0064] Die Steuer- und Verarbeitungseinheit steht mit dem Bildsensor in Datenkommunikation und ordnet den vom Bildsensor 2 erstellten Aufnahmen, die jeweils die rote Spektralkomponente R, die grüne Spektralkomponente G oder die blaue Spektralkomponente B des Lichts enthalten, das aus dem Strahlteiler 1 austritt und auf den Bildsensor einfällt, jeweils eine separate virtuelle Kameraposition 61, 62, 63 zu. Dies bedeutet, die erste virtuelle Kameraposition 61 entspricht der roten Spektralkomponente R, die zweite virtuelle Kameraposition 62 entspricht der grünen Spektralkomponente G und die dritte virtuelle Kameraposition 63 entspricht der blauen Spektralkomponente B, die jeweils getrennt aus dem Strahlteiler 1 austreten und die Umgebung des Messsystems 100 beleuchten bzw. von der Umgebung des Messsystems 100 reflektiert werden, in den Strahlteiler 1 eintreten und durch den Strahlteiler 1 gebündelt auf den Bildsensor 2 einfallen.
[0065] In der zuvor beschriebenen geometrischen Anordnung werden bei einem erfindungsgemäßen Verfahren zur Erstellung dreidimensionaler Abbilder von Hohlräumen die drei orthogonal zueinander liegenden 3D-Messpfade „rot“, „grün“ und „blau“, d.h. die drei virtuellen Kamerapositionen 61, 62, 63, unabhängig voneinander intrinsisch sowie extrinsisch mit aus dem Stand der Technik bekannten Kalibrierverfahren kalibriert. Derartige Kalibrierverfahren sind beispielsweise beschrieben in Fabio Remondino, Clive Fraser: Digital camera calibration methods: Considerations and comparisons. In: ISPRS Commission V Symposium 'Image Engineering and Vision Metrology'. ISPRS, 25. September 2006.
[0066] Bei der intrinsischen Kalibrierung werden Parameter zur Korrektur der optischen Verzerrungen, die resultierenden optischen Brennweiten und die Positionen der Durchstoßpunkte der optischen Achsen durch die Bildebene/die Diaebene des Bildsensors 2/des Lichtmusterprojektors 3 ermittelt. Mit diesen Parametern wird ein korrigiertes (ideales) Bild berechnet, welches mit einer Lochkamera/einem "Lochprojektor" entstehen würde.
[0067] Bei der extrinsischen Kalibrierung werden die Positionen und Orientierungen des Bildsensors 2 und des Lichtmusterprojektors 3 - als Lochkameramodell bzw. "Lochprojektormodell" zueinander, d.h. mit 6 Freiheitsgraden, mit den durch die intrinsische Kalibrierung ermittelten Lochkamera-/"Lochprojektor"-Parametern ermittelt.
[0068] Auf diese Weise werden die Position und Orientierung des Bildsensors 2 und der Beleuchtungseinheit 4 zueinander festgestellt, sowie die intrinsischen Kameraparameter des Bildsensors 2, wie z.B. die Brennweite, die Linsenverzerrung etc. ermittelt.
[0069] Als weiterer Verfahrensschritt wird eine geometrische Kalibrierung der virtuellen Kamerapositionen 61, 62, 63 zueinander durchgeführt. Ein derartiges Kalibrierverfahren ist beispiels-
weise beschrieben in Jacek Komorowski und Przemyslaw Rokita, Extrinsic Camera Calibration Method and Its Performance Evaluation, Proceedings of the 2012 international conference on Computer Vision and Graphics, September 2012 DO!:10.1007/978-3-642- 33564-8_16, beschrieben.
[0070] Hierbei wird für jede der virtuellen Kamerapositionen 61, 62, 63 jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt. Diese Transformationen zeichnen sich dadurch aus, dass sie einer in einer der virtuellen Kamerapositionen 61, 62, 63 ermittelten Position eines Messraumpunkts genau eine Position im Koordinatensystem zuordnen. Positionen desselben Messraumpunkts, die in einer oder mehreren anderen virtuellen Kamerapositionen ermittelt wurden, wird dabei dieselbe Position im Koordinatensystem zugeordnet.
[0071] Bei der "geometrischen" Kalibrierung werden also nachgelagert zur extrinsischen und intrinsischen Kalibrierung die einzelnen Positionen und Orientierungen der mit dem Strahlteiler 1 bzw. dem kreuz-dichroitischen Prisma erzeugten, bis zu drei unterschiedlichen Messrichtungen zueinander ermittelt. So ist es möglich, die 3D-Punktewolken aus den einzelnen Messrichtungen unmittelbar in ein gemeinsames 3D-Modell bzw. ein gemeinsames dreidimensionales Koordinatensystem zu transformieren.
[0072] Über die einzelnen RGB-Teilbilder, d.h. die in den einzelnen virtuellen Kamerapositionen 61, 62, 63 erstellten Aufnahmen, und anhand des bekannten Projektionsmusters kann zum Beispiel über korrelationsbasierte Korrespondenzsuche eine 3D-Punktewolke für die jeweiligen drei Blickrichtungen berechnet und die 3D-Punktewolken in ein gemeinsames Koordinatensystem überführt und derart ein dreidimensionales Abbild des aufgenommenen Bereichs erstellt werden. Ein Verfahren zur korrelationsbasierten Korrespondenzsuche ist beispielsweise beschrieben in Lazaros, Nalpantidis; Sirakoulis, Georgios Christou; Gasteratos, Antonios (2008), Review of Stereo Vision Algorithms: From Software to Hardware”. International Journal of Optomechatronics. 2 (4): 435-462,
[0073] Sind, wie zuvor beschrieben, optional zwei wellenlängensensitive Bildsensoren 2 und eine Beleuchtungseinheit 4, beispielsweise mit einem Lichtmusterprojektor 3, vorgesehen, so wird im Rahmen der extrinsische Kamerakalibrierung nicht nur die Position und Orientierung des Bildsensors 2 und der Beleuchtungseinheit 4 zueinander, sondern auch die Position und Orientierung des weiteren Bildsensors und der Beleuchtungseinheit 4, sowie die Position und Orientierung des Bildsensors 2 und des weiteren Bildsensors zueinander ermittelt. Im Rahmen der intrinsischen Kamerakalibrierung werden weiters auch die intrinsischen Kameraparameter des weiteren Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt.
[0074] Auf diese Weise ist es möglich, noch unabhängig von der nachgelagerten Strahlumlenkung drei verschiedene Messperspektiven und drei 3D-Datenquellen zu erhalten, sodass zusammen mit der lichtwellenlängenselektiven Strahlenumlenkung dann bis zu neun unabhängige 3DDatenquellen zur Verfügung stehen.
[0075] Ein Messsystem 100 bzw. ein erfindungsgemäßes stereoskopisches Aufnahmesystem können auf einem Träger angeordnet sein, der eine Vorzugsvorschubrichtung aufweist und in einen Hohlraum manuell oder automatisiert geschoben bzw. eingebracht werden kann.
[0076] Ein Messsystem 100 bzw. ein erfindungsgemäßes stereoskopisches Aufnahmesystem und ein erfindungsgemäßes Verfahren können beispielsweise in allen Anwendungsbereichen eingesetzt werden, die durch schwer zugängliche Aufnahmebereiche charakterisiert sind und daher miniaturisierte Mess- bzw. Aufnahmesysteme erfordern und gegebenenfalls eine Oberfläche mit wenig Struktur aufweisen.
[0077] Dies trifft beispielsweise auf Anwendungsbereiche in der Industrie oder Robotik zu oder auch beispielsweise im kosmetischen oder chirurgischen Bereich, beispielsweise bei der Aufnahme von dreidimensionalen Abbildern von Körperöffnungen wie z.B. dem Gehörgang von Menschen oder Tieren. Im Bereich der Chirurgie ist beispielsweise auch eine Anwendung z.B. zur Aufnahme dreidimensionaler Abbilder von inneren Organen möglich.
Claims (10)
1. Stereoskopisches Aufnahmesystem zur Erstellung dreidimensionaler Abbilder von Hohlräumen umfassend - ein Messsystem (100) zur Erzeugung von 3D-Bildern umfassend - zumindest eine Beleuchtungseinheit (4) zur Abgabe von multispektralem Licht, - einen wellenlängenselektiven Strahlteiler (1), auf den die Beleuchtungseinheit (4) gerichtet ist und der dazu ausgebildet ist, das von der Beleuchtungseinheit (4) abgegebene Licht in zumindest zwei Lichtstrahlen unterschiedlicher Spektralkomponenten aufzuteilen und die Lichtstrahlen wellenlängenabhängig in zumindest zwei verschiedene Richtungen umzulenken, und - zumindest einen wellenlängensensitiven Bildsensor (2), insbesondere einen Videosensor, der für verschiedene Spektralkomponenten aufnahmefähig ist, - wobei der Bildsensor (2) und die Beleuchtungseinheit (4) auf den Strahlteiler (1) gerichtet sind und die Aufnahmerichtung des Bildsensors (2) der Richtung der Lichtabgabe der Beleuchtungseinheit (4) entspricht, - wobei das von der Beleuchtungseinheit (4) abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor (2) aufnahmefähig ist und für die der Strahlteiler (1) ausgelegt ist und - wobei der Bildsensor (2), der Strahlteiler (1) und die Beleuchtungseinheit (4) zueinander bewegungs- und drehungsstarr angeordnet sind, und - eine Steuer- und Verarbeitungseinheit, - wobei die Steuer- und Verarbeitungseinheit mit der Beleuchtungseinheit (4) verbunden ist und mit dem zumindest einen Bildsensor (2) und/oder dem weiteren Bildsensor in Datenkommunikation steht und dazu ausgebildet ist, - die Beleuchtungseinheit (4) zur Abgabe von Licht anzusteuern, - den einzelnen mit dem Bildsensor (2) erstellten Aufnahmen, die jeweils eine einzelne der Spektralkomponenten des auf den Bildsensor (2) einfallenden Lichts, für die der Bildsensor (2) aufnahmefähig ist, enthalten, jeweils eine separate virtuelle Kameraposition (61, 62, 63) zuzuordnen, - vorab im Rahmen einer extrinsischen Kamerakalibrierung die Position und Orientierung des Bildsensors (2) und der Beleuchtungseinheit (4) zueinander zu ermitteln, und im Rahmen einer intrinsischen Kamerakalibrierung intrinsische Kameraparameter des Bildsensors (2), insbesondere die Brennweite und/oder die Linsenverzerrung, zu ermitteln, - vorab eine geometrische Kalibrierung der zumindest zwei virtuellen Kamerapositionen (61, 62, 63) zueinander durchzuführen, indem für jede der zumindest zwei virtuellen Kamerapositionen (61, 62, 63) jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt wird, wobei diese Transformationen jeweils - einer in einer der virtuellen Kamerapositionen (61, 62, 63) ermittelten Position eines Messraumpunkts genau eine Position im Koordinatensystem zuordnet, und - gegebenenfalls den jeweils in zumindest einer anderen virtuellen Kameraposition (61, 62, 63) ermittelten Position desselben Messraumpunkts dieselbe Position im Koordinatensystem zuordnet, und - die in den einzelnen virtuellen Kamerapositionen (61, 62, 63) erstellten Aufnahmen, unter Anwendung der ermittelten Transformationen in ein gemeinsames Koordinatensystem zu überführen und derart zu einem dreidimensionalen Abbild zusammenzuführen.
2, Stereoskopisches Aufnahmesystem nach Anspruch 1, dadurch gekennzeichnet, dass die Beleuchtungseinheit einen Lichtmusterprojektor (3) zur Projektion eines gerichteten Zufallsbilds umfasst, wobei insbesondere vorgesehen ist,
- dass die einzelnen Pixel des Zufallsbilds einen von zumindest zwei voneinander abweichenden Farbwerten und/oder Intensitätswerten aufweisen und
- die Umgebung eines jeden Pixels innerhalb des Zufallsbilds jeweils einem oder mehreren Pixeln des Bildsensors eindeutig zuordenbar ist.
3. Stereoskopisches Aufnahmesystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Beleuchtungseinheit (4) einen Lichtwellenleiter (5) umfasst.
4. Stereoskopisches Aufnahmesystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Beleuchtungseinheit (4) zumindest zwei Beleuchtungsmittel, insbesondere Leuchtdioden oder Laserdioden, zur Abgabe von Licht mit zumindest zwei verschiedenen Spektralkomponenten und einen weiteren wellenlängenselektiven Strahlteiler (11) umfasst, wobei die Beleuchtungsmittel derart auf den weiteren Strahlteiler (11) gerichtet sind, dass durch den weiteren Strahlteiler (11) eine Lichtmischung aus dem von den Beleuchtungsmitteln abgegebenen Licht erstellbar ist,
wobei insbesondere vorgesehen ist, dass der weitere Strahlteiler (11) ein kreuz-dichroitisches Prisma oder ein dichroitisches Prisma ist.
5. Stereoskopisches Aufnahmesystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Messsystem (100) einen weiteren wellenlängensensitiven Bildsensor, insbesondere einen weiteren Videosensor, umfasst, wobei die Aufnahmerichtung des weiteren Bildsensors im Wesentlichen parallel zur Aufnahmerichtung des Bildsensors (2) ist, wobei insbesondere vorgesehen ist, dass der weitere Bildsensor Folgendes aufweist:
- eine Vielzahl von Sensorpixeln, die in Form eines Pixelrasters in Zeilen und Spalten angeordnet sind, und
- einen dem Pixelraster entsprechend und repetitiv angeordneten optischen Filterraster, insbesondere einen optischen Filterraster nach dem Bayer Pattern, der für zumindest zwei, insbesondere drei, verschiedene Wellenlängen aufnahmefähig ist.
6. Stereoskopisches Aufnahmesystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Strahlteiler (1) ein kreuz-dichroitisches Prisma oder ein dichroitisches Prisma ist.
7. Stereoskopisches Aufnahmesystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Bildsensor (2) Folgendes aufweist: - eine Vielzahl von Sensorpixeln, die in Form eines Pixelrasters in Zeilen und Spalten angeordnet sind, und - einen dem Pixelraster entsprechend und repetitiv angeordneten optischen Filterraster, insbesondere einen optischen Filterraster nach dem Bayer Pattern, der für zumindest zwei, insbesondere drei, verschiedene Wellenlängen aufnahmefähig ist.
8. Stereoskopisches Aufnahmesystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der wellenlängenselektive Strahlteiler (1) dazu ausgebildet ist, das von der Beleuchtungseinheit (4) abgegebene Licht in drei Lichtstrahlen der Spektralkomponenten rot (R), grün (G) und blau (B) aufzuteilen und die Lichtstrahlen in drei verschiedene Richtungen umzulenken, wobei vorzugsweise die Richtungen in einem Winkel von 90 Grad zueinander stehen.
9. Verfahren zur Erstellung dreidimensionaler Abbilder von Hohlräumen mit einem stereoskopischen Aufnahmesystem nach einem der Ansprüche 1 bis 8, umfassend - eine Beleuchtungseinheit (4) zur Abgabe von multispektralem Licht, - einen wellenlängenselektiven Strahlteiler (1), auf den die Beleuchtungseinheit (4) gerichtet ist, und - zumindest einen wellenlängensensitiven Bildsensor (2), insbesondere einen Videosensor, der für verschiedene Spektralkomponenten aufnahmefähig ist, - wobei der Bildsensor (2) und die Beleuchtungseinheit (4) auf den Strahlteiler (1) gerichtet sind und die Aufnahmerichtung des Bildsensors (2) der Richtung der Lichtabgabe der Beleuchtungseinheit (4) entspricht, - wobei das von der Beleuchtungseinheit (4) abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor (2) aufnahmefähig ist und für die der Strahlteiler (1) ausgelegt ist und
- wobei der Bildsensor (2), der Strahlteiler (1) und die Beleuchtungseinheit (4) zueinander bewegungs- und drehungsstarr angeordnet sind,
- wobei vorab im Rahmen einer extrinsischen Kamerakalibrierung die Position und Orientierung des Bildsensors (2) und der Beleuchtungseinheit (4) zueinander ermittelt werden, und im Rahmen einer intrinsischen Kamerakalibrierung intrinsische Kameraparameter des Bildsensors (2), insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt werden, - wobei von der Beleuchtungseinheit (4) multispektrales Licht auf den Strahlteiler (1) abgegeben wird und vom Strahlteiler (1) in zumindest zwei Lichtstrahlen unterschiedlicher Spektralkomponenten aufgeteilt wird, wobei die Lichtstrahlen wellenlängenabhängig in zumindest zwei verschiedene Richtungen umgelenkt werden, - wobei mit dem Bildsensor (2) Aufnahmen des aus dem Strahlteiler (1) auf den Bildsensor (2) einfallenden Lichts erstellt werden, wobei die Aufnahmen jeweils eine einzelne der Spektralkomponenten des auf den Bildsensor (2) einfallenden Lichts, für die der Bildsensor (2) aufnahmefähig ist, enthalten, - wobei den jeweiligen Aufnahmen der zumindest zwei einzelnen Spektralkomponenten des einfallenden Lichts jeweils eine separate virtuelle Kameraposition (61, 62, 63) zugeordnet wird, - wobei vorab eine geometrische Kalibrierung der zumindest zwei virtuellen Kamerapositionen (61, 62, 63) zueinander durchgeführt wird, indem für jede der zumindest zwei virtuellen Kamerapositionen (61, 62, 63) jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt wird, wobei diese Transformationen jeweils
- einer in einer der virtuellen Kamerapositionen (61, 62, 63) ermittelten Position eines
Messraumpunkts genau eine Position im Koordinatensystem zuordnet, und
- einer jeweils in zumindest einer anderen virtuellen Kameraposition (61, 62, 63) ermit-
telten Position desselben Messraumpunkts dieselbe Position im Koordinatensystem zu-
ordnet, und - die in den einzelnen virtuellen Kamerapositionen (61, 62, 63) erstellten Aufnahmen unter Anwendung der ermittelten Transformationen in ein gemeinsames dreidimensionales Koordinatensystem überführt und derart zu einem dreidimensionalen Abbild zusammengeführt werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, - dass das Messsystem (100) einen weiteren wellenlängensensitiven Bildsensor, insbesondere einen weiteren Videosensor, umfasst, wobei die Aufnahmerichtung des weiteren Bildsensors im Wesentlichen parallel zur Aufnahmerichtung des Bildsensors (2) ist und - dass im Rahmen der extrinsischen Kamerakalibrierung die Position und Orientierung des weiteren Bildsensors und der Beleuchtungseinheit (4) zueinander, sowie die Position und Orientierung des Bildsensors (2) und des weiteren Bildsensors zueinander ermittelt werden, und - dass im Rahmen der intrinsischen Kamerakalibrierung intrinsische Kameraparameter des weiteren Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt werden.
Hierzu 2 Blatt Zeichnungen
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA50926/2022A AT526735B1 (de) | 2022-12-06 | 2022-12-06 | Messsystem zur Erzeugung von 3D-Bildern |
PCT/AT2023/060417 WO2024119206A1 (de) | 2022-12-06 | 2023-11-30 | Messsystem zur erzeugung von 3d-bildern |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA50926/2022A AT526735B1 (de) | 2022-12-06 | 2022-12-06 | Messsystem zur Erzeugung von 3D-Bildern |
Publications (2)
Publication Number | Publication Date |
---|---|
AT526735A1 AT526735A1 (de) | 2024-06-15 |
AT526735B1 true AT526735B1 (de) | 2024-07-15 |
Family
ID=89119313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ATA50926/2022A AT526735B1 (de) | 2022-12-06 | 2022-12-06 | Messsystem zur Erzeugung von 3D-Bildern |
Country Status (2)
Country | Link |
---|---|
AT (1) | AT526735B1 (de) |
WO (1) | WO2024119206A1 (de) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040207823A1 (en) * | 2003-04-16 | 2004-10-21 | Alasaarela Mikko Petteri | 2D/3D data projector |
DE102007050607A1 (de) * | 2006-10-23 | 2008-04-24 | Pentax Corp. | Kamerakalibrierung für ein Endoskopnavigationssystem |
US20090292168A1 (en) * | 2004-09-24 | 2009-11-26 | Vivid Medical | Wavelength multiplexing endoscope |
US20110057930A1 (en) * | 2006-07-26 | 2011-03-10 | Inneroptic Technology Inc. | System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy |
EP2549226A1 (de) * | 2011-07-20 | 2013-01-23 | Samsung Electronics Co., Ltd. | Endoskop und Endoskopsystem |
DE102013226654A1 (de) * | 2013-12-19 | 2015-06-25 | Robert Bosch Gmbh | Optisches Stereo-System |
WO2019155401A1 (en) * | 2018-02-12 | 2019-08-15 | 3M Innovative Properties Company | Projected texture pattern for intra-oral 3d imaging |
US20200088513A1 (en) * | 2018-09-19 | 2020-03-19 | Qisda Corporation | Three dimensional scan system with increased range of resolution |
WO2021016644A1 (de) * | 2019-07-30 | 2021-02-04 | Eyes.Tec Gmbh | Verfahren zur erstellung dreidimensionaler abbilder von kavitäten |
US20220094901A1 (en) * | 2020-09-23 | 2022-03-24 | Proprio, Inc. | Endoscopic imaging systems for generating three dimensional images, and associated systems and methods |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL254460A (de) | 1960-08-02 | |||
US3971065A (en) | 1975-03-05 | 1976-07-20 | Eastman Kodak Company | Color imaging array |
US6407868B1 (en) | 1997-05-13 | 2002-06-18 | Nikon Corporation | Cross dichroic prism, method of making the same, and full-color projector using the same |
US9769455B2 (en) * | 2010-12-21 | 2017-09-19 | 3Shape A/S | 3D focus scanner with two cameras |
EP2847543B1 (de) * | 2012-08-07 | 2016-07-06 | Carl Zeiss Industrielle Messtechnik GmbH | Messeinrichtung und verfahren zum vermessen eines messobjekts |
-
2022
- 2022-12-06 AT ATA50926/2022A patent/AT526735B1/de active
-
2023
- 2023-11-30 WO PCT/AT2023/060417 patent/WO2024119206A1/de active Search and Examination
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040207823A1 (en) * | 2003-04-16 | 2004-10-21 | Alasaarela Mikko Petteri | 2D/3D data projector |
US20090292168A1 (en) * | 2004-09-24 | 2009-11-26 | Vivid Medical | Wavelength multiplexing endoscope |
US20110057930A1 (en) * | 2006-07-26 | 2011-03-10 | Inneroptic Technology Inc. | System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy |
DE102007050607A1 (de) * | 2006-10-23 | 2008-04-24 | Pentax Corp. | Kamerakalibrierung für ein Endoskopnavigationssystem |
EP2549226A1 (de) * | 2011-07-20 | 2013-01-23 | Samsung Electronics Co., Ltd. | Endoskop und Endoskopsystem |
DE102013226654A1 (de) * | 2013-12-19 | 2015-06-25 | Robert Bosch Gmbh | Optisches Stereo-System |
WO2019155401A1 (en) * | 2018-02-12 | 2019-08-15 | 3M Innovative Properties Company | Projected texture pattern for intra-oral 3d imaging |
US20200088513A1 (en) * | 2018-09-19 | 2020-03-19 | Qisda Corporation | Three dimensional scan system with increased range of resolution |
WO2021016644A1 (de) * | 2019-07-30 | 2021-02-04 | Eyes.Tec Gmbh | Verfahren zur erstellung dreidimensionaler abbilder von kavitäten |
US20220094901A1 (en) * | 2020-09-23 | 2022-03-24 | Proprio, Inc. | Endoscopic imaging systems for generating three dimensional images, and associated systems and methods |
Also Published As
Publication number | Publication date |
---|---|
AT526735A1 (de) | 2024-06-15 |
WO2024119206A1 (de) | 2024-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102008017481B4 (de) | Vorrichtung und Verfahren zur optischen 3D-Vermessung und zur Farbmessung | |
EP3298345B1 (de) | Kamera und verfahren zur dreidimensionalen vermessung und farbvermessung eines dentalen objekts | |
DE10204430A1 (de) | Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem | |
DE102014019671B4 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera | |
DE102015122842A1 (de) | Kalibrierplatte zum Kalibrieren einer 3D-Messvorrichtung und Verfahren hierfür | |
DE102021106488A1 (de) | Hintergrund-Wiedergabeeinrichtung, Hintergrundwiedergabesystem, Aufnahmesystem, Kamerasystem, digitale Kamera und Verfahren zum Steuern einer Hintergrund-Wiedergabeeinrichtung | |
EP0918302A2 (de) | Kohärenzdetektor | |
WO2007134567A1 (de) | Verfahren zum erzeugen von bildinformationen | |
DE102012102580A1 (de) | Verfahren zum Messen eines Objektes sowie Intraoral-Scanner | |
AT526735B1 (de) | Messsystem zur Erzeugung von 3D-Bildern | |
DE102018123781B4 (de) | Verfahren zum Durchführen einer Shading-Korrektur und optisches Beobachtungsgerätesystem | |
DE19749974C2 (de) | Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke | |
DE102013105102A1 (de) | Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten | |
EP4100694B1 (de) | Verfahren und intraoralscanner zum erfassen der topographie der oberfläche eines transluzenten, insbesondere dentalen, objektes | |
DE19753246C2 (de) | Vorrichtung zur Bestimmung von dreidimensionalen Daten von Objekten | |
DE102014019669B4 (de) | 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen | |
DE102016109131B4 (de) | Verfahren zur dreidimensionalen Erfassung eines Objekts | |
DE10301094B4 (de) | Vorrichtung zur Messung des Abstandes von Entfernungspunkten zu einer Kamera | |
DE102014019672B3 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit Wellenlängenüberprüfung | |
LU102086B1 (de) | Verfahren zur Erstellung einer Bildaufzeichnung | |
EP3594615A1 (de) | Optisches sensorsystem für ein koordinatenmessgerät, verfahren zum erfassen eines messpunkts auf einer oberfläche eines messobjekts sowie koordinatenmessgerät | |
DE102014224554B4 (de) | Verfahren und System zum Erzeugen von digitalen Farbbildern oder Videosequenzen | |
DE102020127894B4 (de) | Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten | |
DE102016001663A1 (de) | Aufnahmeanordnung für fotografische und geometrische Objektdaten | |
DE102016200369A1 (de) | Einrichtung zur optischen Prüfung der Oberfläche eines Objekts |