KR102614323B1 - Create a 3D map of a scene using passive and active measurements - Google Patents
Create a 3D map of a scene using passive and active measurements Download PDFInfo
- Publication number
- KR102614323B1 KR102614323B1 KR1020177031544A KR20177031544A KR102614323B1 KR 102614323 B1 KR102614323 B1 KR 102614323B1 KR 1020177031544 A KR1020177031544 A KR 1020177031544A KR 20177031544 A KR20177031544 A KR 20177031544A KR 102614323 B1 KR102614323 B1 KR 102614323B1
- Authority
- KR
- South Korea
- Prior art keywords
- objects
- distance
- map
- image
- measurements
- Prior art date
Links
- 238000005259 measurement Methods 0.000 title claims description 116
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims description 32
- 230000033001 locomotion Effects 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000520 microinjection Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/03—Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/10009—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
- G06K7/10198—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves setting parameters for the interrogator, e.g. programming parameters and operating modes
- G06K7/10217—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves setting parameters for the interrogator, e.g. programming parameters and operating modes parameter settings controlling the transmission power of the interrogator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/10544—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
- G06K7/10554—Moving beam scanning
- G06K7/10564—Light sources
- G06K7/10584—Source control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Toxicology (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Aviation & Aerospace Engineering (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Mechanical Engineering (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Optics & Photonics (AREA)
Abstract
3차원(3D) 지도를 획득하기 위한 3D 지도를 생성하는 방법 및 장치가 제시된다. 상기 방법은 수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체를 분류하기 위해 상기 적어도 하나의 이미지를 분석하는 단계; 상기 복수의 대상체들을 분류하는 단계; 상기 분류에 기초하여 상기 복수의 대상체들의 각 대상체까지의 거리를 수동적으로 측정할지의 여부를 결정하는 단계; 상기 결정에 기초하여 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 상기 거리를 수동적으로 측정하는 단계; 상기 복수의 대상체들 중 일부의 대상체까지의 거리를 능동적으로 측정하는 단계 - 상기 대상체까지의 상기 거리가 수동적으로 측정될 수 없을 때 상기 복수의 대상체들 중 상기 동일한 일부의 대상체 중 하나의 대상체까지의 상기 거리를 능동적으로 측정함 -; 및 상기 복수의 대상체들 각각에 대해 측정된 상기 거리에 기초하여 장면의 3D 지도를 생성하는 단계를 포함한다.A method and device for generating a 3D map to obtain a three-dimensional (3D) map are presented. The method includes analyzing at least one image acquired by a passive sensor to classify a plurality of objects therein; Classifying the plurality of objects; determining whether to manually measure the distance to each object of the plurality of objects based on the classification; passively measuring the distance to at least one object among the plurality of objects based on the determination; Actively measuring the distance to some of the plurality of objects - when the distance to the object cannot be measured passively, measuring the distance to one of the same part of the plurality of objects Actively measuring the distance -; and generating a 3D map of the scene based on the distance measured for each of the plurality of objects.
Description
[관련 출원과의 상호 참조][Cross-reference with related applications]
본 출원은 2015년 4월 1일자로 출원된 미국 예비출원 제62/141,296호 및 2015년 5월 13일자로 출원된 미국 예비출원 제62/160,988호의 우선권을 주장하며, 그 내용은 본 명세서에 참고로 포함된다.This application claims priority to U.S. Provisional Application No. 62/141,296, filed on April 1, 2015, and U.S. Provisional Application No. 62/160,988, filed on May 13, 2015, the contents of which are incorporated herein by reference. It is included as
자율 주행 자동차(무인 자동차, 셀프 주행 자동차 또는 로봇 차라고도 함)는 인간의 조정 없이 주행하는 차량이다. 자율 주행 차량은 레이더, 라이다(Lidar), GPS, 주행 거리계 또는 컴퓨터 비전을 사용하여 주변을 검출하기 위해 환경을 감지한다. 첨단 제어 시스템은 감각 정보를 해석하여 장애물 및 관련 표지판은 물론 적절한 탐색 경로를 식별한다. 자율 주행 자동차는 도로상의 다른 자동차나 장애물을 구별하기 위해 감각 데이터를 분석하기 위한 제어 시스템을 갖추고 있다. 현재, 무인 자동차 기술은 Google®, Tesla®, 및 Audi®, BMW®, Nissan® 등과 같은 일부 차량 제조업체에서 개발되고 있다.Autonomous vehicles (also known as driverless cars, self-driving cars, or robot cars) are vehicles that drive without human intervention. Autonomous vehicles use radar, Lidar, GPS, odometer, or computer vision to sense their environment to detect their surroundings. Advanced control systems interpret sensory information to identify obstacles and associated signs, as well as appropriate navigation paths. Self-driving cars are equipped with control systems to analyze sensory data to distinguish between other cars and obstacles on the road. Currently, driverless car technology is being developed by Google®, Tesla®, and some vehicle manufacturers such as Audi®, BMW®, Nissan®, etc.
예를 들어, Mobileye®와 같은 다른 회사들은 시장에서 핸즈프리 구동 기술에 대한 솔루션을 제공하려고 하고 있다. 이 기술의 사용은 전형적으로 고속도로 또는 국도와 같은 특정 주행 인프라에 제한된다. 이러한 핸즈프리 운전 및 자율 주행 차량 기술의 핵심은 이동중이나 이동 바로 직전 어느 순간에 장면의 3차원 지도를 렌더링하고 생성하는 데에 있다. 이러한 지도는 운전자가 보는 바와 같은 장면을 모방하려고 한다.For example, other companies such as Mobileye® are trying to provide solutions for hands-free driving technology in the market. The use of this technology is typically limited to specific driving infrastructure, such as highways or national highways. The core of these hands-free driving and autonomous vehicle technologies lies in rendering and creating a three-dimensional map of the scene at any moment during or immediately before movement. These maps attempt to mimic the scene as a driver would see it.
이러한 3D 지도의 렌더링은 전형적으로 3D 공간 내의 많은 지점에 대한 거리를 측정하여 대상체의 존재 및 차량과의 각각의 거리를 결정하는 것으로 달성된다. 렌더링된 3D 지도는 차량에 의해 주행 결정을 내리기 위해 결합되고 처리될 수 있다. 상세한 3D 지도를 렌더링하기 위한 기존 솔루션은 라이다 (또는 LADAR) 시스템을 기반으로 한다. 라이다 시스템은 하나의 레이저 빔 또는 여러 개의 레이저 빔을 사용하여 여러 타겟(공간 내의 지점)을 조명하여 대상체까지의 거리를 측정한다. 이러한 기존 솔루션은 전체 배경(장면)을 스캔하도록 라이다 시스템을 구성한다. 단일 3D 지도를 렌더링하려면 많은 수의 레이저 측정을 필요로 한다.Rendering of these 3D maps is typically accomplished by measuring distances to many points in 3D space to determine the presence of objects and their respective distances to vehicles. The rendered 3D maps can be combined and processed by the vehicle to make driving decisions. Existing solutions for rendering detailed 3D maps are based on LiDAR (or LADAR) systems. LiDAR systems measure the distance to an object by illuminating multiple targets (points in space) using a single laser beam or multiple laser beams. These existing solutions configure the LIDAR system to scan the entire background (scene). Rendering a single 3D map requires a large number of laser measurements.
예를 들어, 도 1은 3D 지도가 생성되는 장면의 이미지(100)를 도시한다. 핸즈프리 및 자율 주행 기술에 의해 구현된 일부 기존 솔루션은 이미지(100) 내의 각 지점(110)까지의 거리를 측정한다. 따라서, 레이저 빔은 3D 지도를 렌더링하기 위해 각각의 지점을 조명한다. 많은 예에서, 라이다 시스템은 장면에 대한 사전 지식, 예를 들어 장면의 사진을 갖고 있지 않다. 이를 위해서 이 기술은 매우 복잡하고 값비싼 장비를 기반으로 해야 한다. 예를 들어 Google®에서 만든 로봇 자동차에는 약 7만 달러 가치의 라이다 시스템을 갖춘 장비를 포함한다. 라이다 시스템은 64개의 빔 레이저를 포함한다. 3D 지도를 렌더링하기 위한 하드웨어의 비용이 많이 들어가기 때문에 자율 주행 차량의 대량 생산은 현실적으로 불가능하다. 단지 간략화를 위해 도 1에는 소수 개의 지점(110)만이 구체적으로 표시되고 있음에 유의해야 한다For example, Figure 1 shows an
또한, 기존의 라이다 시스템을 사용하는 자율 차량의 광범위한 생산은 각 차량으로부터 송신되어 시선 내에 있는 사람에 부딪힐 가능성이 있는 많은 수의 레이저 빔으로 인해 보행자, 운전자 및/또는 승객에게 위험한 조건을 야기할 수 있다. 또한, 기존 라이다 솔루션은 사용 가능한 한 가장 높은 에너지 수준에서 레이저 빔을 전송하도록 구성된다. 이것은 라이다 시스템의 최대 범위에서 일 지점을 측정하기 위해 수행된다.Additionally, widespread production of autonomous vehicles using existing LiDAR systems will create hazardous conditions for pedestrians, drivers, and/or passengers due to the large number of laser beams transmitted from each vehicle that are likely to hit anyone within their line of sight. can do. Additionally, existing LiDAR solutions are configured to transmit laser beams at the highest energy level available. This is done to measure one point at the maximum range of the LIDAR system.
또한, 전체 장면을 스캐닝함으로써 3D 지도를 생성하게 되면 크로스토크(crosstalk)가 증가하게 된다. 이는 이러한 스캐닝 시스템이 장착된 자율 주행 차량에 의해 많은 수의 레이저 빔이 전송되기 때문이다. 결과적으로 전체 장면을 스캔하여 생성된 3D 지도의 최종 해상도가 제한될 수 있다.Additionally, when a 3D map is created by scanning the entire scene, crosstalk increases. This is because a large number of laser beams are transmitted by autonomous vehicles equipped with these scanning systems. As a result, the final resolution of the 3D map generated by scanning the entire scene may be limited.
따라서, 종래 기술의 결점을 극복할 수 있는 3D 지도를 생성하는 솔루션을 제공하는 것이 바람직하다.Therefore, it is desirable to provide a solution for generating 3D maps that can overcome the shortcomings of the prior art.
본 개시의 몇몇 예시적인 실시 형태의 요약이 뒤이어진다. 이 요약은 독자가 실시예에 대한 기본적인 이해를 제공할 수 있도록 편의상 제공된 것으로, 본 개시의 범위를 완전히 규정하는 것은 아니다. 이 요약은 모든 고려된 실시예에 대한 광범위한 개론이 아니며, 모든 실시예의 주요 요소 또는 중요한 요소를 식별하거나 또는 임의의 또는 모든 양태의 범위를 기술하려고 하는 것도 아니다. 유일한 목적은 후술되는 더욱 상세한 설명의 서두로서 간략화된 형태로 하나 이상의 실시예의 일부 개념을 제시하는 것이다. 편의상, "일부 실시예"라는 용어는 본 개시의 단일 실시예 또는 다수의 실시예를 나타내기 위해 사용될 수 있다.A summary of several example embodiments of the disclosure follows. This summary is provided for convenience only to provide the reader with a basic understanding of the embodiments and does not fully define the scope of the disclosure. This summary is not an extensive overview of all contemplated embodiments, nor is it intended to identify key or critical elements of all embodiments or to delineate the scope of any or all aspects. Its sole purpose is to present some concepts of one or more embodiments in a simplified form as a prelude to the more detailed description that is presented later. For convenience, the term “some embodiments” may be used to refer to a single embodiment or multiple embodiments of the present disclosure.
본 명세서에 개시된 특정 실시예는 3차원(3D) 지도를 획득하기 위한 방법을 포함한다. 이 방법은 수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체들을 식별하기 위해 상기 적어도 하나의 이미지를 분석하는 단계; 상기 복수의 대상체들을 분류하는 단계; 상기 분류에 기초하여, 정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 각각의 거리를 수동적으로 측정하는 단계; 비정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하는 단계; 상기 수동적으로 측정된 각각의 거리와 상기 능동적으로 측정된 각각의 거리를 융합하여, 복수의 대상체들에 대한 융합된 거리 측정치를 얻는 단계; 및 상기 융합된 거리 측정치를 기초로 장면의 3D 지도를 생성하는 단계를 포함한다.Certain embodiments disclosed herein include methods for obtaining three-dimensional (3D) maps. The method includes analyzing at least one image acquired by a passive sensor to identify a plurality of objects in the image; Classifying the plurality of objects; Based on the classification, manually measuring each distance to at least one object among the plurality of objects classified as stationary objects; Actively measuring distances to some of the plurality of objects classified as non-stationary objects; Obtaining fused distance measurements for a plurality of objects by fusing each of the passively measured distances with each of the actively measured distances; and generating a 3D map of the scene based on the fused distance measurements.
본 명세서에 기재된 특정 실시예는 3차원(3D) 지도를 획득하기 위한 장치를 포함한다. 이 장치는 3차원(3D) 지도를 획득하기 위한 장치에 있어서, 장면의 이미지를 획득하기 위한 수동 센서; 처리 시스템으로서, 수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체들을 식별하기 위해 상기 적어도 하나의 이미지를 분석하고, 상기 복수의 대상체들을 분류하도록 구성된 처리 시스템; 및 비정지 상태의 대상체로 분류된 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하도록 구성된 능동 센서를 포함하고, 상기 처리 시스템은 상기 수동적으로 측정된 각각의 거리와 상기 능동적으로 측정된 각각의 거리를 융합하여, 복수의 대상체들에 대한 융합된 거리 측정치를 얻고, 상기 융합된 거리 측정치를 기초로 장면의 3D 지도를 생성하도록 더 구성된록 구성된다.Certain embodiments described herein include devices for obtaining three-dimensional (3D) maps. This device is a device for acquiring a three-dimensional (3D) map, comprising: a passive sensor for acquiring an image of a scene; A processing system, comprising: a processing system configured to analyze at least one image acquired by a passive sensor to identify a plurality of objects in the image and classify the plurality of objects; and an active sensor configured to actively measure respective distances to some of the plurality of objects classified as non-stationary objects, wherein the processing system is configured to measure each of the passively measured distances and the actively and further configured to fuse each measured distance to obtain fused distance measurements for a plurality of objects, and generate a 3D map of the scene based on the fused distance measurements.
본 명세서에 기재된 특정 실시예는 또한 3차원(3D) 지도를 획득하기 위한 방법을 포함한다. 이 방법은 수동 센서에 의해 적어도 하나의 이미지를 획득하는 단계; 세분화 지도를 렌더링하기 위해 상기 적어도 하나의 이미지를 세분화하는 단계; 상기 세분화 지도에서 식별된 각 세그멘트 내의 제1 개수의 픽셀의 각 픽셀에 대한 거리 값을 능동적으로 측정하는 단계 - 상기 제1 개수의 픽셀은 각 세그먼트 내의 상기 픽셀의 수보다 작음 -; 상기 제1 개수의 픽셀 내의 픽셀의 상기 거리를 사용하여 상기 세그먼트 내의 각 픽셀에 대한 거리 값을 계산하는 단계; 및 상기 측정 및 계산된 거리 값에 기초하여 장면의 3D 지도를 생성하는 단계를 포함한다.Certain embodiments described herein also include methods for obtaining three-dimensional (3D) maps. The method includes acquiring at least one image by a passive sensor; segmenting the at least one image to render a segmentation map; actively measuring a distance value for each pixel of a first number of pixels within each segment identified in the segmentation map, the first number of pixels being less than the number of pixels within each segment; calculating a distance value for each pixel in the segment using the distance of pixels in the first number of pixels; and generating a 3D map of the scene based on the measured and calculated distance values.
본 명세서에 개시된 요지는 명세서의 결론 청구 범위에서 특히 지적되며 명백하게 청구된다. 개시된 실시예의 상기 및 다른 목적, 특징 및 이점은 첨부된 도면과 관련하여 취해진 다음의 상세한 설명으로부터 명백해질 것이다.
도 1은 종래의 접근법을 사용하여 3D 지도가 생성된 장면의 사진이다.
도 2는 일 실시예에 따라 차량으로부터 3D 지도를 생성하도록 구성된 장치의 블록도이다.
도 3a 및 도 3b는 일 실시예에 따라 이미지 내의 대상체들의 식별을 나타내는 도면이다.
도 4는 일 실시예에 따른 장면의 3D 지도를 생성하는 방법을 도시하는 흐름도이다.
도 5는 일 실시예에 따른 수동 측정을 수행하는 방법을 나타내는 흐름도이다.
도 6은 알려진 대상체 크기에 기초한 수동 측정을 나타내는 이미지이다.
도 7은 다른 실시예에 따른 수동 측정을 수행하는 방법을 나타내는 흐름도이다.
도 8은 프레임들간의 거리 변화에 기초하여 대상체가 정지 상태인지를 결정하는 것을 설명하기 위해 이용된 스크린 샷이다.The subject matter disclosed herein is particularly pointed out and expressly claimed in the concluding claims of the specification. These and other objects, features and advantages of the disclosed embodiments will become apparent from the following detailed description taken in conjunction with the accompanying drawings.
Figure 1 is a photograph of a scene from which a 3D map was created using a conventional approach.
2 is a block diagram of an apparatus configured to generate a 3D map from a vehicle according to one embodiment.
3A and 3B are diagrams illustrating identification of objects in an image according to one embodiment.
4 is a flowchart illustrating a method for generating a 3D map of a scene according to one embodiment.
5 is a flowchart illustrating a method for performing manual measurement according to one embodiment.
Figure 6 is an image showing a manual measurement based on known object size.
7 is a flowchart showing a method of performing manual measurement according to another embodiment.
Figure 8 is a screen shot used to explain determining whether an object is stationary based on changes in distance between frames.
여기에 개시된 실시예는 본 명세서의 혁신적인 기술의 많은 유리한 사용예에 불과하다는 것을 주목하는 것이 중요하다. 일반적으로, 본원의 상세한 설명에서 이루어진 설명은 청구된 실시예들을 반드시 제한하는 것은 아니다. 또한, 일부 진술은 다른 특성이 아니라 본 발명의 특성에 적용될 수 있다. 일반적으로, 달리 명시하지 않는 한, 단수 요소는 일반성의 손실 없이 복수일 수 있고, 또는 그 반대일 수 있다. 도면에서, 동일한 참조 번호는 몇 도면에 걸쳐 동일한 부분을 지칭한다.It is important to note that the embodiments disclosed herein are merely examples of many advantageous uses of the innovative technology herein. In general, the description made in the detailed description herein is not necessarily limiting to the claimed embodiments. Additionally, some statements may apply to features of the invention and not to other features. In general, unless otherwise specified, singular elements may be plural and vice versa without loss of generality. In the drawings, like reference numbers refer to like parts across several views.
개시된 실시예에 따르면, 3D 지도는 능동 측정, 수동 측정 및/또는 그러한 측정과 관련된 정보의 분석에 기초하여 렌더링되거나 그렇지 않으면 생성된다. 일부 실시예에서, 3D 지도는 차량으로부터 캡쳐된 측정치에 기초할 수 있다. 일 실시예에서, 능동 측정은 레이저 측정이지만, 수동 측정은 이미지 처리에 의해 달성된다. 따라서, 개시된 실시예는 적은 수의 저 에너지 레이저 빔을 사용하면서 장면의 완전한 3D 지도를 제공할 수 있게 한다. 장면은 3D 지도를 생성하게 하는 장치에 의해 캡쳐된 시야일 수 있다. 특정 구성에서, 개시된 실시예는 전체 장면에 대해 능동 측정을 수행하지 않고 특정 구간의 환경의 고해상도 3D 지도를 생성하는 데 이용될 수 있다. 능동 측정을 적게 사용하게 되면 사람이 레이저 광선에 노출될 위험이 줄어든다.According to disclosed embodiments, a 3D map is rendered or otherwise generated based on active measurements, passive measurements, and/or analysis of information associated with such measurements. In some embodiments, the 3D map may be based on measurements captured from the vehicle. In one embodiment, the active measurement is a laser measurement, while the passive measurement is achieved by image processing. Accordingly, the disclosed embodiments enable providing a complete 3D map of the scene while using a small number of low energy laser beams. The scene may be a view captured by a device that allows it to create a 3D map. In certain configurations, the disclosed embodiments can be used to generate high-resolution 3D maps of specific sections of the environment without performing active measurements over the entire scene. The use of fewer active measurements reduces the risk of human exposure to laser radiation.
도 2는 일 실시예에 따라 차량으로부터 3D 지도를 생성하도록 구성된 장치(200)의 예시적인 블록도를 도시한다. 장치(200)는 처리 시스템(210)에 연결된 메모리(215), 능동 센서(220), 및 수동 센서(230)를 포함한다. 특정 구성에서, 장치(200)는 처리 시스템(210)에 연결된 저장 장치(240), 하나 이상의 모션 센서(250), 및 네트워크 인터페이스(260)를 더 포함한다. 2 shows an example block diagram of an
장치(200)는 예를 들어, 차량에 장착되거나 차량에 일체화될 수 있다. 이러한 차량은 예를 들어 자동차, 트럭, 버스, 드론, 로봇 등을 포함할 수 있다. 장치(200)는 차량의 조작자(예를 들어, 운전자)에 의해 관찰되는 바와 같은 장면의 3D 지도를 생성하는데 이용될 수 있다. 일 실시예에서, 장치(200)는 생성된 3D 지도의 분석에 기초하여 차량의 동작의 일부 또는 전부를 제어하도록 구성된다. 따라서, 장치(200)는 자율 주행 차량, 핸즈프리 주행 시스템, 운전자 보조 시스템 등과 관련된 응용에 사용될 수 있다.
수동 센서(230)는 수동적으로 이미지를 획득하도록 구성된 이미지 센서(예를 들어, 카메라)일 수 있다. 획득된 이미지는 처리 시스템(210)에 의해 또는 이미지 처리 기술을 사용하는 수동 센서(230)에 의해 처리될 수 있다.
능동 센서(220)는 장면 내 대상체로부터의 거리를 결정하기 위해 특정 방향으로 능동 측정을 수행하도록 구성된다. 일 실시예에서, 능동 측정은 레이저 측정이다. 또 다른 실시예에서, 능동 센서(220) (예를 들어, 처리 시스템(210)에 의해 결정되는) 특정 방향에서 광선을 조명하고 장면 내 대상체로부터 반사된 광선을 검출하도록 구성된다. 대상체로부터의 거리는 각각의 반사된 광선의 에너지 및 반사 각도에 기초하여 계산될 수 있다. 능동 센서(220)는 능동 스테레오 비젼(stereovision), 구조화된 광(structured light), 타임-오브-플라이트(time-of-flight; TOF) 등으로 구현될 수 있지만, 이에 한정되는 것은 아니다.
처리 시스템(210)은 전체 환경이나 환경 내의 특정 대상체의 3D 지도를 생성하기 위해 데이터(예를 들어, 방출 및 반사된 빔의 에너지 레벨, 방향, 반사각)를 처리하도록 구성된다. 후술되는 바와 같이, 능동 측정의 수는 수동 센서(230)에 의해 획득된 이미지 또는 이미지를 사용하여 초기 스캐닝이 수행될 때 공간 내의 특정 지점 및/또는 표면으로 제한된다. 실시예에서, 이전에 획득된 이미지 또는 이전에 생성된 3D 지도와 같은 3D 지도 추가 정보를 생성하기 위해서, 이전에 결정된 능동 측정 및/또는 모션 센서(250)로부터 수집된 감각 정보가 이용될 수 있다. 모션 센서(250)는 글로벌 위치 확인 시스템(GPS), 가속도계, 근접 센서, 주행계 등을 포함할 수 있지만, 이에 한정되는 것은 아니다. 능동/수동 측정과 함께 부가 정보는 처리 시스템(210)에 의해 이용되어 각 대상체의 크기, 그 속도 및 차량에 대한 그 방향을 결정할 수 있다.
특정 실시예에 따르면, 처리 시스템(210)은 3D 지도를 생성하도록 구성된다. 이를 위해, 처리 시스템(210)은 능동 및 수동 측정들을 융합하고; 정지 또는 거의 정지 상태인 대상체를 결정하고; 움직이는 대상체로부터의 거리만을 능동적으로 측정하고; 대상체의 최고 가능 속도 및/또는 수동 측정치를 이용하여 대상체로부터의 거리를 추정하도록 구성된다.According to certain embodiments,
능동 및 수동 측정의 융합은 수동 센서(230)가 신뢰성 있는 측정을 제공하지 않는 영역에서 대상체를 측정하기 위해 능동 센서(220)를 이용하는 것을 포함할 수 있다. 수동 센서(230)가 대상체에 대해 신뢰성 있는 측정을 제공할 수 있는지는 대상체의 분류, 화상 내의 대상체의 가시성 등에 기초하지만, 이에 한정되는 것은 아니다. 일 실시예에서, 신뢰할 수 있는 수동 측정이 달성될 수 있다면, 능동 센서(220)를 이용하지 않는다. 따라서, 개시된 실시예는 능동 센서(220)에 의해 수행되는 능동 측정의 수를 상당히 감소시킬 수 있다.The fusion of active and passive measurements may include using the
이와 같이, 더 적은 레이저 빔이나 그 외 소스가 이용될 수 있고, 그에 의해 더 높은 해상도를 달성할 뿐만 아니라 에너지 소비, 크로스토크 및 위험한 조건을 감소시킬 수 있다. 일 실시예에서, 장치(200)는 능동 센서(220)를 사용하여 의심 상태 대상체만을 능동적으로 측정하도록 구성될 수 있다. 의심 상태 대상체는 그에 기초한 지도를 정확하게 생성하기 위해 능동 측정을 필요로 하는 임의의 대상체일 수 있다. 대상체의 분류는 아래에서 설명한다. 대상체는 예를 들어, 대상체가 비정지 상태(즉, 이동중) 및/또는 장치(200)에 최근접 상태인 경우 의심 상태가 될 수 있다. 일 예로, 장치(200)가 자동차에 장착되면, 보행자는 의심 상태 대상체로 인식되는 반면 배경의 나무는 그렇지 않다.As such, fewer laser beams or other sources can be used, thereby achieving higher resolution as well as reducing energy consumption, crosstalk, and hazardous conditions. In one embodiment,
일 실시예에서, 처리 시스템(210)은 수동 센서(230)에 의해 제공된 이미지에 기초하여 어떤 대상체가 정지 상태에 있는지 또는 거의 정지 상태에 있는지를 결정하도록 구성된다. 예를 들어, 이미지 인식을 사용하여, 처리 시스템(210)은 예를 들어, 집, 나무, 기둥 등과 같은 정지 상태의 대상체를 결정하도록 구성될 수 있다. 다른 실시예에서, 수동 센서(230)가 고정될 때, 처리 시스템(210)은 2개의 연속적인 이미지를 비교하고, 이 비교에 기초하여 어떤 대상체가 정지된 대상체를 기준으로 이동되었는지 결정함으로써 대상체가 정지 상태인지를 결정하도록 구성될 수 있다. 일 예로, 수동 센서가 환경 내의 건물의 측면에 고정되면, 연속 이미지를 비교하여 장면의 어떤 대상체가 고정된 대상체를 기준으로 이동되었는지 여부를 결정할 수 있다.In one embodiment,
또 다른 실시예에서, 대상체가 정지 상태인지의 여부를 결정하는 것은 수동 센서(230)에 의해 캡쳐된 프레임(예를 들어, 이미지)의 비교에 기초할 수 있다. 비교는 프레임 내 지점의 세트들 간의 거리 변화를 결정하는 것을 포함할 수 있지만, 이에만 제한하는 것은 아니다. 예시의 실시예에서, 두 지점 간의 각각의 거리 변화는 제1 프레임에서 보여지는 지점들 간의 3D 거리와 제2 프레임에서 보여지는 지점들 간의 3D 거리 간의 차이와 동일할 수 있다. 이동한 것으로 판단되는 대상체는 비정지 상태인 대상체와 연관될 수 있다. 일 실시예에서, 예를 들어, 대상체와 관련된 모든 거리 변화의 합이 사전 정의된 임계값 이상인 경우, 대상체는 이동한 것으로 결정될 수 있다. 다른 실시예에서, 지점과 관련된 거리 변경의 합이 미리 정의된 임계치를 초과하는 다른 대상체 각각에 관련된 거리 변경의 합보다 큰 경우, 대상체는 이동한 것으로 결정될 수 있다. 또 다른 실시예에서, 후속 프레임의 대상체와 관련된 거리 변화가 사전 정의된 임계치를 초과하는 이전 프레임의 대상체와 관련된 거리 변경보다 큰 경우, 대상체는 이동한 것으로 결정될 수 있다.In another embodiment, determining whether an object is stationary may be based on a comparison of frames (e.g., images) captured by
도 8은 대상체가 정지 상태인지의 여부를 결정하기 위해 프레임들 간의 거리 변화를 사용하여 기술하기 위해 사용된 예시적인 다이어그램(800)이다. 예시적인 스크린 샷(800)에서, 각각의 프레임(810 내지 830)은 (대상체를 나타낼 수 있는) 이미지 내의 지점들(1, 2, 3 및 4)의 위치 및 각 쌍의 지점들(1, 2, 3 및 4) 간의 거리를 나타낸다. 중첩된 프레임(830)은 프레임(810)의 상부에 프레임(820)이 중첩된 것을 나타낸다. 프레임(830)에서 나타낸 바와 같이, 지점(1, 2, 및 4)은 프레임(810 및 820) 각각에서와 대략 동일한 위치에 있다. 그러나 지점(3)은 프레임(810)에서는 프레임(820)에서와 다른 위치에 있다. 지점(3)에 관련된 거리 변화의 합은 지점의 쌍들(1 및 3), (2 및 3) 및 (4 및 3)에 대해 프레임(810 및 820) 간의 거리 변경의 합일 수 있다. 결과적으로, 지점(3)과 관련된 거리 변화의 합은 프레임들(810 및 820) 사이에서 0보다 커질 것이며, 미리 정의된 임계값 이상일 수 있다. 또한, 지점(3)에 관련된 거리 변화의 합은 지점(1, 2, 및 4) 각각에 관련된 거리 변화의 합보다 더 크게 된다. 따라서 지점(3)과 연관된 대상체가 프레임들(810 및 820) 사이에서 이동했다고 결정될 수 있다.8 is an example diagram 800 used to describe using distance changes between frames to determine whether an object is stationary. In the example screen shot 800, each frame 810-830 represents the positions of
다른 실시예에서, 이미지 내의 대상체가 정지 상태인지 여부를 결정하는 것은 이미지 내 대상체의 예측된 위치에 기초할 수 있다. 예측 이미지는 현재 획득된 이미지의 프레임 또는 생성된 3D 지도에 기초하여 생성될 수 있다. 예측 이미지는 현재 이미지를 획득하거나 현재 3D 지도를 생성하는데 사용되는 정보를 제공하는 센서의 움직임에 더욱 기초할 수 있다. 현재 프레임 및/또는 센서의 임의의 새로운 위치 또는 방위에 기초하여, 후속 시간(대상체가 이동하지 않는다고 가정)에서 대상체의 예측된 위치를 나타내는 예측 프레임이 생성된다. 예측 프레임은 후속 시간에 센서 판독 값에 기초한 후속 프레임과 비교되어 대상체의 위치들 간에 임의의 차이가 있는지를 결정할 수 있다. 일 실시예에서, 예측 프레임과 대응하는 후속 프레임 사이의 대상체의 위치의 차이가 소정의 임계치를 초과하는 경우, 대상체가 이동했다고 결정될 수 있다.In another embodiment, determining whether an object in an image is stationary may be based on a predicted location of the object in the image. The predicted image may be generated based on a frame of the currently acquired image or a generated 3D map. The predicted image may be further based on the movement of the sensor, which provides information used to acquire the current image or generate the current 3D map. Based on the current frame and/or any new position or orientation of the sensor, a prediction frame is generated that represents the predicted position of the object at a subsequent time (assuming the object does not move). The predicted frame may be compared to subsequent frames based on sensor readings at subsequent times to determine if there are any differences between the positions of the object. In one embodiment, if the difference in the position of the object between the prediction frame and the corresponding subsequent frame exceeds a predetermined threshold, it may be determined that the object has moved.
일 실시예에서, 수동 센서(230)가 움직일 때, 정지된 대상체들로부터의 거리는 GPS 및 자동차의 속도를 사용하여 측정될 수 있다. 다른 실시예에서, 정지된 대상체들로부터의 거리는 수동 센서 정보 및/또는 3D 맵핑 정보의 프레임들(예를 들어, 획득된 이미지들)을 비교함으로써 GPS를 사용하지 않고 측정될 수 있다. 추가 실시예에서, 임의의 2개의 프레임들 간의 거리 및/또는 각도 변화를 발견하는 것은 가중된 스코어에 기초하여 프레임들 내의 대응하는 지점들의 각 쌍에 대해 결정될 수 있다. 이를 위해, 일 실시예에서, 두 프레임들 간의 거리 또는 각도 변화를 발견하는 단계는 프레임들 내의 일치하거나 아니면 대응하는 지점들을 결정하는 단계를 더 포함할 수 있다. 또 다른 실시예에서, 가중된 스코어는, 예를 들어 노이즈에 기초한 에러와 같이, 각 프레임 내의 지점의 거리와 관련된 에러의 정도에 기초하지만, 이에 한정되는 것은 아니다.In one embodiment, when the
또 다른 실시예에서, 예측 프레임은 3D 또는 2D 맵핑 정보뿐만 아니라 센서의 위치 및 방위에 기초하여 생성될 수 있다. 예측 프레임은 3D 맵핑 정보에 포함된 정지된(즉, 움직이지 않는) 대상체들의 예상 위치를 나타내는 3D 이미지일 수 있다. 그러한 정지 대상체는 나무, 간판, 표지판, 건물 및 기타 영구적 또는 반영구적 아이템이나 고정물을 포함할 수 있지만, 이에 국한되는 것은 아니다. 예측 프레임은 예를 들어, 이전 프레임의 노출된 갭을 채우기 위해 이용될 수 있다(예를 들어, 대상체가 움직일 때, 예측 프레임은 움직인 대상체의 이전 위치 뒤에 있는 아이템에 대한 예측을 설명하기 위해 이용될 수 있다).In another embodiment, the prediction frame may be generated based on the location and orientation of the sensor as well as 3D or 2D mapping information. A prediction frame may be a 3D image representing the predicted positions of stationary (i.e., non-moving) objects included in 3D mapping information. Such stationary objects may include, but are not limited to, trees, signs, signs, buildings, and other permanent or semi-permanent items or fixtures. Prediction frames can be used, for example, to fill exposed gaps in previous frames (e.g., when an object moves, prediction frames can be used to account for predictions about items behind the previous position of the moved object). can be).
다른 실시예에서, 수동 측정은 비정지 및 비의심 상태 분류된 대상체의 움직임에 기초하여 수행될 수 있다. 이를 위해, 거리를 수동적으로 측정하는 것은 대상체의 경계 속도 및 대상체의 이동 방향을 결정하는 것을 포함할 수 있지만, 이에 한정되는 것은 아니다. 경계 속도는 대상체의 경계(즉, 외표면)가 이동하는 속도이다. 결정된 경계 속도 및 방향에 기초하여, 대상체까지의 거리가 추정될 수 있다. 일 실시예에서, 추정된 거리는 대상체에 대한 이전에 알려진 거리 및/또는 대상체를 포함하는 이전에 생성된 3D 지도에 더욱 기초할 수 있다.In other embodiments, manual measurements may be performed based on the movement of objects that are classified as non-stationary and non-suspicious. To this end, passively measuring the distance may include, but is not limited to, determining the boundary speed of the object and the direction of movement of the object. Boundary speed is the speed at which the boundary (i.e., external surface) of an object moves. Based on the determined boundary speed and direction, the distance to the object may be estimated. In one embodiment, the estimated distance may be further based on a previously known distance to the object and/or a previously generated 3D map containing the object.
또 다른 실시예에서, 처리 시스템(210)은 그러한 대상체들의 최대 및/또는 최소 가능 속도를 사용하여 비정지 대상체들로부터의 거리를 추정하도록 구성된다. 대상체의 가능한 최대 또는 최소 속도가 경계 속도로 활용될 수 있다. 예를 들어, 보행자로부터의 거리가 먼저 측정되면, 주어진 시간에서 그 보행자의 가능한 거리를 나타내는 거리 범위(예를 들어, 0과 2 미터 사이)가 사람의 소정의 최대 속도에 기초하여 결정될 수 있다.In another embodiment,
보행자가 임의의 조치를 요구하지 않는 범위(예를 들어, 차량으로부터 길 건너 보도에서의 보행) 내에 위치하는 경우, 처리 시스템(210)은 보행자에 대한 다른 능동 측정을 트리거하지 않는다. 일 조치는 예를 들어, 차량을 조정하는 것을 포함할 수 있다. 조치가 필요한지는 미리 정의된 안전 거리 임계치를 기반으로 할 수 있다. 안전 거리 임계치는 차량 및/또는 대상체의 속도, 대상체의 장치(200)로부터의 거리, 대상체의 유형, 이들의 조합 등을 포함할 수 있지만, 이에 한정되는 것은 아니다. 또 다른 실시예에서, (예를 들어, 경계 속도 및 대상체의 방향에 기초하는) 움직이는 대상체에 대한 추정된 거리가 안전 거리 임계치를 만족하지 않을 때, 능동 측정이 수행될 수 있다. 일 조치는 예를 들어, 핸즈프리 또는 자율 차량을 제어하는 것을 포함될 수 있다.If the pedestrian is located within a range that does not require any action (e.g., walking on the sidewalk across the street from a vehicle), the
일 실시예에서, 처리 시스템(210)은 수동 측정을 사용하여 비정지 및 정지 상태의 대상체로부터 처리 시스템(210)의 거리를 추정하도록 구성된다. 특히, 거리는 대상체의 대략적인 크기 및 수동 센서(230)에 의해 획득된 이미지에서 피사체가 차지하는 픽셀의 양에 기초하여 추정될 수 있다. 이러한 추정은 피사체가 차량에 근접하는지의 여부를 결정하는 것을 더 포함할 수 있다. 근거리에 있지 않은 일부 대상체의 경우, 능동 센서(220)에 의한 능동 측정이 요구되지 않는다. 근거리 근접은 미리 정의된 임계치에 기초하여 설정될 수 있다(예를 들어, 100 미터 미만의 거리가 근접으로 결정될 수 있음).In one embodiment,
특정(예를 들어, 의심 상태) 대상체를 고려하는 것으로 능동 센서(220)에 의한 능동 측정의 수를 감소시킬 수 있다. 도 3a 및 도 3b는 본 발명의 일 실시예에 따라 3D 지도가 생성된 장면의 예시 영상을 도시한 도면이다. 먼저, 주변 환경의 이미지(300)가 수동 센서(230)에 의해 획득된다. 이미지(300)는 대상체(310)를 식별하도록 세분화된다. 대상체의 세분화 및 식별은 종래의 이미지 처리 기술을 사용하여 수행될 수 있다. 예를 들어, 도로, 보행자, 자동차, 밴, 트럭, 충돌 장벽 및 노이즈 장벽이 대상체(310)로 식별된다. 그런 다음, 대상체 분류 및 수동 측정이 수행된다. 대상체 분류에 기초하여, 어떤 능동 측정이 이루어져야 하는지, 즉 능동 센서(220)에 의해 방출된 레이저 광선을 어디로 향하게 할지가 결정된다. 대상체의 분류는 어떤 대상체가 정지 상태이고, 비정지 상태이고, 의심 상태인지를 결정할 수 있다. 예를 들어, 보행자, 자동차, 밴 및 트럭은 비정지 및 의심 상태 대상체로 분류되고, 이와 같이 많은 여러 방향에서의 능동 측정은 부분적으로 대상체 분류에 기초하는 위치(320)에서 트리거된다. 도로, 충돌 장벽, 하늘, 도로 및 음향 장벽은 정지 및 비의심 상태의 대상체로 분류되므로 더 적은 수의 능동 측정이 수행된다.By considering specific (e.g., suspect) objects, the number of active measurements by the
도 3b에 의해 입증된 바와 같이, 이미지(300)에서 획득된 장면의 일부만이 능동 센서(220)로 스캐닝된다. 위치 능동 측정은 320으로 라벨링된다. 제한된 수의 대상체에 대해 더 많은 수의 능동 측정을 실행하게 되면 이들 대상체와 관련하여 더 높은 해상도를 제공한다. 이로써 세부 인식이 필요한 특정 영역에서 더 높은 해상도를 제공할 수 있다.As evidenced by FIG. 3B, only a portion of the scene acquired in
또한, 도 3a 및 도 3b는 단지 예시적인 것으로 다양한 개시된 실시예를 제한하는 것은 아니다. 특히, 본 발명의 범위를 벗어나지 않으면서 보다 많거나, 보다 적은 또는 상이한 대상체(310 및/또는 320)가 이미지로 식별될 수 있다.Additionally, FIGS. 3A and 3B are illustrative only and do not limit the various disclosed embodiments. In particular, more, fewer or
일단 모든 측정이 완료되면, 장면의 3D 지도가 생성될 수 있다. 구체적으로, 3D 지도는 획득된 이미지 내의 임의의 픽셀로부터의 장치의 거리를 계산함으로써 생성된다. 즉, 각 픽셀은 3D 지도를 생성하기 위해 거리 값과 연관되어야 한다. 거리 값은 수동 측정 및 능동 측정에서 파생될 수 있다. 일 실시예에서, 일련의 거리 측정만 수행된다(예를 들어, 픽셀 수보다 적은 측정). 거리 값은 평면 방정식 또는 기타 등가의 기법을 사용하여 계산하거나 외삽할 수 있다.Once all measurements are complete, a 3D map of the scene can be created. Specifically, the 3D map is created by calculating the device's distance from any pixel in the acquired image. That is, each pixel must be associated with a distance value to create a 3D map. Distance values can be derived from passive and active measurements. In one embodiment, only a series of distance measurements are performed (eg, measurements less than the number of pixels). Distance values can be calculated or extrapolated using plane equations or other equivalent techniques.
도 2로 돌아가서, 처리 시스템(210)은 메모리(215)에 결합된 프로세서(미도시) 또는 프로세서의 어레이를 포함할 수 있거나 그 구성 부품일 수 있다. 메모리(215)는 처리 시스템(210)에 의해 실행될 수 있는 명령을 포함한다. 이 명령은 처리 시스템(210)에 의해 실행될 때, 처리 시스템(215)이 본 명세서에서 설명된 다양한 기능을 수행하게 한다. 하나 이상의 프로세서는 범용 마이크로 프로세서, 멀티 코어 프로세서, 마이크로 컨트롤러, 디지털 신호 프로세서(DSP), 필드 프로그래머블 게이트 어레이(FPGA), 프로그래머블 로직 디바이스(PLD), 컨트롤러, 상태 머신, 게이트 로직(gated logic), 이산 하드웨어 콤포턴트, 전용 하드웨어 유한 상태 머신, 또는 정보의 계산이나 그 외 조작을 수행할 수 있는 임의의 다른 적절한 엔티티의 임의의 조합으로 구현될 수 있다.Returning to FIG. 2 ,
또한, 처리 시스템(210)은 소프트웨어를 저장하기 위한 기계 판독 가능 매체를 포함할 수 있다. 소프트웨어는 소프트웨어, 펌웨어, 미들웨어, 마이크로코드, 하드웨어 디스크립션 언어 등으로 언급되는 것에 관계없이 모든 종류의 명령어를 의미하는 것으로 광범위하게 해석된다. 명령어들은 코드(예를 들어, 소스 코드 포맷, 이진 코드 포맷, 실행 가능한 코드 포맷, 또는 임의의 다른 적절한 포맷의 코드)를 포함할 수 있다. 상기 명령들은 하나 이상의 프로세서에 의해 실행될 때, 처리 시스템으로 하여금 여기에 설명된 다양한 기능을 수행할 수 있게 한다.Additionally,
저장 장치(240)는 자기 저장 장치, 광학 저장 장치 등일 수 있으며, 예를 들어, 원하는 정보를 저장하는데 사용될 수 있는 플래시 메모리 또는 다른 메모리 기술, CD-ROM, DVD(Digital Versatile Disks) 또는 다른 광학 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 임의의 다른 매체로 실현될 수 있다.
일 구성에서, 본 명세서에서 개시된 임의의 실시예를 구현하기 위한 컴퓨터 판독 가능 명령이 저장 장치(240)에 저장될 수 있다. 저장 장치(240)는 또한 운영 시스템, 응용 프로그램 등을 구현하기 위해 다른 컴퓨터 판독 가능 명령을 저장할 수 있다. 컴퓨터 판독 가능 명령들은 처리 시스템(210)에 의해 실행하기 위해 메모리(215)에 저장될 수 있다. 저장 장치(240)는 또한 예를 들어, 이미지, 생성된 3D 지도, 맵핑 서비스(예를 들어, 거리 레벨의 지도)에 의해 제공된 3D 또는 2D 지도를 저장하도록 구성될 수 있다.In one configuration, computer readable instructions for implementing any of the embodiments disclosed herein may be stored in
상기 네트워크 인터페이스(260)는 상기 장치(200)가 이에만 제한하는 것은 아니지만, 차량의 제어기(미도시), 중앙 제어기(미도시), 및 클라우드 저장 장치 표시(미도시)와 같은 다른 장치와 통신할 수 있게 한다. 예를 들어, 네트워크 인터페이스(260)는 장치(200)가 차량의 제어기와 통신하여 네트워크(도시되지 않음)를 통해 작동 명령(예를 들어, 정지, 우회전 등)을 제공하도록 구성될 수 있다. 일 실시예에서, 네트워크 인터페이스(340)는 예컨대 구성, 새로운 지도의 로딩 등의 목적으로 장치(200)에 대한 원격 액세스를 허용한다. 네트워크 인터페이스(260)는 유선 접속 또는 무선 접속을 포함할 수 있다. 네트워크 인터페이스(260)는 통신 매체를 송신 및/또는 수신할 수 있다. 예를 들어, 네트워크 인터페이스(260)는 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송수신기, 적외선 포트, USB 연결 등을 포함할 수 있다.The
도 4는 일 실시예에 따른 장면의 3D 지도를 생성하는 방법을 나타내는 예시의 흐름도(400)이다. 일 실시 예에서, 이 방법은 차량에서 작동 가능한 장치(예를 들어, 장치(200))에 의해 수행될 수 있고, 생성된 3D 지도는 차량의 조작자가 보게 되는 장면으로 되어 있다. 3D 지도는 수동 및 능동 측정의 융합을 기반으로 생성될 수 있다.4 is an example flow diagram 400 illustrating a method for generating a 3D map of a scene according to one embodiment. In one embodiment, this method may be performed by a device operable in a vehicle (e.g., device 200), with the generated 3D map of the scene being viewed by an operator of the vehicle. 3D maps can be created based on the fusion of passive and active measurements.
단계 S410에서, 수동 센서에 의해 하나 이상의 이미지가 획득된다. 일 실시예에서, 획득된 이미지는 획득 순서에 따라 메모리에 저장된다. 다른 실시예에서, 획득된 이미지는 연속적으로 기록되는 비디오의 프레임을 포함할 수 있다.In step S410, one or more images are acquired by a passive sensor. In one embodiment, acquired images are stored in memory according to acquisition order. In other embodiments, the acquired images may include frames of video that are recorded continuously.
선택적인 단계 S420에서, 이미지는 세분화 지도를 생성하도록 세분화될 수 있다. 세분화 지도는 복수의 세그먼트를 포함하며, 각각의 세그먼트는 동일한 컬러 또는 실질적으로 유사한 컬러를 갖는 균질한 픽셀을 특징으로 한다.In optional step S420, the image may be segmented to generate a segmentation map. A segmentation map includes a plurality of segments, each segment characterized by homogeneous pixels having the same color or a substantially similar color.
단계 S430에서, 이미지 또는 세분화 지도 내의 대상체들이 식별된다. 일 실시예에서, 대상체는 예를 들어 이미지 인식에 기초하여 식별될 수 있다. 대상체는 여러 세그먼트를 포함할 수 있다. 예를 들어, 두 가지 다른 색상으로 채색된 트럭은 두 개의 세그먼트로 세분화될 수 있지만 하나의 대상체로 식별할 수 있다.In step S430, objects in the image or segmentation map are identified. In one embodiment, the object may be identified based on image recognition, for example. An object may include multiple segments. For example, a truck painted in two different colors can be segmented into two segments but identified as one object.
단계 S440에서, 식별된 대상체가 분류된다. 일 실시예에서, 대상체는 다음 카테고리 중 하나 이상으로 분류될 수 있다: 비정지 상태(즉, 이동중이거나 이동할 가능성 있음), 정지 상태(즉, 움직이지 않음), 의심 상태 또는 비의심 상태. 일 실시예에서, 대상체가 비정지 상태인지 또는 정지 상태인지 여부는 (예를 들어, 이미지 인식을 사용하여) 대상체를 식별하는 것으로 결정될 수 있으며 그 유형에 기초할 수 있다. 예를 들어, 건물을 나타내는 대상체는 비정지 상태로 분류될 수 있다. 다른 실시예에서, 대상체의 비정지 또는 정지 상태 카테고리는 미리 정의된 시간 간격 동안 촬영된 두 개의 연속적인 이미지를 비교하여 결정됨으로써 대상체의 위치가 변경되었는지를 결정한다. 대상체의 위치가 동일하게 유지되면 대상체는 정지된 것으로 분류된다; 그렇지 않으면 대상체가 비정지 상태로 분류될 수 있다. 다른 실시예에서, 식별된 대상체들의 일부에 대한 대상체 분류는 식별된 대상체의 크기에 기초할 수 있다. 비한정적인 예로서, 소정의 임계치 이상의 크기를 갖는 대상체 (예를 들어, 차량이 대상체 주위를 탐색할 필요가 있을 만큼 큰 대상체)가 의심 상태로 분류될 수 있지만, 미리 정의된 임계치 이하의 크기를 갖는 대상체 (예를 들어, 차량이 안전하게 대상체 위를 달릴 만큼 작은 대상체)는 비의심 상태로 분류될 수 있다.In step S440, the identified objects are classified. In one embodiment, a subject may be classified into one or more of the following categories: non-stationary (i.e., moving or possibly moving), stationary (i.e., not moving), suspicious, or non-suspicious. In one embodiment, whether an object is non-stationary or stationary may be determined by identifying the object (eg, using image recognition) and based on its type. For example, an object representing a building may be classified as non-stationary. In another embodiment, the non-stationary or stationary state category of an object is determined by comparing two consecutive images taken during a predefined time interval to determine whether the object's position has changed. An object is classified as stationary if its position remains the same; Otherwise, the object may be classified as non-stationary. In another embodiment, object classification for some of the identified objects may be based on the size of the identified objects. As a non-limiting example, objects with a size above a predefined threshold (e.g., large enough for a vehicle to need to navigate around the object) may be classified as suspect, while objects with a size below a predefined threshold may be classified as suspect. Objects that have (e.g., small enough for a vehicle to safely drive over them) can be classified as non-suspicious.
일 실시예에서, 이미지 비교에 기초한 분류는 수동 센서의 움직임 (또는 움직임 없음) 및/또는 위치 결정에 더 기초할 수 있다. 구체적으로, 수동 센서가 움직이지 않고 (예를 들어, 차량이 교통 신호로 정지함), 두 개의 연속적인 이미지가 동일한 각도로부터 취해질 때, 비교는 다른 대상체를 기준으로 움직이는 대상체의 위치의 변화를 나타낼 수 있다. 수동 센서 자체가 움직일 때 두 개의 연속 이미지가 다른 각도에서 촬영된다. 정확한 비교를 가능하게 하기 위해, 일 실시예에서, 제2 이미지 (예를 들어, 이후에 촬영된 이미지)는 제1 이미지 (예를 들어, 이전에 촬영된 이미지)의 각도와 일치하도록 변형될 수 있어, 두 이미지를 동일한 각도로 배치할 수 있다. 이미지 변환은 가상 카메라 기술을 사용하여 수행할 수 있다. 하나의 장면에서, 대상체는 정지 상태로 분류될 수 있는 반면, 다음 장면에서는 대상체가 비정지 상태 (예를 들어, 주차된 자동차)로 분류될 수 있다는 점에 유의해야 한다. 일 실시예에서, 정지된 대상체의 분류는 맵핑 서비스가 제공된다면 3D, 2D, 스트리트 뷰 및/또는 위성 지도와 같은 지리적 지도에 부분적으로 기초하여 수행될 수 있다. 이것은 알려진 위치에 기초하여 건물 등을 식별할 수 있게 한다.In one embodiment, classification based on image comparison may be further based on movement (or lack of movement) and/or positioning of passive sensors. Specifically, when the passive sensor is stationary (for example, a vehicle is stopped at a traffic signal) and two consecutive images are taken from the same angle, the comparison indicates changes in the position of the moving object relative to the other object. You can. When the passive sensor itself moves, two consecutive images are taken from different angles. To enable accurate comparison, in one embodiment, the second image (e.g., a later captured image) may be transformed to match the angle of the first image (e.g., a previously captured image). So, the two images can be placed at the same angle. Image transformation can be performed using virtual camera technology. It should be noted that in one scene, an object may be classified as stationary, whereas in the next scene, an object may be classified as non-stationary (e.g., a parked car). In one embodiment, classification of stationary objects may be performed based in part on geographic maps, such as 3D, 2D, street view, and/or satellite maps, if a mapping service is provided. This allows buildings, etc. to be identified based on their known location.
일 실시예에서, 의심 상태 대상체들의 분류는 미리 결정된 의심 상태 대상체의 리스트에 기초한다. 예를 들어, 의심 상태로 미리 결정된 대상체는 도로상의 다른 차량, 보행자, 동물, 도로의 파편 등일 수 있지만, 이에 한정되는 것은 아니다. 리스트를 동적으로 업데이트할 수 있다. 일반적으로 차량에 근접하여 위험하거나 위험할 수 있는 대상체는 의심 상태로 분류된다. 대상체는 "의심 및 정지 상태" 또는 "의심 및 비정지 상태"로 분류될 수 있음에 유의해야 한다. 대상체 분류에 대한 다양한 실시예가 상술되어 있다.In one embodiment, the classification of suspect status subjects is based on a predetermined list of suspect status subjects. For example, an object predetermined to be in a suspicious state may be, but is not limited to, another vehicle on the road, a pedestrian, an animal, or debris on the road. The list can be updated dynamically. In general, objects that are or may be dangerous in close proximity to a vehicle are classified as suspect. It should be noted that subjects may be classified as “suspicious and quiescent” or “suspicious and non-quiescent.” Various embodiments of object classification have been described above.
단계 S445에서, 정지 상태로 분류된 각 대상체에 대해, 정지 상태로 분류된 대상체까지의 거리가 알려져 있는지 확인된다. 그렇다면, 실행은 S447로 계속된다; 그렇지 않으면, 실행은 S450으로 계속된다. S447에서, 정지된 대상체까지의 거리가 이전의 계산들로부터 검색된다. 이 거리 정보는 이전에 생성된 3D 지도에서 파생될 수 있다. 정지된 대상체는 이전에 생성된 3D 지도를 기준으로 정지된 것으로 결정될 수 있다. 일 예로서, 수동 센서가 이동하지 않고, 대상체가 정지되어 있고, 이전에 결정된 수동 측정 및/또는 능동 측정 거리가 그 수동 센서로부터 대상체에 대해 이용 가능한 경우, 대상체에 대한 현재 수동 측정은 이전에 결정된 거리가 되도록 결정될 수 있다.In step S445, for each object classified as stationary, it is checked whether the distance to the object classified as stationary is known. If so, execution continues with S447; Otherwise, execution continues with S450. At S447, the distance to the stationary object is retrieved from previous calculations. This distance information can be derived from a previously created 3D map. A stationary object may be determined to be stationary based on a previously generated 3D map. As an example, if the passive sensor is not moving, the object is stationary, and a previously determined passive measurement and/or active measurement distance is available for the object from the passive sensor, then the current passive measurement for the object is the previously determined The distance can be determined to be
단계 S450에서, 획득된 이미지에 기초하여 수동 측정이 수행된다. 수동 측정은 분류된 대상체들 중 적어도 하나, 일부 또는 모두로부터 적어도 거리를 측정하는 것을 포함한다. 전술한 바와 같이, 이런 측정은 정보가 이전에 생성된 3D 지도로부터 도출될 수 없는 경우 수행된다. 일 실시예에서, "정지 상태" 또는 "비의심 및 비정지 상태"로 분류된 각각의 대상체로부터의 거리는 수동 측정을 통해 결정된다. 전술한 바와 같이, 정지된 대상체의 거리가 이용 가능하지 않을 때, 정지된 대상체에 대해 거리가 수동적으로 측정된다. 일 실시예에서, 수동 측정은 대상체의 알려진 크기(예를 들어, 픽셀의 수), 유효 참조 지점, 소실점 및 소실 선으로부터의 거리, 장치나 차량의 이동 등을 이용하여 획득된 이미지 내 대상체까지의 거리를 결정하는 단계를 포함할 수 있다. 수동 측정을 수행하기 위한 다양한 실시예가 도 5 및 도 6을 참조하여 아래에서 보다 상세히 설명된다. 거리 측정은 메모리(예를 들어, 메모리(215))에 저장될 수 있다. 거리 측정은 대상체를 구성하는 모든 픽셀 또는 임의의 픽셀에 대한 것일 수 있음을 알아야 한다.In step S450, manual measurements are performed based on the acquired images. Manual measurement involves measuring at least a distance from at least one, some or all of the classified objects. As mentioned above, these measurements are performed when information cannot be derived from previously created 3D maps. In one embodiment, the distance from each object classified as “stationary” or “non-suspicious and non-stationary” is determined through manual measurements. As described above, when the distance to a stationary object is not available, the distance is manually measured for the stationary object. In one embodiment, manual measurements may be made using the known size of the object (e.g., number of pixels), effective reference points, distance from the vanishing point and vanishing line, movement of the device or vehicle, etc. to the object in the acquired image. It may include the step of determining the distance. Various embodiments for performing manual measurements are described in more detail below with reference to FIGS. 5 and 6. Distance measurements may be stored in memory (e.g., memory 215). It should be noted that the distance measurement may be for all or any pixels that make up the object.
다른 실시예에서, 수동 측정은 비정지 및 비의심 상태 분류된 대상체의 이동에 기초하여 수행될 수 있다. 이를 위해, 거리를 수동적으로 측정하는 것은 대상체의 경계 속도 및 대상체의 이동 방향을 결정하는 것을 포함할 수 있지만, 이에 한정되는 것은 아니다. 경계 속도는 대상체의 경계(즉, 외부 표면)가 이동하고 있을 때의 속도이다. 결정된 경계 속도 및 방향에 기초하여, 대상체까지의 거리가 추정될 수 있다. 일 실시예에서, 추정된 거리는 대상체에 대한 이전에 알려진 거리 및/또는 대상체를 포함하는 이전에 생성된 3D 지도에 더욱 기초할 수 있다.In other embodiments, manual measurements may be performed based on the movement of objects that are classified as non-stationary and non-suspicious. To this end, passively measuring the distance may include, but is not limited to, determining the boundary speed of the object and the direction of movement of the object. Boundary speed is the speed at which the boundary (i.e., external surface) of an object is moving. Based on the determined boundary speed and direction, the distance to the object may be estimated. In one embodiment, the estimated distance may be further based on a previously known distance to the object and/or a previously generated 3D map containing the object.
단계 S460에서, 능동 측정이 수행된다. 일 실시예에서, 능동 측정은 능동 센서(예를 들어, 능동 센서(220))를 사용하여 수행될 수 있다. 능동 측정을 수행하는 것은 분류된 대상체의 일부 또는 전부로부터의 거리를 측정하는 것을 포함할 수 있다. 일 실시예에서, 거리는 "의심 상태", "비정지 상태" 및/또는 "의심 및 비정지 상태"로 분류된 대상체로부터 능동적으로 측정된다. 다른 실시예에서, 신뢰성 있는 수동 측정이 달성될 수 없을 때, 거리는 능동적으로 측정된다. 신뢰할 수 있는 수동 측정은 획득된 이미지의 하나 이상의 대상체 및/또는 세부 사항이 여러 번 나타나는 경우; 이미지가 명확한 질감이 없는 일반 영역(예를 들어, 벽과 하늘)이 포함하는 경우; 이미지의 세부 사항(자동차 안의 핸들)이 다른 장면에서는 숨겨진 경우; (예를 들어, 수동 센서가 단지 하나의 카메라를 포함할 때) 고유의 각도로부터 하나의 이미지만이 수동 측정을 위해 이용 가능한 경우; 이미지가 하나 이상의 잡음이 많은 영역을 포함하는 경우 실행될 수 없다. 이러한 대상체를 다시 측정함으로써, 정확도가 높아져 허위 경보의 수가 현저히 줄어든다.In step S460, active measurement is performed. In one embodiment, active measurements may be performed using an active sensor (e.g., active sensor 220). Performing active measurements may include measuring distances from some or all of the classified objects. In one embodiment, distances are actively measured from objects classified as “suspicious,” “non-stationary,” and/or “suspicious and non-stationary.” In other embodiments, distances are measured actively when reliable manual measurements cannot be achieved. Reliable manual measurements are performed when one or more objects and/or details appear multiple times in the acquired image; If the image contains plain areas (e.g. walls and sky) without obvious texture; When details in the image (such as the steering wheel inside a car) are hidden from other scenes; When only one image from a unique angle is available for passive measurement (for example, when the passive sensor includes only one camera); It cannot run if the image contains one or more noisy areas. By re-measuring these objects, accuracy increases and the number of false alarms is significantly reduced.
실시예에서, S460은 레이저 다이오드를 사용하여 레이저 빔(또는 광 펄스)을 방사하는 것을 포함한다. 레이저가 목표물에 도달하고 레이저 에너지의 일부는 능동 센서 쪽으로 다시 반사된다. 복귀 신호가 검출되고, 레이저로부터의 광 펄스의 방출과 복귀된 신호의 검출 사이의 경과 시간이 결정된다. 대상체까지의 거리의 거리 측정은 결정된 경과 시간에 기초하여 결정될 수 있다. 거리 측정은 이미지를 구성하는 픽셀의 일부 또는 전부에 대한 것일 수 있음에 유의해야 한다. 일 실시예에서, 다수의 능동 측정이 대상체마다 수행될 수 있으며, 각각의 이러한 측정에서 레이저 펄스는 다른 각도로 지향된다. 측정의 해상도는 각 대상체에 대해 수행된 측정의 수에 기초할 수 있다.In an embodiment, S460 includes using a laser diode to emit a laser beam (or light pulse). The laser reaches the target and some of the laser energy is reflected back towards the active sensor. A return signal is detected, and the elapsed time between emission of the light pulse from the laser and detection of the returned signal is determined. The distance measurement of the distance to the object may be determined based on the determined elapsed time. It should be noted that the distance measurement may be for some or all of the pixels that make up the image. In one embodiment, multiple active measurements may be performed per object, and in each such measurement the laser pulse is directed at a different angle. The resolution of the measurements may be based on the number of measurements performed on each subject.
각각의 방출된 레이저 빔의 타이밍, 방향 및 에너지 레벨은 정확한 거리 측정을 달성하도록 제어될 수 있다. 일 실시예에서, 적어도 레이저 빔의 방향은 이미지가 수동 센서에 의해 획득된 시간과 능동 측정이 트리거될 때의 시간 사이의 시간 및 위치 차이에 기초하여 조정된다. 이것은 그 시간 동안 능동 센서 및/또는 목표 대상체의 움직임을 보상하기 위해 수행된다. 능동 센서를 가리키는 방향은 능동 센서의 현재 위치를 이미지를 획득했을 때의 그 위치를 기준으로 결정함으로써 가속도계 정보를 이용하여 추정될 수 있다.The timing, direction and energy level of each emitted laser beam can be controlled to achieve accurate distance measurements. In one embodiment, at least the direction of the laser beam is adjusted based on time and position differences between the time the image was acquired by the passive sensor and the time when the active measurement is triggered. This is done to compensate for movement of the active sensor and/or target object during that time. The direction pointing the active sensor can be estimated using accelerometer information by determining the current location of the active sensor based on its location when the image was acquired.
단계 S460에서 수행되는 능동 측정은 레이더, 음향, 레이저 삼각 측량 등과 같은 다른 능동 송신 또는 방출에 기초할 수 있지만 이에 국한되지는 않는다는 점에 유의해야 한다. S450과 S460은 병렬로 수행될 수 있음을 주목해야 한다. 예를 들어, 수동 측정은 비정지 상태로 분류된 대상체 및/또는 수동적으로 측정할 수 없는 대상체에 대해 병렬로 수행될 수 있다.It should be noted that the active measurements performed in step S460 may be based on other active transmissions or emissions, such as, but not limited to, radar, acoustics, laser triangulation, etc. It should be noted that S450 and S460 can be performed in parallel. For example, manual measurements may be performed in parallel for objects classified as non-stationary and/or for objects that cannot be measured passively.
특정 실시예에서, 방출된 레이저의 에너지 레벨은 차량 (또는 능동 센서)에 대한 대상체의 근접성에 기초하여 제어된다. 근접은 스캔되고 있는 영역에서의 이전의 능동 및/또는 수동 측정을 사용하여 결정할 수 있다. 에너지 레벨을 제어함으로써, 능동 센서의 에너지 소비는 가능한 한 가장 많은 양의 에너지를 갖는 레이저 빔을 항상 사용하는 것과 비교하여 감소될 수 있다. 또한, 에너지 레벨을 제어하게 되면 근접한 대상체가 상대적으로 낮은 에너지 레벨로 스캐닝될 때 레이저 빔에 의해 사람을 다치게 할 위험을 감소시킬 수 있다.In certain embodiments, the energy level of the emitted laser is controlled based on the object's proximity to the vehicle (or active sensor). Proximity can be determined using previous active and/or passive measurements in the area being scanned. By controlling the energy level, the energy consumption of the active sensor can be reduced compared to always using a laser beam with the highest amount of energy possible. Additionally, controlling the energy level can reduce the risk of injuring people by the laser beam when a nearby object is scanned at a relatively low energy level.
단계 S470에서, 3D 지도는 수동 및 능동 측정에 기초하여 생성된다. 장면의 3D 지도를 생성하려면, 획득된 이미지에서 픽셀의 거리 값을 사용할 수 있어야 한다. 일 실시예에서, 하나 이상의 거리 값이 세분화 지도의 각 세그멘트에 대해 3D 지도에 포함될 수 있다. 각 거리 값은 수동 또는 능동 측정 중 하나일 수 있다. 바람직한 실시예에서, 각 세그먼트의 적어도 3개의 픽셀에 대한 적어도 3개의 거리 값이 3D 지도에 포함되어야 한다.In step S470, a 3D map is generated based on passive and active measurements. To create a 3D map of a scene, the distance values of pixels must be available in the acquired image. In one embodiment, one or more distance values may be included in the 3D map for each segment of the segmentation map. Each distance value can be either a passive or active measurement. In a preferred embodiment, at least three distance values for at least three pixels of each segment should be included in the 3D map.
전술한 바와 같이, 세그먼트는 대상체의 일부일 수도 있거나 전체 대상체일 수 있다. 세그먼트 내의 모든 픽셀의 거리 값은 적어도 3개의 거리 측정에 기초하여 계산되거나 외삽될 수 있다. 이를 위해, 일 실시예에서, 평면 방정식은 각각의 세그먼트에서 적어도 3개의 픽셀에 대해 적어도 3개의 거리 측정치에 기초하여 계산된다. 계산된 평면 방정식은 동일한 세그먼트 및/또는 동일한 표면상의 픽셀들의 모든 거리 값들을 결정하는데 이용될 수 있다. 본 발명의 범위를 벗어나지 않으면 서 세그먼트 내의 모든 픽셀의 거리 값을 계산하는 다른 기하학적 기술이 이용될 수 있다는 것을 알아야 한다. 일부 세그먼트의 경우, 모든 픽셀에 대한 거리 값은 능동 또는 수동 측정을 통해 이용 가능하므로, 이 세그먼트에 대해 평면 방정식을 풀 필요가 없다는 점에 더욱 유의해야 한다.As described above, a segment may be a portion of an object or the entire object. The distance value of every pixel within a segment may be calculated or extrapolated based on at least three distance measurements. To this end, in one embodiment, the plane equation is calculated based on at least three distance measurements for at least three pixels in each segment. The calculated plane equation can be used to determine all distance values of pixels on the same segment and/or on the same surface. It should be noted that other geometric techniques for calculating the distance values of all pixels within a segment may be used without departing from the scope of the present invention. It should be further noted that for some segments, the distance values for every pixel are available through active or passive measurements, so there is no need to solve the plane equations for these segments.
다른 실시예에서는, 모든 픽셀의 거리 값이 평면 방정식에 기초하여 추정될 수 없다면, 보다 능동적인 측정이 트리거될 것이다.In other embodiments, if the distance value of every pixel cannot be estimated based on the plane equation, more active measurements will be triggered.
또 다른 실시예에서, 모든 픽셀의 모든 거리 값이 이전 프레임으로부터 이용 가능한 경우, 제한된 수의 능동 측정치 (예를 들어, 3개의 측정치) 및 거리 값의 나머지가 이전에 수행된 측정으로부터 조정된다.In another embodiment, if all distance values for all pixels are available from the previous frame, then a limited number of active measurements (e.g., three measurements) and the remainder of the distance values are adjusted from previously performed measurements.
각각의 세그먼트의 3D 표면의 렌더링은 식별된 대상체의 3D 표현의 렌더링을 가져 오고, 이로 인해 장면의 3D 지도가 결과된다. 결과의 3D 지도는, 예를 들어 차량의 작동을 제어하는 제어기에 주행 방향을 제공하기 위해 나중에 이용될 수 있다.Rendering of the 3D surface of each segment results in rendering of a 3D representation of the identified object, resulting in a 3D map of the scene. The resulting 3D map can later be used, for example, to provide driving directions to a controller controlling the operation of the vehicle.
도 5는 일 실시예에 따라 획득된 이미지에 기초하여 수동 측정을 수행하기 위한 방법을 설명하는 예시의 흐름도(S450)이다. 일 실시예에서, 상기 방법은 수동 센서(예를 들어, 수동 센서(230))에 의해 수행될 수 있다. S510에서, 현재 획득된 이미지(예를 들어, Imagen+1) 및 이전에 획득된 이미지(예를 들어, Imagen)가 정지 상태로 분류된 대상체의 리스트와 함께 검색된다. S520에서, 현재 및 이전에 획득된 이미지가 비교되어 이미지 내 각 대상체에 대한 차이를 식별한다. 일 실시예에서, S520은 이미지들의 각도가 동일하도록 이미지들 중 하나를 변경하는 단계를 더 포함할 수 있다. 이 변경은 센서의 방위의 위치 변화를 기반으로 수행된다.5 is an example flowchart (S450) illustrating a method for performing manual measurements based on acquired images according to one embodiment. In one embodiment, the method may be performed by a passive sensor (e.g., passive sensor 230). In S510, the currently acquired image (eg, Image n+1 ) and the previously acquired image (eg, Image n ) are searched along with a list of objects classified as stationary. At S520, the current and previously acquired images are compared to identify differences for each object in the image. In one embodiment, S520 may further include changing one of the images so that the angles of the images are the same. This change is performed based on a change in the position of the sensor's orientation.
S530에서, 각각의 이미지들에 나타나게 되는 대상체들 사이에 임의의 변화가 있는지가 검사되고, 만약 그렇다면, 실행은 S540으로 계속된다; 그렇지 않으면, 실행이 종료된다. 변화는 예를 들어, 현재 이미지에서 식별된 새로운 정지된 대상체 (즉, 이전에 식별된 이미지에 나타나지 않는 대상체) 또는 이전에 식별된 대상체 (즉, 이전에 식별된 이미지에 나타난 대상체)의 새로운 위치에 기초할 수 있다. 변화가 검출되지 않으면, 이전에 결정된 거리가 현재 거리로서 사용하기에 적합할 수 있고, 이로써 현재 이미지 내 어떤 대상체의 거리도 계산하거나 재계산할 필요가 없다.At S530, it is checked whether there are any changes between the objects appearing in each image, and if so, execution continues with S540; Otherwise, execution terminates. A change can occur, for example, in a new stationary object identified in the current image (i.e., an object that does not appear in a previously identified image) or in a new location of a previously identified object (i.e., an object that appears in a previously identified image). It can be based on If no change is detected, a previously determined distance may be suitable for use as the current distance, thereby eliminating the need to calculate or recalculate the distances of any objects in the current image.
S540에서, 이미지들 간의 변화와 관련된 대상체가 선택된다. S550에서, 현재 및 이전에 식별된 이미지가 획득될 때 수동 센서가 움직이거나 움직였는지 여부가 체크된다. 그렇다면, 실행은 S560으로 계속된다; 그렇지 않으면, 실행은 S570에서 계속된다. 수동 센서가 움직이는지 여부를 결정하는 것은, 예를 들어 수동 센서에 연결된 하나 이상의 모션 센서(예를 들어, 가속도계, 글로벌 포지셔닝 시스템, 자이로스코프, 이들의 조합 등)로부터의 정보에 기초할 수 있다.At S540, an object associated with a change between images is selected. At S550, it is checked whether the passive sensor has moved or was moved when the current and previously identified images were acquired. If so, execution continues with S560; Otherwise, execution continues at S570. Determining whether the passive sensor is moving may be based, for example, on information from one or more motion sensors (e.g., accelerometer, global positioning system, gyroscope, combinations thereof, etc.) coupled to the passive sensor.
S560에서, 선택된 대상체까지의 거리가 결정된다. 거리는 예를 들어, 하나 이상의 모션 센서의 측정치에 기초하여 결정될 수 있다. 일 실시예에서, 모션 센서는 GPS이고 거리는 각각의 이미지가 촬영되었을 때 캡처된 GPS 좌표의 차이에 기초하여 계산된다. 또 다른 실시예에서, 정지된 대상체들로부터의 거리는 수동 센서 정보 및/또는 3D 맵핑 정보의 프레임들(예를 들어, 획득된 이미지들)을 비교함으로써 GPS를 사용하지 않고 측정될 수 있다. 이들 실시예는 상기에서 더 상세히 설명된다.At S560, the distance to the selected object is determined. The distance may be determined based on measurements from one or more motion sensors, for example. In one embodiment, the motion sensor is a GPS and the distance is calculated based on the difference in GPS coordinates captured when each image was taken. In another embodiment, distances from stationary objects may be measured without using GPS by comparing frames (e.g., acquired images) of passive sensor information and/or 3D mapping information. These embodiments are described in more detail above.
S570에서, 거리는 이미지 내의 픽셀에 기초하여 계산된다. 일 실시예에서, 거리는 대상체에 대한 픽셀의 수를 인식하고 알려진 기준 측정치와 픽셀 수를 비교함으로써 계산된다. 대상체의 폭과 높이가 알려진 경우, 알려진 폭과 높이에 관련하여 거리가 계산할 수 있다.At S570, the distance is calculated based on pixels within the image. In one embodiment, the distance is calculated by recognizing the number of pixels for an object and comparing the number of pixels to a known reference measurement. If the width and height of the object are known, the distance can be calculated in relation to the known width and height.
도 6은 대상체에 대한 픽셀의 수에 기초하여 거리를 계산하는 것을 기술하기 위해 사용되는 예시적인 이미지(600)이다. 예를 들어, 이미지(600) 내의 트럭(610)의 폭(620)이 100 픽셀로 구성되고 이미지(600)의 폭이 1미터의 길이를 나타내는 것으로 알려지고, 다음에 이미지(600) 내 트럭(610)까지의 거리(630)가 1000 픽셀을 포함한다면, 트럭까지의 거리가 10미터라고 결정될 수 있다. 기준 측정치는 미리 결정된 측정치, 알려진 대상체로부터의 거리, 이미지에 나타난 대상체의 알려진 크기(예를 들어, 높이, 폭 등)에 기초할 수 있다. 일 실시예에서, 거리는 이미지에서 소실점 및 소실 선을 계산함으로써 추정될 수 있다. 예를 들어, 건물의 지붕 선이 기준 측정치로 이용될 수 있다.6 is an
일 실시예에서, 거리는 측정의 정확성을 증가시키기 위해 상이한 기술을 사용하여 수동적으로 측정될 수 있음에 유의해야 한다. 위에서 언급했듯이 특정 수동 측정이 신뢰할 수 없는 경우, 능동 측정을 사용하여 결정된 거리의 정확성을 높일 수 있다.It should be noted that in one embodiment, distances may be measured passively using different techniques to increase the accuracy of the measurements. As mentioned above, if certain passive measurements are unreliable, active measurements can be used to increase the accuracy of the distances determined.
S580에서, 거리가 (예를 들어, 메모리에) 저장된다. S590에서, 변화된 대상체에 대한 모든 필요한 거리가 결정되었는지 (즉, 모든 대상체가 처리되었는지) 체크된다. 그렇다면 실행이 종료되고; 그렇지 않으면, 실행은 S540으로 되돌아간다.In S580, the distance is stored (e.g. in memory). At S590, it is checked whether all necessary distances for changed objects have been determined (i.e., all objects have been processed). If so, execution terminates; Otherwise, execution returns to S540.
도 7은 다른 실시예에 따른 수동 측정을 수행하는 방법을 설명하는 예시의 흐름도(S450)를 도시한다. S710에서, 현재 이미지(imagen+1), 이전에 획득된 이미지(imagen) 및 비정지 상태로 분류된 대상체들의 리스트가 검색된다. 일 실시예에서, 각각의 비정지 상태의 대상체에 대해, 이전에 측정된 거리(예를 들어, 도 1에 대해) 및 미리 결정된 알려진 속도가 또한 검색될 수 있다. 알려진 속도는 최대, 최소 또는 평균 속도 중 하나를 포함한다.7 shows an example flow diagram S450 illustrating a method for performing manual measurements according to another embodiment. In S710, the current image (image n+1 ), the previously acquired image (image n ), and a list of objects classified as non-stationary are searched. In one embodiment, for each non-stationary object, a previously measured distance (e.g., with respect to Figure 1) and a predetermined known speed may also be retrieved. Known speeds include either maximum, minimum, or average speeds.
S720에서, 현재 및 이전에 획득된 이미지는 비정지된 대상체의 이동 방향을 검출하기 위해 비교된다. 방향은 차량, 장치, 및/또는 수동 센서를 향하거나 멀어지는 것이지만, 이에만 제한하는 것은 아니다. 다른 실시예에서, 방향은 예를 들어, 수동 센서에 관련한 특정 각도일 수 있다.In S720, the current and previously acquired images are compared to detect the direction of movement of the non-stationary object. The direction may be towards or away from the vehicle, device, and/or passive sensor, but is not limited to this. In other embodiments, the direction may be a specific angle relative to a passive sensor, for example.
S725에서, 비정지 상태의 대상체가 선택된다. S730에서, 선택된 비정지 대상체에 대한 현재 거리가 추정된다. 현재 거리는 현재 이미지 및 이전에 획득된 이미지의 캡처들 사이에 경과된 시간, 알려진 속도 및 이전에 측정된 거리에 기초하여 추정될 수 있다. 현재 거리는 결정된 방향에 기초하여 더욱 추정될 수 있다. 즉, 결정된 방향이 차량 쪽으로 향하는 경우, 현재 거리는 최대 알려진 속도를 사용하여 추정될 수 있다. 다른 한편으로, 결정된 방향이 차량으로부터 멀어지면, 거리는 최소의 알려진 속도를 사용하여 추정될 수 있다. 이것은 대상체의 차량으로부터의 거리와 관련하여 최악의 경우의 시나리오(즉, 거리가 적게 잡은 추정일 수 있음)를 커버하기 위해 수행된다. 이러한 최악의 시나리오 추정은, 예를 들어 자가 운전 차량, 드론 등이 움직이는 대상체에 충돌하는 것을 방지하는 것을 도울 수 있다.At S725, an object in a non-stationary state is selected. At S730, the current distance to the selected non-stationary object is estimated. The current distance can be estimated based on the time elapsed between captures of the current image and a previously acquired image, known speed, and previously measured distance. The current distance can be further estimated based on the determined direction. That is, if the determined direction is towards the vehicle, the current distance can be estimated using the maximum known speed. On the other hand, if the determined direction is away from the vehicle, the distance can be estimated using the minimum known speed. This is done to cover the worst-case scenario regarding the subject's distance from the vehicle (i.e., the distance may be an under-estimate). Such worst-case scenario estimates can, for example, help prevent self-driving cars, drones, etc. from crashing into moving objects.
추정된 거리에 기초하는 S740에서, 능동 측정이 필요한지가 결정된다. 그렇다면, 실행은 S750으로 계속된다; 그렇지 않으면 실행은 S760으로 계속된다. 일 실시예에서, 추정된 거리는 소정의 임계치와 비교되고, 임계치가 충족되지 않으면 능동 측정치가 요구된다. 대상체가 안전한 거리 내에 있지 않으면 능동 측정이 시작될 수 있다. 예를 들어, 사람이 차량을 향해 걷고 있고 예상 거리가 100미터라면, 사람은 안전한 거리 내에 있다. 그러나 차량을 향해 걷는 사람의 예상 거리가 1미터라면, 사람은 안전한 거리를 벗어나게 되므로 능동 측정이 트리거되어야 한다.At S740 based on the estimated distance, it is determined whether active measurement is necessary. If so, execution continues with S750; Otherwise, execution continues with S760. In one embodiment, the estimated distance is compared to a predetermined threshold, and if the threshold is not met, active measurements are required. Active measurements can be initiated if the object is not within a safe distance. For example, if a person is walking toward a vehicle and the estimated distance is 100 meters, the person is within a safe distance. However, if the expected distance of a person walking towards a vehicle is 1 meter, the person will be outside a safe distance and an active measurement should be triggered.
S750에서, 능동 측정이 필요하다고 결정하면, 대상체는 능동 측정으로 플래그된다. S760에서, 추정된 거리가 메모리에 저장된다. S770에서, 모든 대상체가 처리되었는지가 검사된다. 그렇다면, 실행이 종료된다. 그렇지 않으면, 실행은 S740으로 계속된다.At S750, if it is determined that active measurement is needed, the subject is flagged for active measurement. At S760, the estimated distance is stored in memory. At S770, it is checked whether all objects have been processed. If so, execution ends. Otherwise, execution continues with S740.
본 명세서에서 논의된 실시예는 단지 간략화의 목적으로 그리고 개시에 대해 제한하지 않고 레이저에 의한 능동 측정과 관련하여 설명된 것에 유의해야 한다. 개시된 실시예들의 범위를 벗어나지 않으면서 (예를 들어, 레이더, 사운드 등에 의한) 다른 능동 측정이 동일하게 이용될 수 있다.It should be noted that the embodiments discussed herein have been described in the context of active measurement by lasers for the purpose of simplicity only and not to limit the disclosure. Other active measurements (e.g., by radar, sound, etc.) could equally be used without departing from the scope of the disclosed embodiments.
본 명세서에 개시된 다양한 실시예는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 임의의 조합으로서 구현될 수 있다. 또한, 소프트웨어는 바람직하게는 부품, 또는 특정 장치 및/또는 장치들의 조합으로 구성된 프로그램 저장 유닛 또는 컴퓨터 판독 가능 매체에 유형으로 구현된 응용 프로그램으로서 구현된다. 응용 프로그램은 임의의 적합한 아키텍처를 포함하는 기계에 업로드되어 실행될 수 있다. 바람직하게, 기계는 하나 이상의 중앙 처리 장치("CPU"), 메모리 및 입/출력 인터페이스와 같은 하드웨어를 갖는 컴퓨터 플랫폼에 구현된다. 컴퓨터 플랫폼은 또한 운영 시스템 및 마이크로인스트럭션 코드를 포함할 수 있다. 본 명세서에서 설명된 다양한 프로세스 및 기능은 마이크로인스턱션 코드의 일부 또는 응용 프로그램의 일부이거나, 이들의 조합일 수 있으며, 이러한 컴퓨터 또는 프로세서가 명시적으로 표시되는지의 여부와 상관없이 CPU에 의해 실행될 수 있다. 또한, 추가의 데이터 저장 유닛 및 인쇄 유닛과 같은 다양한 다른 주변 유닛이 컴퓨터 플랫폼에 접속될 수 있다. 또한, 비일시적 컴퓨터 판독 가능 매체는 일시적 전파 신호를 제외한 임의의 컴퓨터 판독 가능 매체이다.Various embodiments disclosed herein may be implemented as hardware, firmware, software, or any combination thereof. Additionally, the software is preferably implemented as an application program tangibly embodied in a computer-readable medium or a program storage unit comprised of parts or specific devices and/or combinations of devices. The application can be uploaded and run on a machine with any suitable architecture. Preferably, the machine is implemented on a computer platform having hardware such as one or more central processing units (“CPUs”), memory, and input/output interfaces. The computer platform may also include an operating system and microinstruction code. The various processes and functions described herein may be part of microinjection code or part of an application, or a combination thereof, and may be executed by a CPU, whether or not such computer or processor is explicitly indicated. You can. Additionally, various other peripheral units may be connected to the computer platform, such as additional data storage units and printing units. Additionally, non-transitory computer-readable media is any computer-readable media other than transient radio signals.
본 명세서에 인용된 모든 예 및 조건부 언어는 개시된 실시 형태의 원리 및 발명자가 당해 분야를 장려하는 것에 기여하는 개념을 독자가 이해하도록 돕는 교육적 목적으로 의도한 것이며, 구체적으로 인용된 사례와 조건에 제한되지 않는다고 해석되어야 한다. 또한, 개시된 실시 형태의 원리, 양태 및 실시예 및 그의 특정 예를 기재한 본원의 모든 기재 내용은 그의 구조적 및 기능적 등가물을 모두 포함하고자 한다. 또한, 이러한 균등물은 현재 알려진 균등물뿐만 아니라 장래에 개발되는 균등물, 즉 구조와 상관없이 동일한 기능을 수행하는 임의의 개발 요소를 모두 포함하는 것으로 의도된다.All examples and conditional language cited herein are intended for educational purposes to help the reader understand the principles of the disclosed embodiments and the concepts the inventors contribute to promote the art, and are limited to the specifically cited examples and conditions. It should be interpreted that it does not work. Additionally, all statements herein reciting principles, aspects, and examples of the disclosed embodiments, as well as specific examples thereof, are intended to encompass all structural and functional equivalents thereof. Additionally, such equivalents are intended to include both currently known equivalents as well as equivalents developed in the future, i.e., any developed elements that perform the same function regardless of structure.
Claims (20)
수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체들을 식별하기 위해 상기 적어도 하나의 이미지를 분석하는 단계;
상기 복수의 대상체들을 분류하는 단계;
상기 분류에 기초하여, 정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 각각의 거리를 수동적으로 측정하는 단계;
비정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하는 단계;
상기 수동적으로 측정된 각각의 거리와 상기 능동적으로 측정된 각각의 거리를 융합하여, 복수의 대상체들에 대한 융합된 거리 측정치를 얻는 단계; 및
상기 융합된 거리 측정치를 기초로 장면의 3D 지도를 생성하는 단계
를 포함하는 방법.In a method for obtaining a three-dimensional (3D) map,
Analyzing at least one image acquired by a passive sensor to identify a plurality of objects in the image;
Classifying the plurality of objects;
Based on the classification, manually measuring each distance to at least one object among the plurality of objects classified as stationary objects;
Actively measuring distances to some of the plurality of objects classified as non-stationary objects;
Obtaining fused distance measurements for a plurality of objects by fusing each of the passively measured distances with each of the actively measured distances; and
generating a 3D map of the scene based on the fused distance measurements.
How to include .
세분화 지도를 렌더링하기 위해 상기 적어도 하나의 이미지를 세분화하는 단계; 및
상기 세분화 지도에서 상기 복수의 대상체들을 식별하는 단계
를 더 포함하는 방법.The method of claim 1, wherein analyzing the at least one image comprises:
segmenting the at least one image to render a segmentation map; and
Identifying the plurality of objects in the segmentation map
How to further include .
상기 복수의 대상체들 각각의 유형을 식별하는 단계; 및
상기 식별된 대상체의 유형에 기초하여 상기 복수의 대상체들 각각을 분류하는 단계
를 더 포함하는 방법.The method of claim 1, wherein classifying the plurality of objects comprises:
Identifying the type of each of the plurality of objects; and
Classifying each of the plurality of objects based on the type of the identified object.
How to further include .
상기 적어도 하나의 이미지를 이전에 획득된 이미지와 비교하는 단계; 및
상기 비교에 기초하여 상기 복수의 대상체들 각각의 위치의 변화를 식별하는 단계
를 더 포함하고,
상기 복수의 대상체들 각각은 상기 대상체의 상기 위치의 상기 변화에 기초하여 분류되는 방법.According to paragraph 3,
comparing the at least one image to a previously acquired image; and
Identifying a change in the position of each of the plurality of objects based on the comparison
It further includes,
A method wherein each of the plurality of objects is classified based on the change in the position of the object.
상기 복수의 대상체들의 각 대상체에 대해, 상기 대상체가 적어도 하나의 지리적 지도에서 식별되는지의 여부를 결정하는 단계; 및
상기 적어도 하나의 지리적 지도에서 식별된 각각의 대상체를 정지 상태의 대상체로서 분류하는 단계
를 더 포함하는 방법.According to paragraph 1,
For each object in the plurality of objects, determining whether the object is identified in at least one geographic map; and
Classifying each object identified in the at least one geographic map as a stationary object.
How to further include .
상기 정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 이전 거리가 이용 가능하지 않는 것에 응답하여, 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 각각의 거리를 수동적으로 측정하는 단계
를 더 포함하는 방법.According to paragraph 1,
In response to the previous distance to at least one object among the plurality of objects classified as the stationary object being unavailable, passively measuring the respective distance to at least one object among the plurality of objects. steps to do
How to further include .
상기 수동 센서가 움직이는지를 결정하는 단계;
상기 수동 센서가 움직일 때, 모션 센서를 사용하여 상기 적어도 하나의 대상체까지의 각각의 거리를 결정하는 단계; 및
상기 수동 센서가 움직이지 않을 때, 상기 적어도 하나의 대상체에 대한 픽셀들의 개수 및 알려진 기준 측정치에 기초하여 상기 적어도 하나의 대상체까지의 각각의 거리를 결정하는 단계
를 더 포함하는 방법.The method of claim 1, wherein the step of manually measuring each distance to the at least one object:
determining whether the passive sensor is moving;
When the passive sensor moves, determining each distance to the at least one object using a motion sensor; and
When the passive sensor is not moving, determining a respective distance to the at least one object based on a known reference measurement and the number of pixels for the at least one object.
How to further include .
비정지 상태의 대상체 및 비의심 상태의 대상체로서 분류된 상기 복수의 대상체들 중 일부의 대상체들까지의 각각의 거리를 수동적으로 측정하는 단계로서,
상기 복수의 대상체들 중 일부의 대상체들 각각에 대해, 상기 대상체의 경계 속도를 결정하는 것과,
상기 대상체의 이동 방향을 결정하는 것과,
상기 결정된 방향 및 상기 결정된 경계 속도에 기초하여 상기 대상체까지의 거리를 추정하는 것을 포함하는 단계
를 더 포함하는 방법.The method of claim 1, wherein
A step of manually measuring the respective distances to some of the plurality of objects classified as objects in a non-stationary state and objects in a non-suspicious state,
For each of some of the plurality of objects, determining a boundary velocity of the object;
determining the direction of movement of the object,
comprising estimating the distance to the object based on the determined direction and the determined boundary velocity.
How to further include .
를 더 포함하는 방법.The method of claim 1, wherein the step of actively measuring the respective distances to some of the plurality of objects classified as objects in a suspicious state.
How to further include .
를 더 포함하는 방법.The method of claim 1, wherein when reliable manual measurements cannot be determined for some of the plurality of objects, the respective distances to some of the plurality of objects classified as non-stationary objects are determined. Steps to actively measure
How to further include .
상기 복수의 대상체들 중 일부의 대상체 각각에 대해 다수의 레이저 측정을 수행하는 단계를 더 포함하며, 상기 다수의 레이저 측정은 요구되는 해상도에 기초하여 결정되는 방법.The method of claim 1, wherein the step of actively measuring distances to some of the plurality of objects includes:
The method further includes performing a plurality of laser measurements on each of some of the plurality of objects, wherein the plurality of laser measurements are determined based on a required resolution.
상기 복수의 대상체들 중 일부의 대상체 각각에 대해, 상기 레이저 측정에 기초하여 상기 대상체의 각 지점까지의 거리를 계산하는 단계
를 더 포함하는 방법.According to clause 12,
For each of some of the plurality of objects, calculating the distance to each point of the object based on the laser measurement.
How to further include .
상기 융합된 거리 측정치를 사용하여 상기 복수의 대상체들 중에서의 각 대상체의 3D 표면을 렌더링하는 단계를 더 포함하는 방법.The method of claim 1, wherein generating the 3D map comprises:
The method further comprising rendering a 3D surface of each object in the plurality of objects using the fused distance measurement.
장면의 이미지를 획득하기 위한 수동 센서;
처리 시스템으로서,
수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체들을 식별하기 위해 상기 적어도 하나의 이미지를 분석하고,
상기 복수의 대상체들을 분류하도록 구성된 처리 시스템; 및
비정지 상태의 대상체로 분류된 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하도록 구성된 능동 센서를 포함하고,
상기 처리 시스템은
수동적으로 측정된 각각의 거리와 상기 능동적으로 측정된 각각의 거리를 융합하여, 복수의 대상체들에 대한 융합된 거리 측정치를 얻고,
상기 융합된 거리 측정치를 기초로 장면의 3D 지도를 생성하도록 더 구성된,
장치.
In a device for obtaining a three-dimensional (3D) map,
Passive sensor for acquiring images of the scene;
As a processing system,
Analyze at least one image acquired by a passive sensor to identify a plurality of objects in the image,
a processing system configured to classify the plurality of objects; and
An active sensor configured to actively measure the distance to some of the plurality of objects classified as non-stationary objects,
The processing system is
Obtaining fused distance measurements for a plurality of objects by fusing each passively measured distance with each actively measured distance,
further configured to generate a 3D map of the scene based on the fused distance measurements,
Device.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562141296P | 2015-04-01 | 2015-04-01 | |
US62/141,296 | 2015-04-01 | ||
US201562160988P | 2015-05-13 | 2015-05-13 | |
US62/160,988 | 2015-05-13 | ||
PCT/US2016/025252 WO2016161104A1 (en) | 2015-04-01 | 2016-03-31 | Generating 3-dimensional maps of a scene using passive and active measurements |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170132860A KR20170132860A (en) | 2017-12-04 |
KR102614323B1 true KR102614323B1 (en) | 2023-12-14 |
Family
ID=57006494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177031544A KR102614323B1 (en) | 2015-04-01 | 2016-03-31 | Create a 3D map of a scene using passive and active measurements |
Country Status (5)
Country | Link |
---|---|
US (8) | US20160291154A1 (en) |
EP (2) | EP3283843B1 (en) |
KR (1) | KR102614323B1 (en) |
CN (2) | CN108271408B (en) |
WO (1) | WO2016161104A1 (en) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10155168B2 (en) | 2012-05-08 | 2018-12-18 | Snap Inc. | System and method for adaptable avatars |
CN108271408B (en) | 2015-04-01 | 2020-12-04 | 瓦亚视觉有限公司 | Generating three-dimensional maps of scenes using passive and active measurements |
EP3303978A4 (en) * | 2015-06-07 | 2018-06-06 | Geoffrey Louis Barrows | Localization method and apparatus |
JP6499047B2 (en) * | 2015-09-17 | 2019-04-10 | 株式会社東芝 | Measuring device, method and program |
US9671785B1 (en) * | 2016-03-29 | 2017-06-06 | Delphi Technologies, Inc. | V2X object-location verification system for automated vehicles |
US10339365B2 (en) | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
DE102016107211A1 (en) * | 2016-04-19 | 2017-10-19 | Voith Patent Gmbh | DEVICE FOR DATA AND / OR SIGNAL TRANSMISSION |
US10126136B2 (en) | 2016-06-14 | 2018-11-13 | nuTonomy Inc. | Route planning for an autonomous vehicle |
US11092446B2 (en) | 2016-06-14 | 2021-08-17 | Motional Ad Llc | Route planning for an autonomous vehicle |
US10309792B2 (en) | 2016-06-14 | 2019-06-04 | nuTonomy Inc. | Route planning for an autonomous vehicle |
US10203696B2 (en) * | 2016-07-26 | 2019-02-12 | Waymo Llc | Determining drivability of objects for autonomous vehicles |
WO2018020744A1 (en) | 2016-07-29 | 2018-02-01 | Necソリューションイノベータ株式会社 | Moving object operation system, operation signal transmission system, moving object operation method, program and recording medium |
JP6820066B2 (en) * | 2016-07-29 | 2021-01-27 | Necソリューションイノベータ株式会社 | Mobile maneuvering system, maneuvering signal transmission system, mobile maneuvering method, program, and recording medium |
US10681513B2 (en) | 2016-10-20 | 2020-06-09 | nuTonomy Inc. | Identifying a stopping place for an autonomous vehicle |
US10857994B2 (en) | 2016-10-20 | 2020-12-08 | Motional Ad Llc | Identifying a stopping place for an autonomous vehicle |
US10473470B2 (en) | 2016-10-20 | 2019-11-12 | nuTonomy Inc. | Identifying a stopping place for an autonomous vehicle |
US10331129B2 (en) | 2016-10-20 | 2019-06-25 | nuTonomy Inc. | Identifying a stopping place for an autonomous vehicle |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
DE102016122645A1 (en) * | 2016-11-24 | 2018-05-24 | Valeo Schalter Und Sensoren Gmbh | Receiving device for an optical detection device, detection device and driver assistance system |
WO2018125939A1 (en) * | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Visual odometry and pairwise alignment for high definition map creation |
DE102017102315A1 (en) | 2017-02-07 | 2018-08-09 | Sick Ag | Method for navigating a vehicle |
JP7031137B2 (en) * | 2017-04-10 | 2022-03-08 | 凸版印刷株式会社 | Laser scanning device |
US10268203B2 (en) * | 2017-04-20 | 2019-04-23 | GM Global Technology Operations LLC | Calibration validation for autonomous vehicle operations |
KR102434361B1 (en) | 2017-04-27 | 2022-08-19 | 스냅 인코포레이티드 | Location Privacy Management for Map-Based Social Media Platforms |
US10212541B1 (en) | 2017-04-27 | 2019-02-19 | Snap Inc. | Selective location-based identity communication |
US11893647B2 (en) * | 2017-04-27 | 2024-02-06 | Snap Inc. | Location-based virtual avatars |
EP3619681A4 (en) * | 2017-05-02 | 2020-12-16 | HRL Laboratories, LLC | SYSTEM AND METHOD FOR DETECTION OF MOVING OBSTACLES BASED ON A SENSORIC PREDICTION FROM OWN MOVEMENT |
US20180341821A1 (en) * | 2017-05-26 | 2018-11-29 | Dura Operating, Llc | Method and system for generating and using a perception scene graph in motor vehicle applications |
IL311264A (en) * | 2017-06-14 | 2024-05-01 | Mobileye Vision Technologies Ltd | Fusion framework of navigation information for autonomous navigation |
US11300958B2 (en) * | 2017-07-13 | 2022-04-12 | Waymo Llc | Sensor adjustment based on vehicle motion |
DE102017116661A1 (en) | 2017-07-24 | 2019-01-24 | Vorwerk & Co. Interholding Gmbh | System for recording three-dimensional environmental data, in particular for plant care and sensor module |
DE102017116658A1 (en) * | 2017-07-24 | 2019-01-24 | Vorwerk & Co. Interholding Gmbh | Automatically movable device with a monitoring module outdoors |
EP3438776B1 (en) * | 2017-08-04 | 2022-09-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
KR20200028446A (en) * | 2017-08-31 | 2020-03-16 | 에스지 디제이아이 테크놀러지 코., 엘티디 | Solid state light detection and ranging (LIDAR) systems, and systems and methods to improve solid state light detection and ranging (LIDAR) resolution |
US10872228B1 (en) | 2017-09-27 | 2020-12-22 | Apple Inc. | Three-dimensional object detection |
US10788831B2 (en) * | 2017-10-06 | 2020-09-29 | Wipro Limited | Method and device for identifying center of a path for navigation of autonomous vehicles |
JP6759175B2 (en) * | 2017-10-27 | 2020-09-23 | 株式会社東芝 | Information processing equipment and information processing system |
US11758111B2 (en) * | 2017-10-27 | 2023-09-12 | Baidu Usa Llc | 3D lidar system using a dichroic mirror for autonomous driving vehicles |
DE102017221465A1 (en) * | 2017-11-29 | 2019-05-29 | Robert Bosch Gmbh | Method and device for detecting a light-emitting object at a traffic junction for a vehicle |
US10594940B1 (en) * | 2018-01-12 | 2020-03-17 | Vulcan Inc. | Reduction of temporal and spatial jitter in high-precision motion quantification systems |
WO2019159759A1 (en) * | 2018-02-19 | 2019-08-22 | 株式会社村上開明堂 | Operation detection device and operation detection method |
CN115393536A (en) | 2018-04-18 | 2022-11-25 | 移动眼视力科技有限公司 | Vehicle environment modeling with camera |
US11668830B1 (en) | 2018-06-01 | 2023-06-06 | Vayavision Sensing Ltd. | System and method for performing active distance measurements |
CN108919300B (en) * | 2018-07-17 | 2022-07-08 | 重庆大学 | Mixed map creating method for warehouse channel scene |
DE102018214182A1 (en) * | 2018-08-22 | 2020-02-27 | Robert Bosch Gmbh | LIDAR device with an accelerated runtime analysis |
US11340355B2 (en) | 2018-09-07 | 2022-05-24 | Nvidia Corporation | Validation of global navigation satellite system location data with other sensor data |
US11100669B1 (en) | 2018-09-14 | 2021-08-24 | Apple Inc. | Multimodal three-dimensional object detection |
US11513196B2 (en) * | 2018-09-28 | 2022-11-29 | Waymo Llc | Terrain adaptive pulse power in a scanning LIDAR |
DE102018219602A1 (en) * | 2018-11-15 | 2020-05-20 | Robert Bosch Gmbh | Method of detecting card errors |
US11044404B1 (en) | 2018-11-28 | 2021-06-22 | Vulcan Inc. | High-precision detection of homogeneous object activity in a sequence of images |
US10872400B1 (en) | 2018-11-28 | 2020-12-22 | Vulcan Inc. | Spectral selection and transformation of image frames |
US10659751B1 (en) * | 2018-12-14 | 2020-05-19 | Lyft Inc. | Multichannel, multi-polarization imaging for improved perception |
WO2020154990A1 (en) * | 2019-01-30 | 2020-08-06 | 深圳市大疆创新科技有限公司 | Target object motion state detection method and device, and storage medium |
CN109878514B (en) * | 2019-03-13 | 2020-04-14 | 的卢技术有限公司 | Vehicle surrounding environment item dividing method and application system thereof |
WO2020226187A1 (en) * | 2019-05-03 | 2020-11-12 | 엘지전자 주식회사 | Robot generating map on basis of multi-sensor and artificial intelligence and traveling by using map |
JP7268490B2 (en) * | 2019-06-13 | 2023-05-08 | 株式会社デンソー | Object recognition device, driving support system |
US11480431B1 (en) * | 2019-08-27 | 2022-10-25 | Alarm.Com Incorporated | Lighting adaptive navigation |
US11669092B2 (en) * | 2019-08-29 | 2023-06-06 | Rockwell Automation Technologies, Inc. | Time of flight system and method for safety-rated collision avoidance |
CA3191715A1 (en) | 2019-09-22 | 2021-03-25 | Vayavision Sensing Ltd. | Functional safety in autonomous driving |
KR20220093312A (en) | 2019-09-22 | 2022-07-05 | 바야비전 센싱 리미티드 | Methods and systems for training and validating cognitive systems |
DE102019129986A1 (en) * | 2019-11-07 | 2021-05-12 | Sick Ag | Optoelectronic sensor and method for detecting objects |
KR20230004425A (en) | 2019-11-13 | 2023-01-06 | 유발 네흐마디 | Autonomous Vehicle Environment Cognitive Software Architecture |
US11699235B2 (en) * | 2019-11-20 | 2023-07-11 | Baidu Usa Llc | Way to generate tight 2D bounding boxes for autonomous driving labeling |
JP7401273B2 (en) * | 2019-11-26 | 2023-12-19 | 日立Astemo株式会社 | Mobile body control device and method |
CN110967685B (en) * | 2019-12-09 | 2022-03-22 | Oppo广东移动通信有限公司 | Method and system for evaluating interference signal, electronic device and storage medium |
KR20210076440A (en) | 2019-12-16 | 2021-06-24 | 삼성전자주식회사 | Method and apparatus for regeneration and prediction of tree map |
CN111249728B (en) * | 2020-01-22 | 2021-08-31 | 荣耀终端有限公司 | Image processing method, device and storage medium |
CN113378867B (en) * | 2020-02-25 | 2023-08-22 | 北京轻舟智航智能技术有限公司 | Asynchronous data fusion method and device, storage medium and electronic equipment |
CA3125623C (en) | 2020-07-21 | 2023-06-27 | Leddartech Inc. | Beam-steering device particularly for lidar systems |
EP4185888A4 (en) | 2020-07-21 | 2024-08-21 | Leddartech Inc. | BEAM STEERING DEVICE, PARTICULARLY FOR LIDAR SYSTEMS |
US11402510B2 (en) | 2020-07-21 | 2022-08-02 | Leddartech Inc. | Systems and methods for wide-angle LiDAR using non-uniform magnification optics |
KR20220030007A (en) | 2020-09-02 | 2022-03-10 | 삼성전자주식회사 | Apparatus and method for generating image |
US12085678B1 (en) * | 2020-12-30 | 2024-09-10 | Waymo Llc | Methods for localizing light detection and ranging (lidar) calibration targets |
US11797022B1 (en) * | 2021-06-29 | 2023-10-24 | Amazon Technologies, Inc. | System for object detection by an autonomous mobile device |
EP4258011A1 (en) * | 2022-04-04 | 2023-10-11 | Faro Technologies, Inc. | Image-based scan pre-registration |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002059796A (en) * | 2000-05-24 | 2002-02-26 | Daimlerchrysler Ag | Method and apparatus for classification by detecting road user and obstacle based on camera image and detecting distance to observer |
US20100040285A1 (en) * | 2008-08-14 | 2010-02-18 | Xerox Corporation | System and method for object class localization and semantic class based image segmentation |
Family Cites Families (142)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1192483A (en) | 1914-09-03 | 1916-07-25 | Albert Harry Wheeler | Mathematical model. |
US5195144A (en) | 1988-11-15 | 1993-03-16 | Thomson-Csf | Process for estimating the distance between a stationary object and a moving vehicle and device for using this process |
US5128874A (en) | 1990-01-02 | 1992-07-07 | Honeywell Inc. | Inertial navigation sensor integrated obstacle detection system |
US6553130B1 (en) | 1993-08-11 | 2003-04-22 | Jerome H. Lemelson | Motor vehicle warning and control system and method |
JP3183598B2 (en) | 1993-12-14 | 2001-07-09 | 三菱電機株式会社 | Obstacle detection device |
US7209221B2 (en) * | 1994-05-23 | 2007-04-24 | Automotive Technologies International, Inc. | Method for obtaining and displaying information about objects in a vehicular blind spot |
US7359782B2 (en) | 1994-05-23 | 2008-04-15 | Automotive Technologies International, Inc. | Vehicular impact reactive system and method |
US7783403B2 (en) | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
US7630806B2 (en) * | 1994-05-23 | 2009-12-08 | Automotive Technologies International, Inc. | System and method for detecting and protecting pedestrians |
JP3304687B2 (en) | 1995-05-24 | 2002-07-22 | 日産自動車株式会社 | Vehicle lane recognition device, obstacle detection device, road departure notification device |
US7202776B2 (en) | 1997-10-22 | 2007-04-10 | Intelligent Technologies International, Inc. | Method and system for detecting objects external to a vehicle |
US5745806A (en) * | 1995-06-15 | 1998-04-28 | Fuji Photo Optical Co., Ltd. | Distance measuring apparatus |
US5887268A (en) | 1995-10-31 | 1999-03-23 | Honda Giken Kogyo Kabushiki Kaisha | Automatically driven motor vehicle |
US5870178A (en) * | 1996-02-20 | 1999-02-09 | Canon Kabushiki Kaisha | Distance measuring apparatus |
US5831719A (en) * | 1996-04-12 | 1998-11-03 | Holometrics, Inc. | Laser scanning system |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US5896103A (en) | 1996-10-15 | 1999-04-20 | Honeywell Inc. | Method and aparatus for dynamically calibrating a radar receiver |
US5923417A (en) | 1997-09-26 | 1999-07-13 | Northern Digital Incorporated | System for determining the spatial position of a target |
CN1314990A (en) | 1998-08-26 | 2001-09-26 | 罗得岛及普罗维登斯属地高等教育管理委员会 | Thin film strain sensors based on interferometric optical measurements |
US6323941B1 (en) * | 1999-08-06 | 2001-11-27 | Lockheed Martin Corporation | Sensor assembly for imaging passive infrared and active LADAR and method for same |
JP2001311619A (en) * | 2000-05-01 | 2001-11-09 | Asahi Optical Co Ltd | Apparatus and method for measuring distance |
US6502053B1 (en) * | 2000-06-12 | 2002-12-31 | Larry Hardin | Combination passive and active speed detection system |
US6763292B1 (en) | 2000-06-21 | 2004-07-13 | International Business Machines Corporation | Prediction and compensation for land vehicle dynamics based on feedforward road conditions |
JP2002221655A (en) * | 2001-01-24 | 2002-08-09 | Olympus Optical Co Ltd | Range finder |
US7124072B1 (en) | 2001-04-30 | 2006-10-17 | Mips Technologies, Inc. | Program counter and data tracing from a multi-issue processor |
US7385626B2 (en) | 2002-10-21 | 2008-06-10 | Sarnoff Corporation | Method and system for performing surveillance |
DE10305861A1 (en) * | 2003-02-13 | 2004-08-26 | Adam Opel Ag | Motor vehicle device for spatial measurement of a scene inside or outside the vehicle, combines a LIDAR system with an image sensor system to obtain optimum 3D spatial image data |
DE10361869A1 (en) | 2003-12-29 | 2005-07-28 | Iqsun Gmbh | Laser scanner or laser level, has an integral distance meter that detects reflected laser light and adjusts the intensity of transmitted light dependent on the distance measured to a reflection point |
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
JP2005257325A (en) | 2004-03-09 | 2005-09-22 | Denso Corp | Distance detector |
DE102005027208B4 (en) | 2004-11-16 | 2011-11-10 | Zoller & Fröhlich GmbH | Method for controlling a laser scanner |
US7941006B2 (en) * | 2005-02-25 | 2011-05-10 | Panasonic Corporation | Pixel interpolating method and device |
US7430365B2 (en) | 2005-03-31 | 2008-09-30 | Avago Technologies Ecbu (Singapore) Pte Ltd. | Safe eye detection |
WO2006132686A2 (en) | 2005-06-03 | 2006-12-14 | Sarnoff Corporation | Method and apparatus for designing iris biometric systems for use in minimally |
JP2007187618A (en) * | 2006-01-16 | 2007-07-26 | Omron Corp | Object identifying device |
US20070189455A1 (en) | 2006-02-14 | 2007-08-16 | Accuray Incorporated | Adaptive x-ray control |
ATE441087T1 (en) | 2006-04-27 | 2009-09-15 | 3D Scanners Ltd | OPTICAL SCANNING PROBE |
US7865299B2 (en) | 2006-09-14 | 2011-01-04 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for predicting a future position of a vehicle using numerical integration |
US7580547B2 (en) * | 2006-10-24 | 2009-08-25 | Iteris, Inc. | Electronic traffic monitor |
US7619754B2 (en) | 2007-04-20 | 2009-11-17 | Riel Ryan D | Curved sensor array apparatus and methods |
TWI355615B (en) | 2007-05-11 | 2012-01-01 | Ind Tech Res Inst | Moving object detection apparatus and method by us |
US7626538B2 (en) * | 2007-10-24 | 2009-12-01 | Northrop Grumman Systems Corporation | Augmented passive tracking of moving emitter |
US7852461B2 (en) | 2007-11-15 | 2010-12-14 | Microsoft International Holdings B.V. | Dual mode depth imaging |
US20090140887A1 (en) | 2007-11-29 | 2009-06-04 | Breed David S | Mapping Techniques Using Probe Vehicles |
USRE46930E1 (en) | 2007-12-21 | 2018-07-03 | Leddartech Inc. | Distance detection method and system |
KR100914961B1 (en) | 2008-01-23 | 2009-09-02 | 성균관대학교산학협력단 | Method and system for determining optimal exposure of structured light based 3d camera |
WO2009115122A1 (en) | 2008-03-20 | 2009-09-24 | Trimble Ab | Geodetic scanner with increased efficiency |
KR100976682B1 (en) | 2008-04-04 | 2010-08-18 | 주식회사 하이닉스반도체 | Semiconductor memory device and manufacturing method thereof |
US9041915B2 (en) * | 2008-05-09 | 2015-05-26 | Ball Aerospace & Technologies Corp. | Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR |
TW201005673A (en) * | 2008-07-18 | 2010-02-01 | Ind Tech Res Inst | Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system |
US9188980B2 (en) | 2008-09-11 | 2015-11-17 | Deere & Company | Vehicle with high integrity perception system |
EP2362936B1 (en) | 2008-10-28 | 2012-10-17 | 3Shape A/S | Scanner with feedback control |
US20100157280A1 (en) * | 2008-12-19 | 2010-06-24 | Ambercore Software Inc. | Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions |
EP2204670B1 (en) | 2008-12-23 | 2014-06-11 | Sony Corporation | Adaptive sensing system |
US8290208B2 (en) | 2009-01-12 | 2012-10-16 | Eastman Kodak Company | Enhanced safety during laser projection |
US8439842B2 (en) | 2009-01-29 | 2013-05-14 | General Electric Company | Method and device for controlling transmission power of an active transducer |
US20100204974A1 (en) * | 2009-02-09 | 2010-08-12 | Utah State University | Lidar-Assisted Stero Imager |
DE102009009047A1 (en) | 2009-02-16 | 2010-08-19 | Daimler Ag | Method for object detection |
US20100235129A1 (en) * | 2009-03-10 | 2010-09-16 | Honeywell International Inc. | Calibration of multi-sensor system |
US8164617B2 (en) * | 2009-03-25 | 2012-04-24 | Cisco Technology, Inc. | Combining views of a plurality of cameras for a video conferencing endpoint with a display wall |
JP2011009514A (en) | 2009-06-26 | 2011-01-13 | Renesas Electronics Corp | Method for manufacturing semiconductor device |
US8547374B1 (en) | 2009-07-24 | 2013-10-01 | Lockheed Martin Corporation | Detection and reconstruction of 3D objects with passive imaging sensors |
US8441622B2 (en) * | 2009-07-28 | 2013-05-14 | Applied Concepts, Inc. | Lidar measurement device for vehicular traffic surveillance and method for use of same |
US8125622B2 (en) | 2009-07-28 | 2012-02-28 | Applied Concepts, Inc. | Lidar measurement device with target tracking and method for use of same |
US8116527B2 (en) * | 2009-10-07 | 2012-02-14 | The United States Of America As Represented By The Secretary Of The Army | Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background |
JP5257700B2 (en) | 2009-10-30 | 2013-08-07 | トヨタ自動車株式会社 | Lithium secondary battery |
US8446492B2 (en) * | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
SG182409A1 (en) | 2010-01-07 | 2012-08-30 | Shilat Optronics Ltd | Three dimensional measurement system |
US9303989B2 (en) | 2010-02-23 | 2016-04-05 | Ben-Gurion University Of The Negev | System and method for providing 3D imaging |
US8587686B1 (en) | 2010-03-16 | 2013-11-19 | University Of Central Florida Research Foundation, Inc. | Hybrid differential optical sensing imager |
US8736818B2 (en) | 2010-08-16 | 2014-05-27 | Ball Aerospace & Technologies Corp. | Electronically steered flash LIDAR |
US8648702B2 (en) * | 2010-08-20 | 2014-02-11 | Denso International America, Inc. | Combined time-of-flight and image sensor systems |
WO2012033173A1 (en) | 2010-09-08 | 2012-03-15 | 株式会社豊田中央研究所 | Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method |
JP5839971B2 (en) * | 2010-12-14 | 2016-01-06 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
KR101190789B1 (en) * | 2010-12-30 | 2012-10-11 | 주식회사 와이즈오토모티브 | Apparatus and method for measurementing distance of vehicle |
US8908159B2 (en) | 2011-05-11 | 2014-12-09 | Leddartech Inc. | Multiple-field-of-view scannerless optical rangefinder in high ambient background light |
US8791851B2 (en) | 2011-06-02 | 2014-07-29 | International Business Machines Corporation | Hybrid millimeter wave imaging system |
US10007330B2 (en) | 2011-06-21 | 2018-06-26 | Microsoft Technology Licensing, Llc | Region of interest segmentation |
KR101680186B1 (en) * | 2011-08-30 | 2016-11-28 | 삼성전자주식회사 | Image photographing device and control method thereof |
US20130107065A1 (en) | 2011-10-27 | 2013-05-02 | Qualcomm Incorporated | Inertial sensor aided stationary object detection in videos |
US10071687B2 (en) | 2011-11-28 | 2018-09-11 | Magna Electronics Inc. | Vision system for vehicle |
US8607169B2 (en) * | 2011-12-28 | 2013-12-10 | Elitetech Technology Co., Ltd. | Intelligent defect diagnosis method |
US9681125B2 (en) * | 2011-12-29 | 2017-06-13 | Pelco, Inc | Method and system for video coding with noise filtering |
US20130197736A1 (en) * | 2012-01-30 | 2013-08-01 | Google Inc. | Vehicle control based on perception uncertainty |
EP2820632B8 (en) | 2012-03-02 | 2017-07-26 | Leddartech Inc. | System and method for multipurpose traffic detection and characterization |
KR20130137074A (en) * | 2012-06-06 | 2013-12-16 | 삼성전자주식회사 | Apparatus and method for providing augmented reality information by using 3 dimension map |
US8781721B2 (en) * | 2012-06-06 | 2014-07-15 | Google Inc. | Obstacle evaluation technique |
US9898829B2 (en) | 2012-09-18 | 2018-02-20 | Hanwha Techwin Co., Ltd. | Monitoring apparatus and system using 3D information of images and monitoring method using the same |
CN102914262B (en) * | 2012-09-29 | 2015-02-11 | 北京控制工程研究所 | Non-cooperative target abutting measurement method based on additional sighting distance |
US9625994B2 (en) | 2012-10-01 | 2017-04-18 | Microsoft Technology Licensing, Llc | Multi-camera depth imaging |
US9111444B2 (en) * | 2012-10-31 | 2015-08-18 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
CN102944224B (en) * | 2012-11-09 | 2014-08-27 | 大连理工大学 | Work method for automatic environmental perception systemfor remotely piloted vehicle |
US11509880B2 (en) | 2012-11-14 | 2022-11-22 | Qualcomm Incorporated | Dynamic adjustment of light source power in structured light active depth sensing systems |
KR101851836B1 (en) * | 2012-12-03 | 2018-04-24 | 나비센스, 인크. | Systems and methods for estimating the motion of an object |
WO2014102828A2 (en) * | 2012-12-31 | 2014-07-03 | Muthukumar Prasad | Ambient intelligence based environment safe interference free closed loop wireless energy transfering/receiving network with highly flexible active adaptive self steering multilevel multicast coherent energy power streams |
GB201301281D0 (en) | 2013-01-24 | 2013-03-06 | Isis Innovation | A Method of detecting structural parts of a scene |
US9083960B2 (en) | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
GB201303076D0 (en) * | 2013-02-21 | 2013-04-10 | Isis Innovation | Generation of 3D models of an environment |
US8761594B1 (en) | 2013-02-28 | 2014-06-24 | Apple Inc. | Spatially dynamic illumination for camera systems |
US9398287B2 (en) * | 2013-02-28 | 2016-07-19 | Google Technology Holdings LLC | Context-based depth sensor control |
US9063549B1 (en) * | 2013-03-06 | 2015-06-23 | Google Inc. | Light detection and ranging device with oscillating mirror driven by magnetically interactive coil |
WO2014138697A1 (en) * | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for high dynamic range imaging using array cameras |
US8996224B1 (en) * | 2013-03-15 | 2015-03-31 | Google Inc. | Detecting that an autonomous vehicle is in a stuck condition |
US11172126B2 (en) | 2013-03-15 | 2021-11-09 | Occipital, Inc. | Methods for reducing power consumption of a 3D image capture system |
CN105164549B (en) * | 2013-03-15 | 2019-07-02 | 优步技术公司 | Method, system and the equipment of more sensing stereoscopic visions for robot |
US9164511B1 (en) * | 2013-04-17 | 2015-10-20 | Google Inc. | Use of detected objects for image processing |
US9424650B2 (en) * | 2013-06-12 | 2016-08-23 | Disney Enterprises, Inc. | Sensor fusion for depth estimation |
WO2015004213A1 (en) * | 2013-07-09 | 2015-01-15 | Xenomatix Bvba | Surround sensing system |
US20150071541A1 (en) * | 2013-08-14 | 2015-03-12 | Rice University | Automated method for measuring, classifying, and matching the dynamics and information passing of single objects within one or more images |
US9315192B1 (en) * | 2013-09-30 | 2016-04-19 | Google Inc. | Methods and systems for pedestrian avoidance using LIDAR |
US9336440B2 (en) * | 2013-11-25 | 2016-05-10 | Qualcomm Incorporated | Power efficient use of a depth sensor on a mobile device |
KR101549929B1 (en) | 2014-02-13 | 2015-09-03 | 고려대학교 산학협력단 | Method and apparatus of generating depth map |
US9098754B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
US9390328B2 (en) * | 2014-04-25 | 2016-07-12 | Xerox Corporation | Static occlusion handling using directional pixel replication in regularized motion environments |
CN107076838B (en) * | 2014-08-15 | 2021-11-05 | 艾耶股份有限公司 | Method and system for lidar transmission |
US9378554B2 (en) * | 2014-10-09 | 2016-06-28 | Caterpillar Inc. | Real-time range map generation |
CN104567917B (en) | 2014-12-18 | 2016-01-13 | 北京控制工程研究所 | Prediction method of position and velocity of reentry vehicle with variable step size based on dynamic characteristics |
US9678210B2 (en) * | 2014-12-19 | 2017-06-13 | Caterpillar Inc. | Error estimation in real-time visual odometry system |
CN108271408B (en) | 2015-04-01 | 2020-12-04 | 瓦亚视觉有限公司 | Generating three-dimensional maps of scenes using passive and active measurements |
CN104828664B (en) * | 2015-04-03 | 2020-05-22 | 奥的斯电梯公司 | Automatic debugging system and method |
KR101835434B1 (en) * | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value |
CN107301651A (en) | 2016-04-13 | 2017-10-27 | 索尼公司 | Object tracking apparatus and method |
US10891779B2 (en) * | 2016-07-13 | 2021-01-12 | Naked Labs Austria Gmbh | Efficient volumetric reconstruction with depth sensors |
CN110062871B (en) * | 2016-12-09 | 2024-01-19 | 通腾全球信息公司 | Method and system for video-based positioning and mapping |
CA3090627A1 (en) | 2017-02-06 | 2018-08-09 | Vayavision Sensing Ltd. | Computer aided driving |
US10445928B2 (en) | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
JP6713946B2 (en) * | 2017-03-31 | 2020-06-24 | 株式会社Soken | In-vehicle radar device |
US11292483B2 (en) | 2018-02-28 | 2022-04-05 | VayaVision Sensing, Ltd. | Managing a change in a physical property of a vehicle due to an external object |
US11061406B2 (en) * | 2018-10-22 | 2021-07-13 | Waymo Llc | Object action classification for autonomous vehicles |
US10832438B2 (en) * | 2018-12-19 | 2020-11-10 | Murat Gozu | Object distancing system for a vehicle |
JP7019731B2 (en) * | 2019-01-30 | 2022-02-15 | バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド | Real-time map generation system for self-driving cars |
CN112105893B (en) * | 2019-01-30 | 2023-08-22 | 百度时代网络技术(北京)有限公司 | Real-time map generation system for an autonomous vehicle |
US11087494B1 (en) * | 2019-05-09 | 2021-08-10 | Zoox, Inc. | Image-based depth data and localization |
US11507789B2 (en) * | 2019-05-31 | 2022-11-22 | Lg Electronics Inc. | Electronic device for vehicle and method of operating electronic device for vehicle |
US11668798B2 (en) * | 2019-11-14 | 2023-06-06 | Nio Technology (Anhui) Co., Ltd. | Real-time ground surface segmentation algorithm for sparse point clouds |
US11606477B2 (en) | 2020-01-20 | 2023-03-14 | Instituto De Pesquisas Eldorado | Multispectral camera |
US11947359B2 (en) * | 2020-02-14 | 2024-04-02 | Micron Technology, Inc. | Intelligent lidar sensors for autonomous vehicles |
US11753006B2 (en) * | 2020-06-08 | 2023-09-12 | Robert Bosch Gmbh | Representing objects in a surrounding environment of a vehicle using a frenet coordinate system |
CA3125623C (en) | 2020-07-21 | 2023-06-27 | Leddartech Inc. | Beam-steering device particularly for lidar systems |
EP4185888A4 (en) | 2020-07-21 | 2024-08-21 | Leddartech Inc. | BEAM STEERING DEVICE, PARTICULARLY FOR LIDAR SYSTEMS |
US11402510B2 (en) | 2020-07-21 | 2022-08-02 | Leddartech Inc. | Systems and methods for wide-angle LiDAR using non-uniform magnification optics |
US12008777B2 (en) * | 2021-10-22 | 2024-06-11 | Argo AI, LLC | Validating an SfM map using lidar point clouds |
-
2016
- 2016-03-31 CN CN201680030809.6A patent/CN108271408B/en active Active
- 2016-03-31 WO PCT/US2016/025252 patent/WO2016161104A1/en active Application Filing
- 2016-03-31 US US15/087,186 patent/US20160291154A1/en not_active Abandoned
- 2016-03-31 KR KR1020177031544A patent/KR102614323B1/en active IP Right Grant
- 2016-03-31 EP EP16774190.9A patent/EP3283843B1/en active Active
- 2016-03-31 EP EP23207701.6A patent/EP4296721A3/en active Pending
- 2016-03-31 US US15/087,222 patent/US10024965B2/en active Active
- 2016-03-31 CN CN202011284223.7A patent/CN112665556B/en active Active
- 2016-05-12 US US15/153,302 patent/US10444357B2/en active Active
-
2020
- 2020-11-30 US US17/107,284 patent/US11226413B2/en active Active
-
2021
- 2021-05-28 US US17/334,292 patent/US11604277B2/en active Active
-
2022
- 2022-01-19 US US17/579,023 patent/US11725956B2/en active Active
- 2022-04-11 US US17/717,327 patent/US20220236411A1/en not_active Abandoned
-
2023
- 2023-08-31 US US18/240,753 patent/US20230408279A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002059796A (en) * | 2000-05-24 | 2002-02-26 | Daimlerchrysler Ag | Method and apparatus for classification by detecting road user and obstacle based on camera image and detecting distance to observer |
US20100040285A1 (en) * | 2008-08-14 | 2010-02-18 | Xerox Corporation | System and method for object class localization and semantic class based image segmentation |
Also Published As
Publication number | Publication date |
---|---|
US20210293963A1 (en) | 2021-09-23 |
CN108271408A (en) | 2018-07-10 |
CN112665556B (en) | 2023-09-05 |
US20160291155A1 (en) | 2016-10-06 |
KR20170132860A (en) | 2017-12-04 |
CN108271408B (en) | 2020-12-04 |
US11725956B2 (en) | 2023-08-15 |
EP3283843B1 (en) | 2024-01-10 |
WO2016161104A1 (en) | 2016-10-06 |
EP4296721A2 (en) | 2023-12-27 |
US20160292905A1 (en) | 2016-10-06 |
EP3283843A1 (en) | 2018-02-21 |
US10024965B2 (en) | 2018-07-17 |
US20210080575A1 (en) | 2021-03-18 |
EP4296721A3 (en) | 2024-03-20 |
EP3283843A4 (en) | 2019-02-27 |
US10444357B2 (en) | 2019-10-15 |
US20220236411A1 (en) | 2022-07-28 |
US11226413B2 (en) | 2022-01-18 |
US20160291154A1 (en) | 2016-10-06 |
US20220137214A1 (en) | 2022-05-05 |
CN112665556A (en) | 2021-04-16 |
EP3283843C0 (en) | 2024-01-10 |
US11604277B2 (en) | 2023-03-14 |
US20230408279A1 (en) | 2023-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102614323B1 (en) | Create a 3D map of a scene using passive and active measurements | |
US20210201507A1 (en) | System and Method for Movement Detection | |
US10345447B1 (en) | Dynamic vision sensor to direct lidar scanning | |
US10491885B1 (en) | Post-processing by lidar system guided by camera information | |
JP2020085886A (en) | Vehicle, vehicle positioning system, and method for positioning vehicle | |
US10708557B1 (en) | Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors | |
US20190266741A1 (en) | System and method for object detection using edge characteristics | |
CN112149460A (en) | Obstacle detection method and device | |
US12125269B2 (en) | Sensor fusion | |
EP3825732A1 (en) | Methods and systems for computer-based determining of presence of objects | |
US20240192377A1 (en) | System and method for validation of lidar-generated horizon estimation | |
US11668830B1 (en) | System and method for performing active distance measurements | |
US20230408656A1 (en) | Detecting phantom objects in ranging sensor data | |
US11914679B2 (en) | Multispectral object-detection with thermal imaging | |
CN215495425U (en) | Compound eye camera system and vehicle using compound eye camera system | |
WO2022217522A1 (en) | Target sensing method and device, detection system, movable platform and storage medium | |
WO2024263834A1 (en) | Systems and methods for vehicle navigation | |
CN115440067A (en) | Compound eye imaging system, vehicle using compound eye imaging system, and image processing method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20171031 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20210331 Comment text: Request for Examination of Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230714 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20231007 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20231212 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20231212 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |