[go: up one dir, main page]

KR102614323B1 - Create a 3D map of a scene using passive and active measurements - Google Patents

Create a 3D map of a scene using passive and active measurements Download PDF

Info

Publication number
KR102614323B1
KR102614323B1 KR1020177031544A KR20177031544A KR102614323B1 KR 102614323 B1 KR102614323 B1 KR 102614323B1 KR 1020177031544 A KR1020177031544 A KR 1020177031544A KR 20177031544 A KR20177031544 A KR 20177031544A KR 102614323 B1 KR102614323 B1 KR 102614323B1
Authority
KR
South Korea
Prior art keywords
objects
distance
map
image
measurements
Prior art date
Application number
KR1020177031544A
Other languages
Korean (ko)
Other versions
KR20170132860A (en
Inventor
유발 네흐마디
사무엘 우르
로니 코헨
Original Assignee
바야비전 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바야비전 리미티드 filed Critical 바야비전 리미티드
Publication of KR20170132860A publication Critical patent/KR20170132860A/en
Application granted granted Critical
Publication of KR102614323B1 publication Critical patent/KR102614323B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10198Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves setting parameters for the interrogator, e.g. programming parameters and operating modes
    • G06K7/10217Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves setting parameters for the interrogator, e.g. programming parameters and operating modes parameter settings controlling the transmission power of the interrogator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10554Moving beam scanning
    • G06K7/10564Light sources
    • G06K7/10584Source control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Toxicology (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optics & Photonics (AREA)

Abstract

3차원(3D) 지도를 획득하기 위한 3D 지도를 생성하는 방법 및 장치가 제시된다. 상기 방법은 수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체를 분류하기 위해 상기 적어도 하나의 이미지를 분석하는 단계; 상기 복수의 대상체들을 분류하는 단계; 상기 분류에 기초하여 상기 복수의 대상체들의 각 대상체까지의 거리를 수동적으로 측정할지의 여부를 결정하는 단계; 상기 결정에 기초하여 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 상기 거리를 수동적으로 측정하는 단계; 상기 복수의 대상체들 중 일부의 대상체까지의 거리를 능동적으로 측정하는 단계 - 상기 대상체까지의 상기 거리가 수동적으로 측정될 수 없을 때 상기 복수의 대상체들 중 상기 동일한 일부의 대상체 중 하나의 대상체까지의 상기 거리를 능동적으로 측정함 -; 및 상기 복수의 대상체들 각각에 대해 측정된 상기 거리에 기초하여 장면의 3D 지도를 생성하는 단계를 포함한다.A method and device for generating a 3D map to obtain a three-dimensional (3D) map are presented. The method includes analyzing at least one image acquired by a passive sensor to classify a plurality of objects therein; Classifying the plurality of objects; determining whether to manually measure the distance to each object of the plurality of objects based on the classification; passively measuring the distance to at least one object among the plurality of objects based on the determination; Actively measuring the distance to some of the plurality of objects - when the distance to the object cannot be measured passively, measuring the distance to one of the same part of the plurality of objects Actively measuring the distance -; and generating a 3D map of the scene based on the distance measured for each of the plurality of objects.

Description

수동 및 능동 측정을 이용한 장면의 3차원 지도 생성Create a 3D map of a scene using passive and active measurements

[관련 출원과의 상호 참조][Cross-reference with related applications]

본 출원은 2015년 4월 1일자로 출원된 미국 예비출원 제62/141,296호 및 2015년 5월 13일자로 출원된 미국 예비출원 제62/160,988호의 우선권을 주장하며, 그 내용은 본 명세서에 참고로 포함된다.This application claims priority to U.S. Provisional Application No. 62/141,296, filed on April 1, 2015, and U.S. Provisional Application No. 62/160,988, filed on May 13, 2015, the contents of which are incorporated herein by reference. It is included as

자율 주행 자동차(무인 자동차, 셀프 주행 자동차 또는 로봇 차라고도 함)는 인간의 조정 없이 주행하는 차량이다. 자율 주행 차량은 레이더, 라이다(Lidar), GPS, 주행 거리계 또는 컴퓨터 비전을 사용하여 주변을 검출하기 위해 환경을 감지한다. 첨단 제어 시스템은 감각 정보를 해석하여 장애물 및 관련 표지판은 물론 적절한 탐색 경로를 식별한다. 자율 주행 자동차는 도로상의 다른 자동차나 장애물을 구별하기 위해 감각 데이터를 분석하기 위한 제어 시스템을 갖추고 있다. 현재, 무인 자동차 기술은 Google®, Tesla®, 및 Audi®, BMW®, Nissan® 등과 같은 일부 차량 제조업체에서 개발되고 있다.Autonomous vehicles (also known as driverless cars, self-driving cars, or robot cars) are vehicles that drive without human intervention. Autonomous vehicles use radar, Lidar, GPS, odometer, or computer vision to sense their environment to detect their surroundings. Advanced control systems interpret sensory information to identify obstacles and associated signs, as well as appropriate navigation paths. Self-driving cars are equipped with control systems to analyze sensory data to distinguish between other cars and obstacles on the road. Currently, driverless car technology is being developed by Google®, Tesla®, and some vehicle manufacturers such as Audi®, BMW®, Nissan®, etc.

예를 들어, Mobileye®와 같은 다른 회사들은 시장에서 핸즈프리 구동 기술에 대한 솔루션을 제공하려고 하고 있다. 이 기술의 사용은 전형적으로 고속도로 또는 국도와 같은 특정 주행 인프라에 제한된다. 이러한 핸즈프리 운전 및 자율 주행 차량 기술의 핵심은 이동중이나 이동 바로 직전 어느 순간에 장면의 3차원 지도를 렌더링하고 생성하는 데에 있다. 이러한 지도는 운전자가 보는 바와 같은 장면을 모방하려고 한다.For example, other companies such as Mobileye® are trying to provide solutions for hands-free driving technology in the market. The use of this technology is typically limited to specific driving infrastructure, such as highways or national highways. The core of these hands-free driving and autonomous vehicle technologies lies in rendering and creating a three-dimensional map of the scene at any moment during or immediately before movement. These maps attempt to mimic the scene as a driver would see it.

이러한 3D 지도의 렌더링은 전형적으로 3D 공간 내의 많은 지점에 대한 거리를 측정하여 대상체의 존재 및 차량과의 각각의 거리를 결정하는 것으로 달성된다. 렌더링된 3D 지도는 차량에 의해 주행 결정을 내리기 위해 결합되고 처리될 수 있다. 상세한 3D 지도를 렌더링하기 위한 기존 솔루션은 라이다 (또는 LADAR) 시스템을 기반으로 한다. 라이다 시스템은 하나의 레이저 빔 또는 여러 개의 레이저 빔을 사용하여 여러 타겟(공간 내의 지점)을 조명하여 대상체까지의 거리를 측정한다. 이러한 기존 솔루션은 전체 배경(장면)을 스캔하도록 라이다 시스템을 구성한다. 단일 3D 지도를 렌더링하려면 많은 수의 레이저 측정을 필요로 한다.Rendering of these 3D maps is typically accomplished by measuring distances to many points in 3D space to determine the presence of objects and their respective distances to vehicles. The rendered 3D maps can be combined and processed by the vehicle to make driving decisions. Existing solutions for rendering detailed 3D maps are based on LiDAR (or LADAR) systems. LiDAR systems measure the distance to an object by illuminating multiple targets (points in space) using a single laser beam or multiple laser beams. These existing solutions configure the LIDAR system to scan the entire background (scene). Rendering a single 3D map requires a large number of laser measurements.

예를 들어, 도 1은 3D 지도가 생성되는 장면의 이미지(100)를 도시한다. 핸즈프리 및 자율 주행 기술에 의해 구현된 일부 기존 솔루션은 이미지(100) 내의 각 지점(110)까지의 거리를 측정한다. 따라서, 레이저 빔은 3D 지도를 렌더링하기 위해 각각의 지점을 조명한다. 많은 예에서, 라이다 시스템은 장면에 대한 사전 지식, 예를 들어 장면의 사진을 갖고 있지 않다. 이를 위해서 이 기술은 매우 복잡하고 값비싼 장비를 기반으로 해야 한다. 예를 들어 Google®에서 만든 로봇 자동차에는 약 7만 달러 가치의 라이다 시스템을 갖춘 장비를 포함한다. 라이다 시스템은 64개의 빔 레이저를 포함한다. 3D 지도를 렌더링하기 위한 하드웨어의 비용이 많이 들어가기 때문에 자율 주행 차량의 대량 생산은 현실적으로 불가능하다. 단지 간략화를 위해 도 1에는 소수 개의 지점(110)만이 구체적으로 표시되고 있음에 유의해야 한다For example, Figure 1 shows an image 100 of a scene from which a 3D map is created. Some existing solutions enabled by hands-free and autonomous driving technologies measure the distance to each point 110 within the image 100. Therefore, a laser beam illuminates each point to render a 3D map. In many examples, the LiDAR system does not have prior knowledge of the scene, for example a picture of the scene. To achieve this, the technology must be based on very complex and expensive equipment. For example, a robot car made by Google® includes equipment equipped with a LiDAR system worth about $70,000. The LiDAR system includes 64 beam lasers. Because the hardware for rendering 3D maps is expensive, mass production of autonomous vehicles is not realistically possible. It should be noted that only a few points 110 are specifically shown in Figure 1 for simplicity.

또한, 기존의 라이다 시스템을 사용하는 자율 차량의 광범위한 생산은 각 차량으로부터 송신되어 시선 내에 있는 사람에 부딪힐 가능성이 있는 많은 수의 레이저 빔으로 인해 보행자, 운전자 및/또는 승객에게 위험한 조건을 야기할 수 있다. 또한, 기존 라이다 솔루션은 사용 가능한 한 가장 높은 에너지 수준에서 레이저 빔을 전송하도록 구성된다. 이것은 라이다 시스템의 최대 범위에서 일 지점을 측정하기 위해 수행된다.Additionally, widespread production of autonomous vehicles using existing LiDAR systems will create hazardous conditions for pedestrians, drivers, and/or passengers due to the large number of laser beams transmitted from each vehicle that are likely to hit anyone within their line of sight. can do. Additionally, existing LiDAR solutions are configured to transmit laser beams at the highest energy level available. This is done to measure one point at the maximum range of the LIDAR system.

또한, 전체 장면을 스캐닝함으로써 3D 지도를 생성하게 되면 크로스토크(crosstalk)가 증가하게 된다. 이는 이러한 스캐닝 시스템이 장착된 자율 주행 차량에 의해 많은 수의 레이저 빔이 전송되기 때문이다. 결과적으로 전체 장면을 스캔하여 생성된 3D 지도의 최종 해상도가 제한될 수 있다.Additionally, when a 3D map is created by scanning the entire scene, crosstalk increases. This is because a large number of laser beams are transmitted by autonomous vehicles equipped with these scanning systems. As a result, the final resolution of the 3D map generated by scanning the entire scene may be limited.

따라서, 종래 기술의 결점을 극복할 수 있는 3D 지도를 생성하는 솔루션을 제공하는 것이 바람직하다.Therefore, it is desirable to provide a solution for generating 3D maps that can overcome the shortcomings of the prior art.

본 개시의 몇몇 예시적인 실시 형태의 요약이 뒤이어진다. 이 요약은 독자가 실시예에 대한 기본적인 이해를 제공할 수 있도록 편의상 제공된 것으로, 본 개시의 범위를 완전히 규정하는 것은 아니다. 이 요약은 모든 고려된 실시예에 대한 광범위한 개론이 아니며, 모든 실시예의 주요 요소 또는 중요한 요소를 식별하거나 또는 임의의 또는 모든 양태의 범위를 기술하려고 하는 것도 아니다. 유일한 목적은 후술되는 더욱 상세한 설명의 서두로서 간략화된 형태로 하나 이상의 실시예의 일부 개념을 제시하는 것이다. 편의상, "일부 실시예"라는 용어는 본 개시의 단일 실시예 또는 다수의 실시예를 나타내기 위해 사용될 수 있다.A summary of several example embodiments of the disclosure follows. This summary is provided for convenience only to provide the reader with a basic understanding of the embodiments and does not fully define the scope of the disclosure. This summary is not an extensive overview of all contemplated embodiments, nor is it intended to identify key or critical elements of all embodiments or to delineate the scope of any or all aspects. Its sole purpose is to present some concepts of one or more embodiments in a simplified form as a prelude to the more detailed description that is presented later. For convenience, the term “some embodiments” may be used to refer to a single embodiment or multiple embodiments of the present disclosure.

본 명세서에 개시된 특정 실시예는 3차원(3D) 지도를 획득하기 위한 방법을 포함한다. 이 방법은 수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체들을 식별하기 위해 상기 적어도 하나의 이미지를 분석하는 단계; 상기 복수의 대상체들을 분류하는 단계; 상기 분류에 기초하여, 정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 각각의 거리를 수동적으로 측정하는 단계; 비정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하는 단계; 상기 수동적으로 측정된 각각의 거리와 상기 능동적으로 측정된 각각의 거리를 융합하여, 복수의 대상체들에 대한 융합된 거리 측정치를 얻는 단계; 및 상기 융합된 거리 측정치를 기초로 장면의 3D 지도를 생성하는 단계를 포함한다.Certain embodiments disclosed herein include methods for obtaining three-dimensional (3D) maps. The method includes analyzing at least one image acquired by a passive sensor to identify a plurality of objects in the image; Classifying the plurality of objects; Based on the classification, manually measuring each distance to at least one object among the plurality of objects classified as stationary objects; Actively measuring distances to some of the plurality of objects classified as non-stationary objects; Obtaining fused distance measurements for a plurality of objects by fusing each of the passively measured distances with each of the actively measured distances; and generating a 3D map of the scene based on the fused distance measurements.

본 명세서에 기재된 특정 실시예는 3차원(3D) 지도를 획득하기 위한 장치를 포함한다. 이 장치는 3차원(3D) 지도를 획득하기 위한 장치에 있어서, 장면의 이미지를 획득하기 위한 수동 센서; 처리 시스템으로서, 수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체들을 식별하기 위해 상기 적어도 하나의 이미지를 분석하고, 상기 복수의 대상체들을 분류하도록 구성된 처리 시스템; 및 비정지 상태의 대상체로 분류된 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하도록 구성된 능동 센서를 포함하고, 상기 처리 시스템은 상기 수동적으로 측정된 각각의 거리와 상기 능동적으로 측정된 각각의 거리를 융합하여, 복수의 대상체들에 대한 융합된 거리 측정치를 얻고, 상기 융합된 거리 측정치를 기초로 장면의 3D 지도를 생성하도록 더 구성된록 구성된다.Certain embodiments described herein include devices for obtaining three-dimensional (3D) maps. This device is a device for acquiring a three-dimensional (3D) map, comprising: a passive sensor for acquiring an image of a scene; A processing system, comprising: a processing system configured to analyze at least one image acquired by a passive sensor to identify a plurality of objects in the image and classify the plurality of objects; and an active sensor configured to actively measure respective distances to some of the plurality of objects classified as non-stationary objects, wherein the processing system is configured to measure each of the passively measured distances and the actively and further configured to fuse each measured distance to obtain fused distance measurements for a plurality of objects, and generate a 3D map of the scene based on the fused distance measurements.

본 명세서에 기재된 특정 실시예는 또한 3차원(3D) 지도를 획득하기 위한 방법을 포함한다. 이 방법은 수동 센서에 의해 적어도 하나의 이미지를 획득하는 단계; 세분화 지도를 렌더링하기 위해 상기 적어도 하나의 이미지를 세분화하는 단계; 상기 세분화 지도에서 식별된 각 세그멘트 내의 제1 개수의 픽셀의 각 픽셀에 대한 거리 값을 능동적으로 측정하는 단계 - 상기 제1 개수의 픽셀은 각 세그먼트 내의 상기 픽셀의 수보다 작음 -; 상기 제1 개수의 픽셀 내의 픽셀의 상기 거리를 사용하여 상기 세그먼트 내의 각 픽셀에 대한 거리 값을 계산하는 단계; 및 상기 측정 및 계산된 거리 값에 기초하여 장면의 3D 지도를 생성하는 단계를 포함한다.Certain embodiments described herein also include methods for obtaining three-dimensional (3D) maps. The method includes acquiring at least one image by a passive sensor; segmenting the at least one image to render a segmentation map; actively measuring a distance value for each pixel of a first number of pixels within each segment identified in the segmentation map, the first number of pixels being less than the number of pixels within each segment; calculating a distance value for each pixel in the segment using the distance of pixels in the first number of pixels; and generating a 3D map of the scene based on the measured and calculated distance values.

본 명세서에 개시된 요지는 명세서의 결론 청구 범위에서 특히 지적되며 명백하게 청구된다. 개시된 실시예의 상기 및 다른 목적, 특징 및 이점은 첨부된 도면과 관련하여 취해진 다음의 상세한 설명으로부터 명백해질 것이다.
도 1은 종래의 접근법을 사용하여 3D 지도가 생성된 장면의 사진이다.
도 2는 일 실시예에 따라 차량으로부터 3D 지도를 생성하도록 구성된 장치의 블록도이다.
도 3a 및 도 3b는 일 실시예에 따라 이미지 내의 대상체들의 식별을 나타내는 도면이다.
도 4는 일 실시예에 따른 장면의 3D 지도를 생성하는 방법을 도시하는 흐름도이다.
도 5는 일 실시예에 따른 수동 측정을 수행하는 방법을 나타내는 흐름도이다.
도 6은 알려진 대상체 크기에 기초한 수동 측정을 나타내는 이미지이다.
도 7은 다른 실시예에 따른 수동 측정을 수행하는 방법을 나타내는 흐름도이다.
도 8은 프레임들간의 거리 변화에 기초하여 대상체가 정지 상태인지를 결정하는 것을 설명하기 위해 이용된 스크린 샷이다.
The subject matter disclosed herein is particularly pointed out and expressly claimed in the concluding claims of the specification. These and other objects, features and advantages of the disclosed embodiments will become apparent from the following detailed description taken in conjunction with the accompanying drawings.
Figure 1 is a photograph of a scene from which a 3D map was created using a conventional approach.
2 is a block diagram of an apparatus configured to generate a 3D map from a vehicle according to one embodiment.
3A and 3B are diagrams illustrating identification of objects in an image according to one embodiment.
4 is a flowchart illustrating a method for generating a 3D map of a scene according to one embodiment.
5 is a flowchart illustrating a method for performing manual measurement according to one embodiment.
Figure 6 is an image showing a manual measurement based on known object size.
7 is a flowchart showing a method of performing manual measurement according to another embodiment.
Figure 8 is a screen shot used to explain determining whether an object is stationary based on changes in distance between frames.

여기에 개시된 실시예는 본 명세서의 혁신적인 기술의 많은 유리한 사용예에 불과하다는 것을 주목하는 것이 중요하다. 일반적으로, 본원의 상세한 설명에서 이루어진 설명은 청구된 실시예들을 반드시 제한하는 것은 아니다. 또한, 일부 진술은 다른 특성이 아니라 본 발명의 특성에 적용될 수 있다. 일반적으로, 달리 명시하지 않는 한, 단수 요소는 일반성의 손실 없이 복수일 수 있고, 또는 그 반대일 수 있다. 도면에서, 동일한 참조 번호는 몇 도면에 걸쳐 동일한 부분을 지칭한다.It is important to note that the embodiments disclosed herein are merely examples of many advantageous uses of the innovative technology herein. In general, the description made in the detailed description herein is not necessarily limiting to the claimed embodiments. Additionally, some statements may apply to features of the invention and not to other features. In general, unless otherwise specified, singular elements may be plural and vice versa without loss of generality. In the drawings, like reference numbers refer to like parts across several views.

개시된 실시예에 따르면, 3D 지도는 능동 측정, 수동 측정 및/또는 그러한 측정과 관련된 정보의 분석에 기초하여 렌더링되거나 그렇지 않으면 생성된다. 일부 실시예에서, 3D 지도는 차량으로부터 캡쳐된 측정치에 기초할 수 있다. 일 실시예에서, 능동 측정은 레이저 측정이지만, 수동 측정은 이미지 처리에 의해 달성된다. 따라서, 개시된 실시예는 적은 수의 저 에너지 레이저 빔을 사용하면서 장면의 완전한 3D 지도를 제공할 수 있게 한다. 장면은 3D 지도를 생성하게 하는 장치에 의해 캡쳐된 시야일 수 있다. 특정 구성에서, 개시된 실시예는 전체 장면에 대해 능동 측정을 수행하지 않고 특정 구간의 환경의 고해상도 3D 지도를 생성하는 데 이용될 수 있다. 능동 측정을 적게 사용하게 되면 사람이 레이저 광선에 노출될 위험이 줄어든다.According to disclosed embodiments, a 3D map is rendered or otherwise generated based on active measurements, passive measurements, and/or analysis of information associated with such measurements. In some embodiments, the 3D map may be based on measurements captured from the vehicle. In one embodiment, the active measurement is a laser measurement, while the passive measurement is achieved by image processing. Accordingly, the disclosed embodiments enable providing a complete 3D map of the scene while using a small number of low energy laser beams. The scene may be a view captured by a device that allows it to create a 3D map. In certain configurations, the disclosed embodiments can be used to generate high-resolution 3D maps of specific sections of the environment without performing active measurements over the entire scene. The use of fewer active measurements reduces the risk of human exposure to laser radiation.

도 2는 일 실시예에 따라 차량으로부터 3D 지도를 생성하도록 구성된 장치(200)의 예시적인 블록도를 도시한다. 장치(200)는 처리 시스템(210)에 연결된 메모리(215), 능동 센서(220), 및 수동 센서(230)를 포함한다. 특정 구성에서, 장치(200)는 처리 시스템(210)에 연결된 저장 장치(240), 하나 이상의 모션 센서(250), 및 네트워크 인터페이스(260)를 더 포함한다. 2 shows an example block diagram of an apparatus 200 configured to generate a 3D map from a vehicle, according to one embodiment. Device 200 includes memory 215, active sensor 220, and passive sensor 230 coupled to processing system 210. In certain configurations, device 200 further includes a storage device 240 coupled to processing system 210, one or more motion sensors 250, and a network interface 260.

장치(200)는 예를 들어, 차량에 장착되거나 차량에 일체화될 수 있다. 이러한 차량은 예를 들어 자동차, 트럭, 버스, 드론, 로봇 등을 포함할 수 있다. 장치(200)는 차량의 조작자(예를 들어, 운전자)에 의해 관찰되는 바와 같은 장면의 3D 지도를 생성하는데 이용될 수 있다. 일 실시예에서, 장치(200)는 생성된 3D 지도의 분석에 기초하여 차량의 동작의 일부 또는 전부를 제어하도록 구성된다. 따라서, 장치(200)는 자율 주행 차량, 핸즈프리 주행 시스템, 운전자 보조 시스템 등과 관련된 응용에 사용될 수 있다.Device 200 may be mounted on or integrated into a vehicle, for example. These vehicles may include, for example, cars, trucks, buses, drones, robots, etc. Device 200 may be used to generate a 3D map of the scene as observed by an operator (e.g., driver) of the vehicle. In one embodiment, device 200 is configured to control some or all of the vehicle's operations based on analysis of the generated 3D map. Accordingly, device 200 may be used in applications related to autonomous vehicles, hands-free driving systems, driver assistance systems, etc.

수동 센서(230)는 수동적으로 이미지를 획득하도록 구성된 이미지 센서(예를 들어, 카메라)일 수 있다. 획득된 이미지는 처리 시스템(210)에 의해 또는 이미지 처리 기술을 사용하는 수동 센서(230)에 의해 처리될 수 있다.Passive sensor 230 may be an image sensor (eg, camera) configured to passively acquire images. The acquired images may be processed by processing system 210 or by passive sensor 230 using image processing techniques.

능동 센서(220)는 장면 내 대상체로부터의 거리를 결정하기 위해 특정 방향으로 능동 측정을 수행하도록 구성된다. 일 실시예에서, 능동 측정은 레이저 측정이다. 또 다른 실시예에서, 능동 센서(220) (예를 들어, 처리 시스템(210)에 의해 결정되는) 특정 방향에서 광선을 조명하고 장면 내 대상체로부터 반사된 광선을 검출하도록 구성된다. 대상체로부터의 거리는 각각의 반사된 광선의 에너지 및 반사 각도에 기초하여 계산될 수 있다. 능동 센서(220)는 능동 스테레오 비젼(stereovision), 구조화된 광(structured light), 타임-오브-플라이트(time-of-flight; TOF) 등으로 구현될 수 있지만, 이에 한정되는 것은 아니다.Active sensor 220 is configured to perform active measurements in a specific direction to determine the distance from an object in the scene. In one embodiment, the active measurement is a laser measurement. In another embodiment, active sensor 220 is configured to illuminate light rays in a particular direction (e.g., determined by processing system 210) and detect light rays reflected from objects in the scene. The distance from the object can be calculated based on the energy and reflection angle of each reflected ray. The active sensor 220 may be implemented with active stereovision, structured light, time-of-flight (TOF), etc., but is not limited thereto.

처리 시스템(210)은 전체 환경이나 환경 내의 특정 대상체의 3D 지도를 생성하기 위해 데이터(예를 들어, 방출 및 반사된 빔의 에너지 레벨, 방향, 반사각)를 처리하도록 구성된다. 후술되는 바와 같이, 능동 측정의 수는 수동 센서(230)에 의해 획득된 이미지 또는 이미지를 사용하여 초기 스캐닝이 수행될 때 공간 내의 특정 지점 및/또는 표면으로 제한된다. 실시예에서, 이전에 획득된 이미지 또는 이전에 생성된 3D 지도와 같은 3D 지도 추가 정보를 생성하기 위해서, 이전에 결정된 능동 측정 및/또는 모션 센서(250)로부터 수집된 감각 정보가 이용될 수 있다. 모션 센서(250)는 글로벌 위치 확인 시스템(GPS), 가속도계, 근접 센서, 주행계 등을 포함할 수 있지만, 이에 한정되는 것은 아니다. 능동/수동 측정과 함께 부가 정보는 처리 시스템(210)에 의해 이용되어 각 대상체의 크기, 그 속도 및 차량에 대한 그 방향을 결정할 수 있다.Processing system 210 is configured to process data (e.g., energy level, direction, angle of reflection of emitted and reflected beams) to generate a 3D map of the entire environment or a specific object within the environment. As described below, the number of active measurements is limited to a specific point and/or surface in space when initial scanning is performed using the image or images acquired by passive sensor 230. In embodiments, previously determined active measurements and/or sensory information collected from motion sensor 250 may be used to generate 3D map additional information, such as previously acquired images or previously created 3D maps. . The motion sensor 250 may include, but is not limited to, a global positioning system (GPS), an accelerometer, a proximity sensor, an odometer, etc. The side information along with the active/passive measurements can be used by the processing system 210 to determine the size of each object, its speed, and its orientation relative to the vehicle.

특정 실시예에 따르면, 처리 시스템(210)은 3D 지도를 생성하도록 구성된다. 이를 위해, 처리 시스템(210)은 능동 및 수동 측정들을 융합하고; 정지 또는 거의 정지 상태인 대상체를 결정하고; 움직이는 대상체로부터의 거리만을 능동적으로 측정하고; 대상체의 최고 가능 속도 및/또는 수동 측정치를 이용하여 대상체로부터의 거리를 추정하도록 구성된다.According to certain embodiments, processing system 210 is configured to generate 3D maps. To this end, processing system 210 fuses active and passive measurements; determine an object that is stationary or nearly stationary; Actively measures only the distance from a moving object; configured to estimate the distance from the object using the object's highest possible speed and/or manual measurements.

능동 및 수동 측정의 융합은 수동 센서(230)가 신뢰성 있는 측정을 제공하지 않는 영역에서 대상체를 측정하기 위해 능동 센서(220)를 이용하는 것을 포함할 수 있다. 수동 센서(230)가 대상체에 대해 신뢰성 있는 측정을 제공할 수 있는지는 대상체의 분류, 화상 내의 대상체의 가시성 등에 기초하지만, 이에 한정되는 것은 아니다. 일 실시예에서, 신뢰할 수 있는 수동 측정이 달성될 수 있다면, 능동 센서(220)를 이용하지 않는다. 따라서, 개시된 실시예는 능동 센서(220)에 의해 수행되는 능동 측정의 수를 상당히 감소시킬 수 있다.The fusion of active and passive measurements may include using the active sensor 220 to measure an object in areas where the passive sensor 230 does not provide reliable measurements. Whether the passive sensor 230 can provide reliable measurement of an object is based on, but is not limited to, classification of the object, visibility of the object in the image, etc. In one embodiment, active sensor 220 is not used if reliable passive measurements can be achieved. Accordingly, the disclosed embodiments can significantly reduce the number of active measurements performed by active sensor 220.

이와 같이, 더 적은 레이저 빔이나 그 외 소스가 이용될 수 있고, 그에 의해 더 높은 해상도를 달성할 뿐만 아니라 에너지 소비, 크로스토크 및 위험한 조건을 감소시킬 수 있다. 일 실시예에서, 장치(200)는 능동 센서(220)를 사용하여 의심 상태 대상체만을 능동적으로 측정하도록 구성될 수 있다. 의심 상태 대상체는 그에 기초한 지도를 정확하게 생성하기 위해 능동 측정을 필요로 하는 임의의 대상체일 수 있다. 대상체의 분류는 아래에서 설명한다. 대상체는 예를 들어, 대상체가 비정지 상태(즉, 이동중) 및/또는 장치(200)에 최근접 상태인 경우 의심 상태가 될 수 있다. 일 예로, 장치(200)가 자동차에 장착되면, 보행자는 의심 상태 대상체로 인식되는 반면 배경의 나무는 그렇지 않다.As such, fewer laser beams or other sources can be used, thereby achieving higher resolution as well as reducing energy consumption, crosstalk, and hazardous conditions. In one embodiment, device 200 may be configured to actively measure only suspect status objects using active sensor 220 . A suspect status object can be any object that requires active measurements to accurately generate a map based on it. The classification of objects is described below. The object may be in a suspicious state, for example, when the object is in a non-stationary state (i.e., moving) and/or in close proximity to the device 200. For example, when the device 200 is mounted on a car, pedestrians are recognized as suspect, while trees in the background are not.

일 실시예에서, 처리 시스템(210)은 수동 센서(230)에 의해 제공된 이미지에 기초하여 어떤 대상체가 정지 상태에 있는지 또는 거의 정지 상태에 있는지를 결정하도록 구성된다. 예를 들어, 이미지 인식을 사용하여, 처리 시스템(210)은 예를 들어, 집, 나무, 기둥 등과 같은 정지 상태의 대상체를 결정하도록 구성될 수 있다. 다른 실시예에서, 수동 센서(230)가 고정될 때, 처리 시스템(210)은 2개의 연속적인 이미지를 비교하고, 이 비교에 기초하여 어떤 대상체가 정지된 대상체를 기준으로 이동되었는지 결정함으로써 대상체가 정지 상태인지를 결정하도록 구성될 수 있다. 일 예로, 수동 센서가 환경 내의 건물의 측면에 고정되면, 연속 이미지를 비교하여 장면의 어떤 대상체가 고정된 대상체를 기준으로 이동되었는지 여부를 결정할 수 있다.In one embodiment, processing system 210 is configured to determine whether an object is at rest or near still based on the image provided by passive sensor 230 . For example, using image recognition, processing system 210 may be configured to determine a stationary object, such as a house, tree, pole, etc. In another embodiment, when passive sensor 230 is stationary, processing system 210 compares two consecutive images and, based on this comparison, determines which object has moved relative to the stationary object, thereby It may be configured to determine whether a stationary state is present. As an example, if a passive sensor is anchored to the side of a building in an environment, successive images can be compared to determine whether any object in the scene has moved relative to the anchored object.

또 다른 실시예에서, 대상체가 정지 상태인지의 여부를 결정하는 것은 수동 센서(230)에 의해 캡쳐된 프레임(예를 들어, 이미지)의 비교에 기초할 수 있다. 비교는 프레임 내 지점의 세트들 간의 거리 변화를 결정하는 것을 포함할 수 있지만, 이에만 제한하는 것은 아니다. 예시의 실시예에서, 두 지점 간의 각각의 거리 변화는 제1 프레임에서 보여지는 지점들 간의 3D 거리와 제2 프레임에서 보여지는 지점들 간의 3D 거리 간의 차이와 동일할 수 있다. 이동한 것으로 판단되는 대상체는 비정지 상태인 대상체와 연관될 수 있다. 일 실시예에서, 예를 들어, 대상체와 관련된 모든 거리 변화의 합이 사전 정의된 임계값 이상인 경우, 대상체는 이동한 것으로 결정될 수 있다. 다른 실시예에서, 지점과 관련된 거리 변경의 합이 미리 정의된 임계치를 초과하는 다른 대상체 각각에 관련된 거리 변경의 합보다 큰 경우, 대상체는 이동한 것으로 결정될 수 있다. 또 다른 실시예에서, 후속 프레임의 대상체와 관련된 거리 변화가 사전 정의된 임계치를 초과하는 이전 프레임의 대상체와 관련된 거리 변경보다 큰 경우, 대상체는 이동한 것으로 결정될 수 있다.In another embodiment, determining whether an object is stationary may be based on a comparison of frames (e.g., images) captured by passive sensor 230. Comparison may include, but is not limited to, determining distance changes between sets of points within a frame. In an example embodiment, each change in distance between two points may be equal to the difference between the 3D distance between the points shown in the first frame and the 3D distance between the points shown in the second frame. An object determined to have moved may be associated with an object that is non-stationary. In one embodiment, for example, if the sum of all distance changes associated with the object is greater than or equal to a predefined threshold, the object may be determined to have moved. In another embodiment, an object may be determined to have moved if the sum of distance changes associated with a point is greater than the sum of distance changes associated with each of the other objects that exceeds a predefined threshold. In another embodiment, the object may be determined to have moved if the distance change associated with the object in the subsequent frame is greater than the distance change associated with the object in the previous frame that exceeds a predefined threshold.

도 8은 대상체가 정지 상태인지의 여부를 결정하기 위해 프레임들 간의 거리 변화를 사용하여 기술하기 위해 사용된 예시적인 다이어그램(800)이다. 예시적인 스크린 샷(800)에서, 각각의 프레임(810 내지 830)은 (대상체를 나타낼 수 있는) 이미지 내의 지점들(1, 2, 3 및 4)의 위치 및 각 쌍의 지점들(1, 2, 3 및 4) 간의 거리를 나타낸다. 중첩된 프레임(830)은 프레임(810)의 상부에 프레임(820)이 중첩된 것을 나타낸다. 프레임(830)에서 나타낸 바와 같이, 지점(1, 2, 및 4)은 프레임(810 및 820) 각각에서와 대략 동일한 위치에 있다. 그러나 지점(3)은 프레임(810)에서는 프레임(820)에서와 다른 위치에 있다. 지점(3)에 관련된 거리 변화의 합은 지점의 쌍들(1 및 3), (2 및 3) 및 (4 및 3)에 대해 프레임(810 및 820) 간의 거리 변경의 합일 수 있다. 결과적으로, 지점(3)과 관련된 거리 변화의 합은 프레임들(810 및 820) 사이에서 0보다 커질 것이며, 미리 정의된 임계값 이상일 수 있다. 또한, 지점(3)에 관련된 거리 변화의 합은 지점(1, 2, 및 4) 각각에 관련된 거리 변화의 합보다 더 크게 된다. 따라서 지점(3)과 연관된 대상체가 프레임들(810 및 820) 사이에서 이동했다고 결정될 수 있다.8 is an example diagram 800 used to describe using distance changes between frames to determine whether an object is stationary. In the example screen shot 800, each frame 810-830 represents the positions of points 1, 2, 3, and 4 in the image (which may represent an object) and each pair of points 1, 2. , 3 and 4). The overlapped frame 830 indicates that the frame 820 is overlapped on top of the frame 810. As shown in frame 830, points 1, 2, and 4 are at approximately the same locations as in frames 810 and 820, respectively. However, point 3 is in a different position in frame 810 than in frame 820. The sum of the distance changes associated with point 3 may be the sum of the distance changes between frames 810 and 820 for pairs of points (1 and 3), (2 and 3), and (4 and 3). As a result, the sum of the distance changes associated with point 3 will be greater than zero between frames 810 and 820, and may be greater than a predefined threshold. Additionally, the sum of the distance changes associated with point 3 becomes greater than the sum of the distance changes associated with each of points 1, 2, and 4. Accordingly, it may be determined that the object associated with point 3 has moved between frames 810 and 820.

다른 실시예에서, 이미지 내의 대상체가 정지 상태인지 여부를 결정하는 것은 이미지 내 대상체의 예측된 위치에 기초할 수 있다. 예측 이미지는 현재 획득된 이미지의 프레임 또는 생성된 3D 지도에 기초하여 생성될 수 있다. 예측 이미지는 현재 이미지를 획득하거나 현재 3D 지도를 생성하는데 사용되는 정보를 제공하는 센서의 움직임에 더욱 기초할 수 있다. 현재 프레임 및/또는 센서의 임의의 새로운 위치 또는 방위에 기초하여, 후속 시간(대상체가 이동하지 않는다고 가정)에서 대상체의 예측된 위치를 나타내는 예측 프레임이 생성된다. 예측 프레임은 후속 시간에 센서 판독 값에 기초한 후속 프레임과 비교되어 대상체의 위치들 간에 임의의 차이가 있는지를 결정할 수 있다. 일 실시예에서, 예측 프레임과 대응하는 후속 프레임 사이의 대상체의 위치의 차이가 소정의 임계치를 초과하는 경우, 대상체가 이동했다고 결정될 수 있다.In another embodiment, determining whether an object in an image is stationary may be based on a predicted location of the object in the image. The predicted image may be generated based on a frame of the currently acquired image or a generated 3D map. The predicted image may be further based on the movement of the sensor, which provides information used to acquire the current image or generate the current 3D map. Based on the current frame and/or any new position or orientation of the sensor, a prediction frame is generated that represents the predicted position of the object at a subsequent time (assuming the object does not move). The predicted frame may be compared to subsequent frames based on sensor readings at subsequent times to determine if there are any differences between the positions of the object. In one embodiment, if the difference in the position of the object between the prediction frame and the corresponding subsequent frame exceeds a predetermined threshold, it may be determined that the object has moved.

일 실시예에서, 수동 센서(230)가 움직일 때, 정지된 대상체들로부터의 거리는 GPS 및 자동차의 속도를 사용하여 측정될 수 있다. 다른 실시예에서, 정지된 대상체들로부터의 거리는 수동 센서 정보 및/또는 3D 맵핑 정보의 프레임들(예를 들어, 획득된 이미지들)을 비교함으로써 GPS를 사용하지 않고 측정될 수 있다. 추가 실시예에서, 임의의 2개의 프레임들 간의 거리 및/또는 각도 변화를 발견하는 것은 가중된 스코어에 기초하여 프레임들 내의 대응하는 지점들의 각 쌍에 대해 결정될 수 있다. 이를 위해, 일 실시예에서, 두 프레임들 간의 거리 또는 각도 변화를 발견하는 단계는 프레임들 내의 일치하거나 아니면 대응하는 지점들을 결정하는 단계를 더 포함할 수 있다. 또 다른 실시예에서, 가중된 스코어는, 예를 들어 노이즈에 기초한 에러와 같이, 각 프레임 내의 지점의 거리와 관련된 에러의 정도에 기초하지만, 이에 한정되는 것은 아니다.In one embodiment, when the passive sensor 230 moves, the distance from stationary objects may be measured using GPS and the speed of the car. In other embodiments, distances from stationary objects may be measured without using GPS by comparing frames (e.g., acquired images) of passive sensor information and/or 3D mapping information. In a further embodiment, finding the distance and/or angle change between any two frames may be determined for each pair of corresponding points within the frames based on a weighted score. To this end, in one embodiment, discovering a distance or angle change between two frames may further include determining coincident or otherwise corresponding points within the frames. In another embodiment, the weighted score is based on the degree of error associated with the distance of points within each frame, such as, but not limited to, error based on noise.

또 다른 실시예에서, 예측 프레임은 3D 또는 2D 맵핑 정보뿐만 아니라 센서의 위치 및 방위에 기초하여 생성될 수 있다. 예측 프레임은 3D 맵핑 정보에 포함된 정지된(즉, 움직이지 않는) 대상체들의 예상 위치를 나타내는 3D 이미지일 수 있다. 그러한 정지 대상체는 나무, 간판, 표지판, 건물 및 기타 영구적 또는 반영구적 아이템이나 고정물을 포함할 수 있지만, 이에 국한되는 것은 아니다. 예측 프레임은 예를 들어, 이전 프레임의 노출된 갭을 채우기 위해 이용될 수 있다(예를 들어, 대상체가 움직일 때, 예측 프레임은 움직인 대상체의 이전 위치 뒤에 있는 아이템에 대한 예측을 설명하기 위해 이용될 수 있다).In another embodiment, the prediction frame may be generated based on the location and orientation of the sensor as well as 3D or 2D mapping information. A prediction frame may be a 3D image representing the predicted positions of stationary (i.e., non-moving) objects included in 3D mapping information. Such stationary objects may include, but are not limited to, trees, signs, signs, buildings, and other permanent or semi-permanent items or fixtures. Prediction frames can be used, for example, to fill exposed gaps in previous frames (e.g., when an object moves, prediction frames can be used to account for predictions about items behind the previous position of the moved object). can be).

다른 실시예에서, 수동 측정은 비정지 및 비의심 상태 분류된 대상체의 움직임에 기초하여 수행될 수 있다. 이를 위해, 거리를 수동적으로 측정하는 것은 대상체의 경계 속도 및 대상체의 이동 방향을 결정하는 것을 포함할 수 있지만, 이에 한정되는 것은 아니다. 경계 속도는 대상체의 경계(즉, 외표면)가 이동하는 속도이다. 결정된 경계 속도 및 방향에 기초하여, 대상체까지의 거리가 추정될 수 있다. 일 실시예에서, 추정된 거리는 대상체에 대한 이전에 알려진 거리 및/또는 대상체를 포함하는 이전에 생성된 3D 지도에 더욱 기초할 수 있다.In other embodiments, manual measurements may be performed based on the movement of objects that are classified as non-stationary and non-suspicious. To this end, passively measuring the distance may include, but is not limited to, determining the boundary speed of the object and the direction of movement of the object. Boundary speed is the speed at which the boundary (i.e., external surface) of an object moves. Based on the determined boundary speed and direction, the distance to the object may be estimated. In one embodiment, the estimated distance may be further based on a previously known distance to the object and/or a previously generated 3D map containing the object.

또 다른 실시예에서, 처리 시스템(210)은 그러한 대상체들의 최대 및/또는 최소 가능 속도를 사용하여 비정지 대상체들로부터의 거리를 추정하도록 구성된다. 대상체의 가능한 최대 또는 최소 속도가 경계 속도로 활용될 수 있다. 예를 들어, 보행자로부터의 거리가 먼저 측정되면, 주어진 시간에서 그 보행자의 가능한 거리를 나타내는 거리 범위(예를 들어, 0과 2 미터 사이)가 사람의 소정의 최대 속도에 기초하여 결정될 수 있다.In another embodiment, processing system 210 is configured to estimate distances from non-stationary objects using the maximum and/or minimum possible speeds of such objects. The maximum or minimum possible speed of the object may be utilized as the boundary speed. For example, if the distance from a pedestrian is first measured, a distance range representing the possible distance of that pedestrian at a given time (e.g., between 0 and 2 meters) can be determined based on the person's predetermined maximum speed.

보행자가 임의의 조치를 요구하지 않는 범위(예를 들어, 차량으로부터 길 건너 보도에서의 보행) 내에 위치하는 경우, 처리 시스템(210)은 보행자에 대한 다른 능동 측정을 트리거하지 않는다. 일 조치는 예를 들어, 차량을 조정하는 것을 포함할 수 있다. 조치가 필요한지는 미리 정의된 안전 거리 임계치를 기반으로 할 수 있다. 안전 거리 임계치는 차량 및/또는 대상체의 속도, 대상체의 장치(200)로부터의 거리, 대상체의 유형, 이들의 조합 등을 포함할 수 있지만, 이에 한정되는 것은 아니다. 또 다른 실시예에서, (예를 들어, 경계 속도 및 대상체의 방향에 기초하는) 움직이는 대상체에 대한 추정된 거리가 안전 거리 임계치를 만족하지 않을 때, 능동 측정이 수행될 수 있다. 일 조치는 예를 들어, 핸즈프리 또는 자율 차량을 제어하는 것을 포함될 수 있다.If the pedestrian is located within a range that does not require any action (e.g., walking on the sidewalk across the street from a vehicle), the processing system 210 does not trigger any other active measurements for the pedestrian. One action may include, for example, adjusting the vehicle. Whether action is needed can be based on predefined safe distance thresholds. The safe distance threshold may include, but is not limited to, the speed of the vehicle and/or object, the distance of the object from the device 200, the type of object, a combination thereof, etc. In another embodiment, active measurements may be performed when the estimated distance to a moving object (e.g., based on boundary speed and direction of the object) does not meet a safe distance threshold. One action may include, for example, controlling a hands-free or autonomous vehicle.

일 실시예에서, 처리 시스템(210)은 수동 측정을 사용하여 비정지 및 정지 상태의 대상체로부터 처리 시스템(210)의 거리를 추정하도록 구성된다. 특히, 거리는 대상체의 대략적인 크기 및 수동 센서(230)에 의해 획득된 이미지에서 피사체가 차지하는 픽셀의 양에 기초하여 추정될 수 있다. 이러한 추정은 피사체가 차량에 근접하는지의 여부를 결정하는 것을 더 포함할 수 있다. 근거리에 있지 않은 일부 대상체의 경우, 능동 센서(220)에 의한 능동 측정이 요구되지 않는다. 근거리 근접은 미리 정의된 임계치에 기초하여 설정될 수 있다(예를 들어, 100 미터 미만의 거리가 근접으로 결정될 수 있음).In one embodiment, processing system 210 is configured to estimate the distance of processing system 210 from non-stationary and stationary objects using manual measurements. In particular, the distance may be estimated based on the approximate size of the object and the amount of pixels occupied by the object in the image acquired by the passive sensor 230. This estimation may further include determining whether the subject is close to the vehicle. For some objects that are not close, active measurement by the active sensor 220 is not required. Close proximity may be established based on a predefined threshold (e.g., a distance of less than 100 meters may be determined as proximity).

특정(예를 들어, 의심 상태) 대상체를 고려하는 것으로 능동 센서(220)에 의한 능동 측정의 수를 감소시킬 수 있다. 도 3a 및 도 3b는 본 발명의 일 실시예에 따라 3D 지도가 생성된 장면의 예시 영상을 도시한 도면이다. 먼저, 주변 환경의 이미지(300)가 수동 센서(230)에 의해 획득된다. 이미지(300)는 대상체(310)를 식별하도록 세분화된다. 대상체의 세분화 및 식별은 종래의 이미지 처리 기술을 사용하여 수행될 수 있다. 예를 들어, 도로, 보행자, 자동차, 밴, 트럭, 충돌 장벽 및 노이즈 장벽이 대상체(310)로 식별된다. 그런 다음, 대상체 분류 및 수동 측정이 수행된다. 대상체 분류에 기초하여, 어떤 능동 측정이 이루어져야 하는지, 즉 능동 센서(220)에 의해 방출된 레이저 광선을 어디로 향하게 할지가 결정된다. 대상체의 분류는 어떤 대상체가 정지 상태이고, 비정지 상태이고, 의심 상태인지를 결정할 수 있다. 예를 들어, 보행자, 자동차, 밴 및 트럭은 비정지 및 의심 상태 대상체로 분류되고, 이와 같이 많은 여러 방향에서의 능동 측정은 부분적으로 대상체 분류에 기초하는 위치(320)에서 트리거된다. 도로, 충돌 장벽, 하늘, 도로 및 음향 장벽은 정지 및 비의심 상태의 대상체로 분류되므로 더 적은 수의 능동 측정이 수행된다.By considering specific (e.g., suspect) objects, the number of active measurements by the active sensor 220 can be reduced. FIGS. 3A and 3B are diagrams showing example images of a scene in which a 3D map was created according to an embodiment of the present invention. First, an image 300 of the surrounding environment is acquired by a passive sensor 230. Image 300 is segmented to identify object 310. Segmentation and identification of objects can be performed using conventional image processing techniques. For example, roads, pedestrians, cars, vans, trucks, crash barriers, and noise barriers are identified as objects 310. Then, object classification and manual measurements are performed. Based on the object classification, it is determined which active measurements should be made, i.e. where to direct the laser beam emitted by the active sensor 220. Classification of an object can determine which object is in a stationary state, a non-stationary state, or a suspect state. For example, pedestrians, cars, vans, and trucks are classified as non-stationary and suspicious objects, and as such, active measurements in many different directions are triggered at locations 320 based in part on the object classification. Roads, crash barriers, sky, roads and acoustic barriers are classified as stationary and non-suspicious objects, so fewer active measurements are performed.

도 3b에 의해 입증된 바와 같이, 이미지(300)에서 획득된 장면의 일부만이 능동 센서(220)로 스캐닝된다. 위치 능동 측정은 320으로 라벨링된다. 제한된 수의 대상체에 대해 더 많은 수의 능동 측정을 실행하게 되면 이들 대상체와 관련하여 더 높은 해상도를 제공한다. 이로써 세부 인식이 필요한 특정 영역에서 더 높은 해상도를 제공할 수 있다.As evidenced by FIG. 3B, only a portion of the scene acquired in image 300 is scanned with active sensor 220. Position active measurements are labeled 320. Performing a larger number of active measurements on a limited number of objects provides higher resolution with respect to these objects. This can provide higher resolution in specific areas where detailed recognition is required.

또한, 도 3a 및 도 3b는 단지 예시적인 것으로 다양한 개시된 실시예를 제한하는 것은 아니다. 특히, 본 발명의 범위를 벗어나지 않으면서 보다 많거나, 보다 적은 또는 상이한 대상체(310 및/또는 320)가 이미지로 식별될 수 있다.Additionally, FIGS. 3A and 3B are illustrative only and do not limit the various disclosed embodiments. In particular, more, fewer or different objects 310 and/or 320 may be identified in the image without departing from the scope of the present invention.

일단 모든 측정이 완료되면, 장면의 3D 지도가 생성될 수 있다. 구체적으로, 3D 지도는 획득된 이미지 내의 임의의 픽셀로부터의 장치의 거리를 계산함으로써 생성된다. 즉, 각 픽셀은 3D 지도를 생성하기 위해 거리 값과 연관되어야 한다. 거리 값은 수동 측정 및 능동 측정에서 파생될 수 있다. 일 실시예에서, 일련의 거리 측정만 수행된다(예를 들어, 픽셀 수보다 적은 측정). 거리 값은 평면 방정식 또는 기타 등가의 기법을 사용하여 계산하거나 외삽할 수 있다.Once all measurements are complete, a 3D map of the scene can be created. Specifically, the 3D map is created by calculating the device's distance from any pixel in the acquired image. That is, each pixel must be associated with a distance value to create a 3D map. Distance values can be derived from passive and active measurements. In one embodiment, only a series of distance measurements are performed (eg, measurements less than the number of pixels). Distance values can be calculated or extrapolated using plane equations or other equivalent techniques.

도 2로 돌아가서, 처리 시스템(210)은 메모리(215)에 결합된 프로세서(미도시) 또는 프로세서의 어레이를 포함할 수 있거나 그 구성 부품일 수 있다. 메모리(215)는 처리 시스템(210)에 의해 실행될 수 있는 명령을 포함한다. 이 명령은 처리 시스템(210)에 의해 실행될 때, 처리 시스템(215)이 본 명세서에서 설명된 다양한 기능을 수행하게 한다. 하나 이상의 프로세서는 범용 마이크로 프로세서, 멀티 코어 프로세서, 마이크로 컨트롤러, 디지털 신호 프로세서(DSP), 필드 프로그래머블 게이트 어레이(FPGA), 프로그래머블 로직 디바이스(PLD), 컨트롤러, 상태 머신, 게이트 로직(gated logic), 이산 하드웨어 콤포턴트, 전용 하드웨어 유한 상태 머신, 또는 정보의 계산이나 그 외 조작을 수행할 수 있는 임의의 다른 적절한 엔티티의 임의의 조합으로 구현될 수 있다.Returning to FIG. 2 , processing system 210 may include or be a component of a processor (not shown) or an array of processors coupled to memory 215 . Memory 215 contains instructions that can be executed by processing system 210. When executed by processing system 210, these instructions cause processing system 215 to perform various functions described herein. One or more processors may include general-purpose microprocessors, multi-core processors, microcontrollers, digital signal processors (DSPs), field programmable gate arrays (FPGAs), programmable logic devices (PLDs), controllers, state machines, gated logic, and discrete. It may be implemented as any combination of hardware components, a dedicated hardware finite state machine, or any other suitable entity capable of performing computations or other manipulations of information.

또한, 처리 시스템(210)은 소프트웨어를 저장하기 위한 기계 판독 가능 매체를 포함할 수 있다. 소프트웨어는 소프트웨어, 펌웨어, 미들웨어, 마이크로코드, 하드웨어 디스크립션 언어 등으로 언급되는 것에 관계없이 모든 종류의 명령어를 의미하는 것으로 광범위하게 해석된다. 명령어들은 코드(예를 들어, 소스 코드 포맷, 이진 코드 포맷, 실행 가능한 코드 포맷, 또는 임의의 다른 적절한 포맷의 코드)를 포함할 수 있다. 상기 명령들은 하나 이상의 프로세서에 의해 실행될 때, 처리 시스템으로 하여금 여기에 설명된 다양한 기능을 수행할 수 있게 한다.Additionally, processing system 210 may include a machine-readable medium for storing software. Software is broadly interpreted to mean any type of instruction, whether referred to as software, firmware, middleware, microcode, hardware description language, etc. Instructions may include code (e.g., code in source code format, binary code format, executable code format, or any other suitable format). When executed by one or more processors, the instructions enable the processing system to perform various functions described herein.

저장 장치(240)는 자기 저장 장치, 광학 저장 장치 등일 수 있으며, 예를 들어, 원하는 정보를 저장하는데 사용될 수 있는 플래시 메모리 또는 다른 메모리 기술, CD-ROM, DVD(Digital Versatile Disks) 또는 다른 광학 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 임의의 다른 매체로 실현될 수 있다.Storage device 240 may be a magnetic storage device, optical storage device, etc., such as flash memory or other memory technology, CD-ROM, Digital Versatile Disks (DVDs), or other optical storage that may be used to store the desired information. It may be realized as a device, a magnetic cassette, a magnetic tape, a magnetic disk storage device or other magnetic storage device, or any other medium.

일 구성에서, 본 명세서에서 개시된 임의의 실시예를 구현하기 위한 컴퓨터 판독 가능 명령이 저장 장치(240)에 저장될 수 있다. 저장 장치(240)는 또한 운영 시스템, 응용 프로그램 등을 구현하기 위해 다른 컴퓨터 판독 가능 명령을 저장할 수 있다. 컴퓨터 판독 가능 명령들은 처리 시스템(210)에 의해 실행하기 위해 메모리(215)에 저장될 수 있다. 저장 장치(240)는 또한 예를 들어, 이미지, 생성된 3D 지도, 맵핑 서비스(예를 들어, 거리 레벨의 지도)에 의해 제공된 3D 또는 2D 지도를 저장하도록 구성될 수 있다.In one configuration, computer readable instructions for implementing any of the embodiments disclosed herein may be stored in storage device 240. Storage device 240 may also store other computer-readable instructions for implementing operating systems, application programs, etc. Computer-readable instructions may be stored in memory 215 for execution by processing system 210. Storage device 240 may also be configured to store, for example, images, generated 3D maps, 3D or 2D maps provided by a mapping service (e.g., street level maps).

상기 네트워크 인터페이스(260)는 상기 장치(200)가 이에만 제한하는 것은 아니지만, 차량의 제어기(미도시), 중앙 제어기(미도시), 및 클라우드 저장 장치 표시(미도시)와 같은 다른 장치와 통신할 수 있게 한다. 예를 들어, 네트워크 인터페이스(260)는 장치(200)가 차량의 제어기와 통신하여 네트워크(도시되지 않음)를 통해 작동 명령(예를 들어, 정지, 우회전 등)을 제공하도록 구성될 수 있다. 일 실시예에서, 네트워크 인터페이스(340)는 예컨대 구성, 새로운 지도의 로딩 등의 목적으로 장치(200)에 대한 원격 액세스를 허용한다. 네트워크 인터페이스(260)는 유선 접속 또는 무선 접속을 포함할 수 있다. 네트워크 인터페이스(260)는 통신 매체를 송신 및/또는 수신할 수 있다. 예를 들어, 네트워크 인터페이스(260)는 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송수신기, 적외선 포트, USB 연결 등을 포함할 수 있다.The network interface 260 allows the device 200 to communicate with other devices, such as, but not limited to, a vehicle controller (not shown), a central controller (not shown), and a cloud storage device (not shown). make it possible For example, network interface 260 may be configured to allow device 200 to communicate with a vehicle's controller to provide operating commands (e.g., stop, turn right, etc.) over a network (not shown). In one embodiment, network interface 340 allows remote access to device 200 for purposes such as configuration, loading new maps, etc. Network interface 260 may include a wired connection or a wireless connection. Network interface 260 may transmit and/or receive communication media. For example, network interface 260 may include a modem, a network interface card (NIC), an integrated network interface, a radio frequency transceiver, an infrared port, a USB connection, etc.

도 4는 일 실시예에 따른 장면의 3D 지도를 생성하는 방법을 나타내는 예시의 흐름도(400)이다. 일 실시 예에서, 이 방법은 차량에서 작동 가능한 장치(예를 들어, 장치(200))에 의해 수행될 수 있고, 생성된 3D 지도는 차량의 조작자가 보게 되는 장면으로 되어 있다. 3D 지도는 수동 및 능동 측정의 융합을 기반으로 생성될 수 있다.4 is an example flow diagram 400 illustrating a method for generating a 3D map of a scene according to one embodiment. In one embodiment, this method may be performed by a device operable in a vehicle (e.g., device 200), with the generated 3D map of the scene being viewed by an operator of the vehicle. 3D maps can be created based on the fusion of passive and active measurements.

단계 S410에서, 수동 센서에 의해 하나 이상의 이미지가 획득된다. 일 실시예에서, 획득된 이미지는 획득 순서에 따라 메모리에 저장된다. 다른 실시예에서, 획득된 이미지는 연속적으로 기록되는 비디오의 프레임을 포함할 수 있다.In step S410, one or more images are acquired by a passive sensor. In one embodiment, acquired images are stored in memory according to acquisition order. In other embodiments, the acquired images may include frames of video that are recorded continuously.

선택적인 단계 S420에서, 이미지는 세분화 지도를 생성하도록 세분화될 수 있다. 세분화 지도는 복수의 세그먼트를 포함하며, 각각의 세그먼트는 동일한 컬러 또는 실질적으로 유사한 컬러를 갖는 균질한 픽셀을 특징으로 한다.In optional step S420, the image may be segmented to generate a segmentation map. A segmentation map includes a plurality of segments, each segment characterized by homogeneous pixels having the same color or a substantially similar color.

단계 S430에서, 이미지 또는 세분화 지도 내의 대상체들이 식별된다. 일 실시예에서, 대상체는 예를 들어 이미지 인식에 기초하여 식별될 수 있다. 대상체는 여러 세그먼트를 포함할 수 있다. 예를 들어, 두 가지 다른 색상으로 채색된 트럭은 두 개의 세그먼트로 세분화될 수 있지만 하나의 대상체로 식별할 수 있다.In step S430, objects in the image or segmentation map are identified. In one embodiment, the object may be identified based on image recognition, for example. An object may include multiple segments. For example, a truck painted in two different colors can be segmented into two segments but identified as one object.

단계 S440에서, 식별된 대상체가 분류된다. 일 실시예에서, 대상체는 다음 카테고리 중 하나 이상으로 분류될 수 있다: 비정지 상태(즉, 이동중이거나 이동할 가능성 있음), 정지 상태(즉, 움직이지 않음), 의심 상태 또는 비의심 상태. 일 실시예에서, 대상체가 비정지 상태인지 또는 정지 상태인지 여부는 (예를 들어, 이미지 인식을 사용하여) 대상체를 식별하는 것으로 결정될 수 있으며 그 유형에 기초할 수 있다. 예를 들어, 건물을 나타내는 대상체는 비정지 상태로 분류될 수 있다. 다른 실시예에서, 대상체의 비정지 또는 정지 상태 카테고리는 미리 정의된 시간 간격 동안 촬영된 두 개의 연속적인 이미지를 비교하여 결정됨으로써 대상체의 위치가 변경되었는지를 결정한다. 대상체의 위치가 동일하게 유지되면 대상체는 정지된 것으로 분류된다; 그렇지 않으면 대상체가 비정지 상태로 분류될 수 있다. 다른 실시예에서, 식별된 대상체들의 일부에 대한 대상체 분류는 식별된 대상체의 크기에 기초할 수 있다. 비한정적인 예로서, 소정의 임계치 이상의 크기를 갖는 대상체 (예를 들어, 차량이 대상체 주위를 탐색할 필요가 있을 만큼 큰 대상체)가 의심 상태로 분류될 수 있지만, 미리 정의된 임계치 이하의 크기를 갖는 대상체 (예를 들어, 차량이 안전하게 대상체 위를 달릴 만큼 작은 대상체)는 비의심 상태로 분류될 수 있다.In step S440, the identified objects are classified. In one embodiment, a subject may be classified into one or more of the following categories: non-stationary (i.e., moving or possibly moving), stationary (i.e., not moving), suspicious, or non-suspicious. In one embodiment, whether an object is non-stationary or stationary may be determined by identifying the object (eg, using image recognition) and based on its type. For example, an object representing a building may be classified as non-stationary. In another embodiment, the non-stationary or stationary state category of an object is determined by comparing two consecutive images taken during a predefined time interval to determine whether the object's position has changed. An object is classified as stationary if its position remains the same; Otherwise, the object may be classified as non-stationary. In another embodiment, object classification for some of the identified objects may be based on the size of the identified objects. As a non-limiting example, objects with a size above a predefined threshold (e.g., large enough for a vehicle to need to navigate around the object) may be classified as suspect, while objects with a size below a predefined threshold may be classified as suspect. Objects that have (e.g., small enough for a vehicle to safely drive over them) can be classified as non-suspicious.

일 실시예에서, 이미지 비교에 기초한 분류는 수동 센서의 움직임 (또는 움직임 없음) 및/또는 위치 결정에 더 기초할 수 있다. 구체적으로, 수동 센서가 움직이지 않고 (예를 들어, 차량이 교통 신호로 정지함), 두 개의 연속적인 이미지가 동일한 각도로부터 취해질 때, 비교는 다른 대상체를 기준으로 움직이는 대상체의 위치의 변화를 나타낼 수 있다. 수동 센서 자체가 움직일 때 두 개의 연속 이미지가 다른 각도에서 촬영된다. 정확한 비교를 가능하게 하기 위해, 일 실시예에서, 제2 이미지 (예를 들어, 이후에 촬영된 이미지)는 제1 이미지 (예를 들어, 이전에 촬영된 이미지)의 각도와 일치하도록 변형될 수 있어, 두 이미지를 동일한 각도로 배치할 수 있다. 이미지 변환은 가상 카메라 기술을 사용하여 수행할 수 있다. 하나의 장면에서, 대상체는 정지 상태로 분류될 수 있는 반면, 다음 장면에서는 대상체가 비정지 상태 (예를 들어, 주차된 자동차)로 분류될 수 있다는 점에 유의해야 한다. 일 실시예에서, 정지된 대상체의 분류는 맵핑 서비스가 제공된다면 3D, 2D, 스트리트 뷰 및/또는 위성 지도와 같은 지리적 지도에 부분적으로 기초하여 수행될 수 있다. 이것은 알려진 위치에 기초하여 건물 등을 식별할 수 있게 한다.In one embodiment, classification based on image comparison may be further based on movement (or lack of movement) and/or positioning of passive sensors. Specifically, when the passive sensor is stationary (for example, a vehicle is stopped at a traffic signal) and two consecutive images are taken from the same angle, the comparison indicates changes in the position of the moving object relative to the other object. You can. When the passive sensor itself moves, two consecutive images are taken from different angles. To enable accurate comparison, in one embodiment, the second image (e.g., a later captured image) may be transformed to match the angle of the first image (e.g., a previously captured image). So, the two images can be placed at the same angle. Image transformation can be performed using virtual camera technology. It should be noted that in one scene, an object may be classified as stationary, whereas in the next scene, an object may be classified as non-stationary (e.g., a parked car). In one embodiment, classification of stationary objects may be performed based in part on geographic maps, such as 3D, 2D, street view, and/or satellite maps, if a mapping service is provided. This allows buildings, etc. to be identified based on their known location.

일 실시예에서, 의심 상태 대상체들의 분류는 미리 결정된 의심 상태 대상체의 리스트에 기초한다. 예를 들어, 의심 상태로 미리 결정된 대상체는 도로상의 다른 차량, 보행자, 동물, 도로의 파편 등일 수 있지만, 이에 한정되는 것은 아니다. 리스트를 동적으로 업데이트할 수 있다. 일반적으로 차량에 근접하여 위험하거나 위험할 수 있는 대상체는 의심 상태로 분류된다. 대상체는 "의심 및 정지 상태" 또는 "의심 및 비정지 상태"로 분류될 수 있음에 유의해야 한다. 대상체 분류에 대한 다양한 실시예가 상술되어 있다.In one embodiment, the classification of suspect status subjects is based on a predetermined list of suspect status subjects. For example, an object predetermined to be in a suspicious state may be, but is not limited to, another vehicle on the road, a pedestrian, an animal, or debris on the road. The list can be updated dynamically. In general, objects that are or may be dangerous in close proximity to a vehicle are classified as suspect. It should be noted that subjects may be classified as “suspicious and quiescent” or “suspicious and non-quiescent.” Various embodiments of object classification have been described above.

단계 S445에서, 정지 상태로 분류된 각 대상체에 대해, 정지 상태로 분류된 대상체까지의 거리가 알려져 있는지 확인된다. 그렇다면, 실행은 S447로 계속된다; 그렇지 않으면, 실행은 S450으로 계속된다. S447에서, 정지된 대상체까지의 거리가 이전의 계산들로부터 검색된다. 이 거리 정보는 이전에 생성된 3D 지도에서 파생될 수 있다. 정지된 대상체는 이전에 생성된 3D 지도를 기준으로 정지된 것으로 결정될 수 있다. 일 예로서, 수동 센서가 이동하지 않고, 대상체가 정지되어 있고, 이전에 결정된 수동 측정 및/또는 능동 측정 거리가 그 수동 센서로부터 대상체에 대해 이용 가능한 경우, 대상체에 대한 현재 수동 측정은 이전에 결정된 거리가 되도록 결정될 수 있다.In step S445, for each object classified as stationary, it is checked whether the distance to the object classified as stationary is known. If so, execution continues with S447; Otherwise, execution continues with S450. At S447, the distance to the stationary object is retrieved from previous calculations. This distance information can be derived from a previously created 3D map. A stationary object may be determined to be stationary based on a previously generated 3D map. As an example, if the passive sensor is not moving, the object is stationary, and a previously determined passive measurement and/or active measurement distance is available for the object from the passive sensor, then the current passive measurement for the object is the previously determined The distance can be determined to be

단계 S450에서, 획득된 이미지에 기초하여 수동 측정이 수행된다. 수동 측정은 분류된 대상체들 중 적어도 하나, 일부 또는 모두로부터 적어도 거리를 측정하는 것을 포함한다. 전술한 바와 같이, 이런 측정은 정보가 이전에 생성된 3D 지도로부터 도출될 수 없는 경우 수행된다. 일 실시예에서, "정지 상태" 또는 "비의심 및 비정지 상태"로 분류된 각각의 대상체로부터의 거리는 수동 측정을 통해 결정된다. 전술한 바와 같이, 정지된 대상체의 거리가 이용 가능하지 않을 때, 정지된 대상체에 대해 거리가 수동적으로 측정된다. 일 실시예에서, 수동 측정은 대상체의 알려진 크기(예를 들어, 픽셀의 수), 유효 참조 지점, 소실점 및 소실 선으로부터의 거리, 장치나 차량의 이동 등을 이용하여 획득된 이미지 내 대상체까지의 거리를 결정하는 단계를 포함할 수 있다. 수동 측정을 수행하기 위한 다양한 실시예가 도 5 및 도 6을 참조하여 아래에서 보다 상세히 설명된다. 거리 측정은 메모리(예를 들어, 메모리(215))에 저장될 수 있다. 거리 측정은 대상체를 구성하는 모든 픽셀 또는 임의의 픽셀에 대한 것일 수 있음을 알아야 한다.In step S450, manual measurements are performed based on the acquired images. Manual measurement involves measuring at least a distance from at least one, some or all of the classified objects. As mentioned above, these measurements are performed when information cannot be derived from previously created 3D maps. In one embodiment, the distance from each object classified as “stationary” or “non-suspicious and non-stationary” is determined through manual measurements. As described above, when the distance to a stationary object is not available, the distance is manually measured for the stationary object. In one embodiment, manual measurements may be made using the known size of the object (e.g., number of pixels), effective reference points, distance from the vanishing point and vanishing line, movement of the device or vehicle, etc. to the object in the acquired image. It may include the step of determining the distance. Various embodiments for performing manual measurements are described in more detail below with reference to FIGS. 5 and 6. Distance measurements may be stored in memory (e.g., memory 215). It should be noted that the distance measurement may be for all or any pixels that make up the object.

다른 실시예에서, 수동 측정은 비정지 및 비의심 상태 분류된 대상체의 이동에 기초하여 수행될 수 있다. 이를 위해, 거리를 수동적으로 측정하는 것은 대상체의 경계 속도 및 대상체의 이동 방향을 결정하는 것을 포함할 수 있지만, 이에 한정되는 것은 아니다. 경계 속도는 대상체의 경계(즉, 외부 표면)가 이동하고 있을 때의 속도이다. 결정된 경계 속도 및 방향에 기초하여, 대상체까지의 거리가 추정될 수 있다. 일 실시예에서, 추정된 거리는 대상체에 대한 이전에 알려진 거리 및/또는 대상체를 포함하는 이전에 생성된 3D 지도에 더욱 기초할 수 있다.In other embodiments, manual measurements may be performed based on the movement of objects that are classified as non-stationary and non-suspicious. To this end, passively measuring the distance may include, but is not limited to, determining the boundary speed of the object and the direction of movement of the object. Boundary speed is the speed at which the boundary (i.e., external surface) of an object is moving. Based on the determined boundary speed and direction, the distance to the object may be estimated. In one embodiment, the estimated distance may be further based on a previously known distance to the object and/or a previously generated 3D map containing the object.

단계 S460에서, 능동 측정이 수행된다. 일 실시예에서, 능동 측정은 능동 센서(예를 들어, 능동 센서(220))를 사용하여 수행될 수 있다. 능동 측정을 수행하는 것은 분류된 대상체의 일부 또는 전부로부터의 거리를 측정하는 것을 포함할 수 있다. 일 실시예에서, 거리는 "의심 상태", "비정지 상태" 및/또는 "의심 및 비정지 상태"로 분류된 대상체로부터 능동적으로 측정된다. 다른 실시예에서, 신뢰성 있는 수동 측정이 달성될 수 없을 때, 거리는 능동적으로 측정된다. 신뢰할 수 있는 수동 측정은 획득된 이미지의 하나 이상의 대상체 및/또는 세부 사항이 여러 번 나타나는 경우; 이미지가 명확한 질감이 없는 일반 영역(예를 들어, 벽과 하늘)이 포함하는 경우; 이미지의 세부 사항(자동차 안의 핸들)이 다른 장면에서는 숨겨진 경우; (예를 들어, 수동 센서가 단지 하나의 카메라를 포함할 때) 고유의 각도로부터 하나의 이미지만이 수동 측정을 위해 이용 가능한 경우; 이미지가 하나 이상의 잡음이 많은 영역을 포함하는 경우 실행될 수 없다. 이러한 대상체를 다시 측정함으로써, 정확도가 높아져 허위 경보의 수가 현저히 줄어든다.In step S460, active measurement is performed. In one embodiment, active measurements may be performed using an active sensor (e.g., active sensor 220). Performing active measurements may include measuring distances from some or all of the classified objects. In one embodiment, distances are actively measured from objects classified as “suspicious,” “non-stationary,” and/or “suspicious and non-stationary.” In other embodiments, distances are measured actively when reliable manual measurements cannot be achieved. Reliable manual measurements are performed when one or more objects and/or details appear multiple times in the acquired image; If the image contains plain areas (e.g. walls and sky) without obvious texture; When details in the image (such as the steering wheel inside a car) are hidden from other scenes; When only one image from a unique angle is available for passive measurement (for example, when the passive sensor includes only one camera); It cannot run if the image contains one or more noisy areas. By re-measuring these objects, accuracy increases and the number of false alarms is significantly reduced.

실시예에서, S460은 레이저 다이오드를 사용하여 레이저 빔(또는 광 펄스)을 방사하는 것을 포함한다. 레이저가 목표물에 도달하고 레이저 에너지의 일부는 능동 센서 쪽으로 다시 반사된다. 복귀 신호가 검출되고, 레이저로부터의 광 펄스의 방출과 복귀된 신호의 검출 사이의 경과 시간이 결정된다. 대상체까지의 거리의 거리 측정은 결정된 경과 시간에 기초하여 결정될 수 있다. 거리 측정은 이미지를 구성하는 픽셀의 일부 또는 전부에 대한 것일 수 있음에 유의해야 한다. 일 실시예에서, 다수의 능동 측정이 대상체마다 수행될 수 있으며, 각각의 이러한 측정에서 레이저 펄스는 다른 각도로 지향된다. 측정의 해상도는 각 대상체에 대해 수행된 측정의 수에 기초할 수 있다.In an embodiment, S460 includes using a laser diode to emit a laser beam (or light pulse). The laser reaches the target and some of the laser energy is reflected back towards the active sensor. A return signal is detected, and the elapsed time between emission of the light pulse from the laser and detection of the returned signal is determined. The distance measurement of the distance to the object may be determined based on the determined elapsed time. It should be noted that the distance measurement may be for some or all of the pixels that make up the image. In one embodiment, multiple active measurements may be performed per object, and in each such measurement the laser pulse is directed at a different angle. The resolution of the measurements may be based on the number of measurements performed on each subject.

각각의 방출된 레이저 빔의 타이밍, 방향 및 에너지 레벨은 정확한 거리 측정을 달성하도록 제어될 수 있다. 일 실시예에서, 적어도 레이저 빔의 방향은 이미지가 수동 센서에 의해 획득된 시간과 능동 측정이 트리거될 때의 시간 사이의 시간 및 위치 차이에 기초하여 조정된다. 이것은 그 시간 동안 능동 센서 및/또는 목표 대상체의 움직임을 보상하기 위해 수행된다. 능동 센서를 가리키는 방향은 능동 센서의 현재 위치를 이미지를 획득했을 때의 그 위치를 기준으로 결정함으로써 가속도계 정보를 이용하여 추정될 수 있다.The timing, direction and energy level of each emitted laser beam can be controlled to achieve accurate distance measurements. In one embodiment, at least the direction of the laser beam is adjusted based on time and position differences between the time the image was acquired by the passive sensor and the time when the active measurement is triggered. This is done to compensate for movement of the active sensor and/or target object during that time. The direction pointing the active sensor can be estimated using accelerometer information by determining the current location of the active sensor based on its location when the image was acquired.

단계 S460에서 수행되는 능동 측정은 레이더, 음향, 레이저 삼각 측량 등과 같은 다른 능동 송신 또는 방출에 기초할 수 있지만 이에 국한되지는 않는다는 점에 유의해야 한다. S450과 S460은 병렬로 수행될 수 있음을 주목해야 한다. 예를 들어, 수동 측정은 비정지 상태로 분류된 대상체 및/또는 수동적으로 측정할 수 없는 대상체에 대해 병렬로 수행될 수 있다.It should be noted that the active measurements performed in step S460 may be based on other active transmissions or emissions, such as, but not limited to, radar, acoustics, laser triangulation, etc. It should be noted that S450 and S460 can be performed in parallel. For example, manual measurements may be performed in parallel for objects classified as non-stationary and/or for objects that cannot be measured passively.

특정 실시예에서, 방출된 레이저의 에너지 레벨은 차량 (또는 능동 센서)에 대한 대상체의 근접성에 기초하여 제어된다. 근접은 스캔되고 있는 영역에서의 이전의 능동 및/또는 수동 측정을 사용하여 결정할 수 있다. 에너지 레벨을 제어함으로써, 능동 센서의 에너지 소비는 가능한 한 가장 많은 양의 에너지를 갖는 레이저 빔을 항상 사용하는 것과 비교하여 감소될 수 있다. 또한, 에너지 레벨을 제어하게 되면 근접한 대상체가 상대적으로 낮은 에너지 레벨로 스캐닝될 때 레이저 빔에 의해 사람을 다치게 할 위험을 감소시킬 수 있다.In certain embodiments, the energy level of the emitted laser is controlled based on the object's proximity to the vehicle (or active sensor). Proximity can be determined using previous active and/or passive measurements in the area being scanned. By controlling the energy level, the energy consumption of the active sensor can be reduced compared to always using a laser beam with the highest amount of energy possible. Additionally, controlling the energy level can reduce the risk of injuring people by the laser beam when a nearby object is scanned at a relatively low energy level.

단계 S470에서, 3D 지도는 수동 및 능동 측정에 기초하여 생성된다. 장면의 3D 지도를 생성하려면, 획득된 이미지에서 픽셀의 거리 값을 사용할 수 있어야 한다. 일 실시예에서, 하나 이상의 거리 값이 세분화 지도의 각 세그멘트에 대해 3D 지도에 포함될 수 있다. 각 거리 값은 수동 또는 능동 측정 중 하나일 수 있다. 바람직한 실시예에서, 각 세그먼트의 적어도 3개의 픽셀에 대한 적어도 3개의 거리 값이 3D 지도에 포함되어야 한다.In step S470, a 3D map is generated based on passive and active measurements. To create a 3D map of a scene, the distance values of pixels must be available in the acquired image. In one embodiment, one or more distance values may be included in the 3D map for each segment of the segmentation map. Each distance value can be either a passive or active measurement. In a preferred embodiment, at least three distance values for at least three pixels of each segment should be included in the 3D map.

전술한 바와 같이, 세그먼트는 대상체의 일부일 수도 있거나 전체 대상체일 수 있다. 세그먼트 내의 모든 픽셀의 거리 값은 적어도 3개의 거리 측정에 기초하여 계산되거나 외삽될 수 있다. 이를 위해, 일 실시예에서, 평면 방정식은 각각의 세그먼트에서 적어도 3개의 픽셀에 대해 적어도 3개의 거리 측정치에 기초하여 계산된다. 계산된 평면 방정식은 동일한 세그먼트 및/또는 동일한 표면상의 픽셀들의 모든 거리 값들을 결정하는데 이용될 수 있다. 본 발명의 범위를 벗어나지 않으면 서 세그먼트 내의 모든 픽셀의 거리 값을 계산하는 다른 기하학적 기술이 이용될 수 있다는 것을 알아야 한다. 일부 세그먼트의 경우, 모든 픽셀에 대한 거리 값은 능동 또는 수동 측정을 통해 이용 가능하므로, 이 세그먼트에 대해 평면 방정식을 풀 필요가 없다는 점에 더욱 유의해야 한다.As described above, a segment may be a portion of an object or the entire object. The distance value of every pixel within a segment may be calculated or extrapolated based on at least three distance measurements. To this end, in one embodiment, the plane equation is calculated based on at least three distance measurements for at least three pixels in each segment. The calculated plane equation can be used to determine all distance values of pixels on the same segment and/or on the same surface. It should be noted that other geometric techniques for calculating the distance values of all pixels within a segment may be used without departing from the scope of the present invention. It should be further noted that for some segments, the distance values for every pixel are available through active or passive measurements, so there is no need to solve the plane equations for these segments.

다른 실시예에서는, 모든 픽셀의 거리 값이 평면 방정식에 기초하여 추정될 수 없다면, 보다 능동적인 측정이 트리거될 것이다.In other embodiments, if the distance value of every pixel cannot be estimated based on the plane equation, more active measurements will be triggered.

또 다른 실시예에서, 모든 픽셀의 모든 거리 값이 이전 프레임으로부터 이용 가능한 경우, 제한된 수의 능동 측정치 (예를 들어, 3개의 측정치) 및 거리 값의 나머지가 이전에 수행된 측정으로부터 조정된다.In another embodiment, if all distance values for all pixels are available from the previous frame, then a limited number of active measurements (e.g., three measurements) and the remainder of the distance values are adjusted from previously performed measurements.

각각의 세그먼트의 3D 표면의 렌더링은 식별된 대상체의 3D 표현의 렌더링을 가져 오고, 이로 인해 장면의 3D 지도가 결과된다. 결과의 3D 지도는, 예를 들어 차량의 작동을 제어하는 제어기에 주행 방향을 제공하기 위해 나중에 이용될 수 있다.Rendering of the 3D surface of each segment results in rendering of a 3D representation of the identified object, resulting in a 3D map of the scene. The resulting 3D map can later be used, for example, to provide driving directions to a controller controlling the operation of the vehicle.

도 5는 일 실시예에 따라 획득된 이미지에 기초하여 수동 측정을 수행하기 위한 방법을 설명하는 예시의 흐름도(S450)이다. 일 실시예에서, 상기 방법은 수동 센서(예를 들어, 수동 센서(230))에 의해 수행될 수 있다. S510에서, 현재 획득된 이미지(예를 들어, Imagen+1) 및 이전에 획득된 이미지(예를 들어, Imagen)가 정지 상태로 분류된 대상체의 리스트와 함께 검색된다. S520에서, 현재 및 이전에 획득된 이미지가 비교되어 이미지 내 각 대상체에 대한 차이를 식별한다. 일 실시예에서, S520은 이미지들의 각도가 동일하도록 이미지들 중 하나를 변경하는 단계를 더 포함할 수 있다. 이 변경은 센서의 방위의 위치 변화를 기반으로 수행된다.5 is an example flowchart (S450) illustrating a method for performing manual measurements based on acquired images according to one embodiment. In one embodiment, the method may be performed by a passive sensor (e.g., passive sensor 230). In S510, the currently acquired image (eg, Image n+1 ) and the previously acquired image (eg, Image n ) are searched along with a list of objects classified as stationary. At S520, the current and previously acquired images are compared to identify differences for each object in the image. In one embodiment, S520 may further include changing one of the images so that the angles of the images are the same. This change is performed based on a change in the position of the sensor's orientation.

S530에서, 각각의 이미지들에 나타나게 되는 대상체들 사이에 임의의 변화가 있는지가 검사되고, 만약 그렇다면, 실행은 S540으로 계속된다; 그렇지 않으면, 실행이 종료된다. 변화는 예를 들어, 현재 이미지에서 식별된 새로운 정지된 대상체 (즉, 이전에 식별된 이미지에 나타나지 않는 대상체) 또는 이전에 식별된 대상체 (즉, 이전에 식별된 이미지에 나타난 대상체)의 새로운 위치에 기초할 수 있다. 변화가 검출되지 않으면, 이전에 결정된 거리가 현재 거리로서 사용하기에 적합할 수 있고, 이로써 현재 이미지 내 어떤 대상체의 거리도 계산하거나 재계산할 필요가 없다.At S530, it is checked whether there are any changes between the objects appearing in each image, and if so, execution continues with S540; Otherwise, execution terminates. A change can occur, for example, in a new stationary object identified in the current image (i.e., an object that does not appear in a previously identified image) or in a new location of a previously identified object (i.e., an object that appears in a previously identified image). It can be based on If no change is detected, a previously determined distance may be suitable for use as the current distance, thereby eliminating the need to calculate or recalculate the distances of any objects in the current image.

S540에서, 이미지들 간의 변화와 관련된 대상체가 선택된다. S550에서, 현재 및 이전에 식별된 이미지가 획득될 때 수동 센서가 움직이거나 움직였는지 여부가 체크된다. 그렇다면, 실행은 S560으로 계속된다; 그렇지 않으면, 실행은 S570에서 계속된다. 수동 센서가 움직이는지 여부를 결정하는 것은, 예를 들어 수동 센서에 연결된 하나 이상의 모션 센서(예를 들어, 가속도계, 글로벌 포지셔닝 시스템, 자이로스코프, 이들의 조합 등)로부터의 정보에 기초할 수 있다.At S540, an object associated with a change between images is selected. At S550, it is checked whether the passive sensor has moved or was moved when the current and previously identified images were acquired. If so, execution continues with S560; Otherwise, execution continues at S570. Determining whether the passive sensor is moving may be based, for example, on information from one or more motion sensors (e.g., accelerometer, global positioning system, gyroscope, combinations thereof, etc.) coupled to the passive sensor.

S560에서, 선택된 대상체까지의 거리가 결정된다. 거리는 예를 들어, 하나 이상의 모션 센서의 측정치에 기초하여 결정될 수 있다. 일 실시예에서, 모션 센서는 GPS이고 거리는 각각의 이미지가 촬영되었을 때 캡처된 GPS 좌표의 차이에 기초하여 계산된다. 또 다른 실시예에서, 정지된 대상체들로부터의 거리는 수동 센서 정보 및/또는 3D 맵핑 정보의 프레임들(예를 들어, 획득된 이미지들)을 비교함으로써 GPS를 사용하지 않고 측정될 수 있다. 이들 실시예는 상기에서 더 상세히 설명된다.At S560, the distance to the selected object is determined. The distance may be determined based on measurements from one or more motion sensors, for example. In one embodiment, the motion sensor is a GPS and the distance is calculated based on the difference in GPS coordinates captured when each image was taken. In another embodiment, distances from stationary objects may be measured without using GPS by comparing frames (e.g., acquired images) of passive sensor information and/or 3D mapping information. These embodiments are described in more detail above.

S570에서, 거리는 이미지 내의 픽셀에 기초하여 계산된다. 일 실시예에서, 거리는 대상체에 대한 픽셀의 수를 인식하고 알려진 기준 측정치와 픽셀 수를 비교함으로써 계산된다. 대상체의 폭과 높이가 알려진 경우, 알려진 폭과 높이에 관련하여 거리가 계산할 수 있다.At S570, the distance is calculated based on pixels within the image. In one embodiment, the distance is calculated by recognizing the number of pixels for an object and comparing the number of pixels to a known reference measurement. If the width and height of the object are known, the distance can be calculated in relation to the known width and height.

도 6은 대상체에 대한 픽셀의 수에 기초하여 거리를 계산하는 것을 기술하기 위해 사용되는 예시적인 이미지(600)이다. 예를 들어, 이미지(600) 내의 트럭(610)의 폭(620)이 100 픽셀로 구성되고 이미지(600)의 폭이 1미터의 길이를 나타내는 것으로 알려지고, 다음에 이미지(600) 내 트럭(610)까지의 거리(630)가 1000 픽셀을 포함한다면, 트럭까지의 거리가 10미터라고 결정될 수 있다. 기준 측정치는 미리 결정된 측정치, 알려진 대상체로부터의 거리, 이미지에 나타난 대상체의 알려진 크기(예를 들어, 높이, 폭 등)에 기초할 수 있다. 일 실시예에서, 거리는 이미지에서 소실점 및 소실 선을 계산함으로써 추정될 수 있다. 예를 들어, 건물의 지붕 선이 기준 측정치로 이용될 수 있다.6 is an example image 600 used to illustrate calculating distance based on the number of pixels for an object. For example, if the width 620 of the truck 610 in image 600 is known to consist of 100 pixels and the width of image 600 represents a length of 1 meter, then the truck in image 600 ( If the distance 630 to 610) includes 1000 pixels, it can be determined that the distance to the truck is 10 meters. The reference measurement may be based on a predetermined measurement, a distance from a known object, or a known size (e.g., height, width, etc.) of the object appearing in the image. In one embodiment, distance can be estimated by calculating vanishing points and vanishing lines in the image. For example, the roof line of a building can be used as a reference measurement.

일 실시예에서, 거리는 측정의 정확성을 증가시키기 위해 상이한 기술을 사용하여 수동적으로 측정될 수 있음에 유의해야 한다. 위에서 언급했듯이 특정 수동 측정이 신뢰할 수 없는 경우, 능동 측정을 사용하여 결정된 거리의 정확성을 높일 수 있다.It should be noted that in one embodiment, distances may be measured passively using different techniques to increase the accuracy of the measurements. As mentioned above, if certain passive measurements are unreliable, active measurements can be used to increase the accuracy of the distances determined.

S580에서, 거리가 (예를 들어, 메모리에) 저장된다. S590에서, 변화된 대상체에 대한 모든 필요한 거리가 결정되었는지 (즉, 모든 대상체가 처리되었는지) 체크된다. 그렇다면 실행이 종료되고; 그렇지 않으면, 실행은 S540으로 되돌아간다.In S580, the distance is stored (e.g. in memory). At S590, it is checked whether all necessary distances for changed objects have been determined (i.e., all objects have been processed). If so, execution terminates; Otherwise, execution returns to S540.

도 7은 다른 실시예에 따른 수동 측정을 수행하는 방법을 설명하는 예시의 흐름도(S450)를 도시한다. S710에서, 현재 이미지(imagen+1), 이전에 획득된 이미지(imagen) 및 비정지 상태로 분류된 대상체들의 리스트가 검색된다. 일 실시예에서, 각각의 비정지 상태의 대상체에 대해, 이전에 측정된 거리(예를 들어, 도 1에 대해) 및 미리 결정된 알려진 속도가 또한 검색될 수 있다. 알려진 속도는 최대, 최소 또는 평균 속도 중 하나를 포함한다.7 shows an example flow diagram S450 illustrating a method for performing manual measurements according to another embodiment. In S710, the current image (image n+1 ), the previously acquired image (image n ), and a list of objects classified as non-stationary are searched. In one embodiment, for each non-stationary object, a previously measured distance (e.g., with respect to Figure 1) and a predetermined known speed may also be retrieved. Known speeds include either maximum, minimum, or average speeds.

S720에서, 현재 및 이전에 획득된 이미지는 비정지된 대상체의 이동 방향을 검출하기 위해 비교된다. 방향은 차량, 장치, 및/또는 수동 센서를 향하거나 멀어지는 것이지만, 이에만 제한하는 것은 아니다. 다른 실시예에서, 방향은 예를 들어, 수동 센서에 관련한 특정 각도일 수 있다.In S720, the current and previously acquired images are compared to detect the direction of movement of the non-stationary object. The direction may be towards or away from the vehicle, device, and/or passive sensor, but is not limited to this. In other embodiments, the direction may be a specific angle relative to a passive sensor, for example.

S725에서, 비정지 상태의 대상체가 선택된다. S730에서, 선택된 비정지 대상체에 대한 현재 거리가 추정된다. 현재 거리는 현재 이미지 및 이전에 획득된 이미지의 캡처들 사이에 경과된 시간, 알려진 속도 및 이전에 측정된 거리에 기초하여 추정될 수 있다. 현재 거리는 결정된 방향에 기초하여 더욱 추정될 수 있다. 즉, 결정된 방향이 차량 쪽으로 향하는 경우, 현재 거리는 최대 알려진 속도를 사용하여 추정될 수 있다. 다른 한편으로, 결정된 방향이 차량으로부터 멀어지면, 거리는 최소의 알려진 속도를 사용하여 추정될 수 있다. 이것은 대상체의 차량으로부터의 거리와 관련하여 최악의 경우의 시나리오(즉, 거리가 적게 잡은 추정일 수 있음)를 커버하기 위해 수행된다. 이러한 최악의 시나리오 추정은, 예를 들어 자가 운전 차량, 드론 등이 움직이는 대상체에 충돌하는 것을 방지하는 것을 도울 수 있다.At S725, an object in a non-stationary state is selected. At S730, the current distance to the selected non-stationary object is estimated. The current distance can be estimated based on the time elapsed between captures of the current image and a previously acquired image, known speed, and previously measured distance. The current distance can be further estimated based on the determined direction. That is, if the determined direction is towards the vehicle, the current distance can be estimated using the maximum known speed. On the other hand, if the determined direction is away from the vehicle, the distance can be estimated using the minimum known speed. This is done to cover the worst-case scenario regarding the subject's distance from the vehicle (i.e., the distance may be an under-estimate). Such worst-case scenario estimates can, for example, help prevent self-driving cars, drones, etc. from crashing into moving objects.

추정된 거리에 기초하는 S740에서, 능동 측정이 필요한지가 결정된다. 그렇다면, 실행은 S750으로 계속된다; 그렇지 않으면 실행은 S760으로 계속된다. 일 실시예에서, 추정된 거리는 소정의 임계치와 비교되고, 임계치가 충족되지 않으면 능동 측정치가 요구된다. 대상체가 안전한 거리 내에 있지 않으면 능동 측정이 시작될 수 있다. 예를 들어, 사람이 차량을 향해 걷고 있고 예상 거리가 100미터라면, 사람은 안전한 거리 내에 있다. 그러나 차량을 향해 걷는 사람의 예상 거리가 1미터라면, 사람은 안전한 거리를 벗어나게 되므로 능동 측정이 트리거되어야 한다.At S740 based on the estimated distance, it is determined whether active measurement is necessary. If so, execution continues with S750; Otherwise, execution continues with S760. In one embodiment, the estimated distance is compared to a predetermined threshold, and if the threshold is not met, active measurements are required. Active measurements can be initiated if the object is not within a safe distance. For example, if a person is walking toward a vehicle and the estimated distance is 100 meters, the person is within a safe distance. However, if the expected distance of a person walking towards a vehicle is 1 meter, the person will be outside a safe distance and an active measurement should be triggered.

S750에서, 능동 측정이 필요하다고 결정하면, 대상체는 능동 측정으로 플래그된다. S760에서, 추정된 거리가 메모리에 저장된다. S770에서, 모든 대상체가 처리되었는지가 검사된다. 그렇다면, 실행이 종료된다. 그렇지 않으면, 실행은 S740으로 계속된다.At S750, if it is determined that active measurement is needed, the subject is flagged for active measurement. At S760, the estimated distance is stored in memory. At S770, it is checked whether all objects have been processed. If so, execution ends. Otherwise, execution continues with S740.

본 명세서에서 논의된 실시예는 단지 간략화의 목적으로 그리고 개시에 대해 제한하지 않고 레이저에 의한 능동 측정과 관련하여 설명된 것에 유의해야 한다. 개시된 실시예들의 범위를 벗어나지 않으면서 (예를 들어, 레이더, 사운드 등에 의한) 다른 능동 측정이 동일하게 이용될 수 있다.It should be noted that the embodiments discussed herein have been described in the context of active measurement by lasers for the purpose of simplicity only and not to limit the disclosure. Other active measurements (e.g., by radar, sound, etc.) could equally be used without departing from the scope of the disclosed embodiments.

본 명세서에 개시된 다양한 실시예는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 임의의 조합으로서 구현될 수 있다. 또한, 소프트웨어는 바람직하게는 부품, 또는 특정 장치 및/또는 장치들의 조합으로 구성된 프로그램 저장 유닛 또는 컴퓨터 판독 가능 매체에 유형으로 구현된 응용 프로그램으로서 구현된다. 응용 프로그램은 임의의 적합한 아키텍처를 포함하는 기계에 업로드되어 실행될 수 있다. 바람직하게, 기계는 하나 이상의 중앙 처리 장치("CPU"), 메모리 및 입/출력 인터페이스와 같은 하드웨어를 갖는 컴퓨터 플랫폼에 구현된다. 컴퓨터 플랫폼은 또한 운영 시스템 및 마이크로인스트럭션 코드를 포함할 수 있다. 본 명세서에서 설명된 다양한 프로세스 및 기능은 마이크로인스턱션 코드의 일부 또는 응용 프로그램의 일부이거나, 이들의 조합일 수 있으며, 이러한 컴퓨터 또는 프로세서가 명시적으로 표시되는지의 여부와 상관없이 CPU에 의해 실행될 수 있다. 또한, 추가의 데이터 저장 유닛 및 인쇄 유닛과 같은 다양한 다른 주변 유닛이 컴퓨터 플랫폼에 접속될 수 있다. 또한, 비일시적 컴퓨터 판독 가능 매체는 일시적 전파 신호를 제외한 임의의 컴퓨터 판독 가능 매체이다.Various embodiments disclosed herein may be implemented as hardware, firmware, software, or any combination thereof. Additionally, the software is preferably implemented as an application program tangibly embodied in a computer-readable medium or a program storage unit comprised of parts or specific devices and/or combinations of devices. The application can be uploaded and run on a machine with any suitable architecture. Preferably, the machine is implemented on a computer platform having hardware such as one or more central processing units (“CPUs”), memory, and input/output interfaces. The computer platform may also include an operating system and microinstruction code. The various processes and functions described herein may be part of microinjection code or part of an application, or a combination thereof, and may be executed by a CPU, whether or not such computer or processor is explicitly indicated. You can. Additionally, various other peripheral units may be connected to the computer platform, such as additional data storage units and printing units. Additionally, non-transitory computer-readable media is any computer-readable media other than transient radio signals.

본 명세서에 인용된 모든 예 및 조건부 언어는 개시된 실시 형태의 원리 및 발명자가 당해 분야를 장려하는 것에 기여하는 개념을 독자가 이해하도록 돕는 교육적 목적으로 의도한 것이며, 구체적으로 인용된 사례와 조건에 제한되지 않는다고 해석되어야 한다. 또한, 개시된 실시 형태의 원리, 양태 및 실시예 및 그의 특정 예를 기재한 본원의 모든 기재 내용은 그의 구조적 및 기능적 등가물을 모두 포함하고자 한다. 또한, 이러한 균등물은 현재 알려진 균등물뿐만 아니라 장래에 개발되는 균등물, 즉 구조와 상관없이 동일한 기능을 수행하는 임의의 개발 요소를 모두 포함하는 것으로 의도된다.All examples and conditional language cited herein are intended for educational purposes to help the reader understand the principles of the disclosed embodiments and the concepts the inventors contribute to promote the art, and are limited to the specifically cited examples and conditions. It should be interpreted that it does not work. Additionally, all statements herein reciting principles, aspects, and examples of the disclosed embodiments, as well as specific examples thereof, are intended to encompass all structural and functional equivalents thereof. Additionally, such equivalents are intended to include both currently known equivalents as well as equivalents developed in the future, i.e., any developed elements that perform the same function regardless of structure.

Claims (20)

3차원(3D) 지도를 획득하기 위한 방법에 있어서,
수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체들을 식별하기 위해 상기 적어도 하나의 이미지를 분석하는 단계;
상기 복수의 대상체들을 분류하는 단계;
상기 분류에 기초하여, 정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 각각의 거리를 수동적으로 측정하는 단계;
비정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하는 단계;
상기 수동적으로 측정된 각각의 거리와 상기 능동적으로 측정된 각각의 거리를 융합하여, 복수의 대상체들에 대한 융합된 거리 측정치를 얻는 단계; 및
상기 융합된 거리 측정치를 기초로 장면의 3D 지도를 생성하는 단계
를 포함하는 방법.
In a method for obtaining a three-dimensional (3D) map,
Analyzing at least one image acquired by a passive sensor to identify a plurality of objects in the image;
Classifying the plurality of objects;
Based on the classification, manually measuring each distance to at least one object among the plurality of objects classified as stationary objects;
Actively measuring distances to some of the plurality of objects classified as non-stationary objects;
Obtaining fused distance measurements for a plurality of objects by fusing each of the passively measured distances with each of the actively measured distances; and
generating a 3D map of the scene based on the fused distance measurements.
How to include .
제1항에 있어서, 상기 적어도 하나의 이미지를 분석하는 단계는:
세분화 지도를 렌더링하기 위해 상기 적어도 하나의 이미지를 세분화하는 단계; 및
상기 세분화 지도에서 상기 복수의 대상체들을 식별하는 단계
를 더 포함하는 방법.
The method of claim 1, wherein analyzing the at least one image comprises:
segmenting the at least one image to render a segmentation map; and
Identifying the plurality of objects in the segmentation map
How to further include .
제1항에 있어서, 상기 복수의 대상체들을 분류하는 단계는,
상기 복수의 대상체들 각각의 유형을 식별하는 단계; 및
상기 식별된 대상체의 유형에 기초하여 상기 복수의 대상체들 각각을 분류하는 단계
를 더 포함하는 방법.
The method of claim 1, wherein classifying the plurality of objects comprises:
Identifying the type of each of the plurality of objects; and
Classifying each of the plurality of objects based on the type of the identified object.
How to further include .
제3항에 있어서,
상기 적어도 하나의 이미지를 이전에 획득된 이미지와 비교하는 단계; 및
상기 비교에 기초하여 상기 복수의 대상체들 각각의 위치의 변화를 식별하는 단계
를 더 포함하고,
상기 복수의 대상체들 각각은 상기 대상체의 상기 위치의 상기 변화에 기초하여 분류되는 방법.
According to paragraph 3,
comparing the at least one image to a previously acquired image; and
Identifying a change in the position of each of the plurality of objects based on the comparison
It further includes,
A method wherein each of the plurality of objects is classified based on the change in the position of the object.
제1항에 있어서,
상기 복수의 대상체들의 각 대상체에 대해, 상기 대상체가 적어도 하나의 지리적 지도에서 식별되는지의 여부를 결정하는 단계; 및
상기 적어도 하나의 지리적 지도에서 식별된 각각의 대상체를 정지 상태의 대상체로서 분류하는 단계
를 더 포함하는 방법.
According to paragraph 1,
For each object in the plurality of objects, determining whether the object is identified in at least one geographic map; and
Classifying each object identified in the at least one geographic map as a stationary object.
How to further include .
제1항에 있어서,
상기 정지 상태의 대상체로 분류된 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 이전 거리가 이용 가능하지 않는 것에 응답하여, 상기 복수의 대상체들 중 적어도 하나의 대상체까지의 각각의 거리를 수동적으로 측정하는 단계
를 더 포함하는 방법.
According to paragraph 1,
In response to the previous distance to at least one object among the plurality of objects classified as the stationary object being unavailable, passively measuring the respective distance to at least one object among the plurality of objects. steps to do
How to further include .
제1항에 있어서, 상기 적어도 하나의 대상체까지의 각각의 거리를 수동적으로 측정하는 단계는:
상기 수동 센서가 움직이는지를 결정하는 단계;
상기 수동 센서가 움직일 때, 모션 센서를 사용하여 상기 적어도 하나의 대상체까지의 각각의 거리를 결정하는 단계; 및
상기 수동 센서가 움직이지 않을 때, 상기 적어도 하나의 대상체에 대한 픽셀들의 개수 및 알려진 기준 측정치에 기초하여 상기 적어도 하나의 대상체까지의 각각의 거리를 결정하는 단계
를 더 포함하는 방법.
The method of claim 1, wherein the step of manually measuring each distance to the at least one object:
determining whether the passive sensor is moving;
When the passive sensor moves, determining each distance to the at least one object using a motion sensor; and
When the passive sensor is not moving, determining a respective distance to the at least one object based on a known reference measurement and the number of pixels for the at least one object.
How to further include .
제7항에 있어서, 상기 알려진 기준 측정치는 유효 기준 대상체로부터의 픽셀들의 개수 및 상기 대상체의 크기 중 적어도 하나인 방법.8. The method of claim 7, wherein the known reference measurement is at least one of the number of pixels from a valid reference object and the size of the object. 제1항에 있어서, 상기 방법은,
비정지 상태의 대상체 및 비의심 상태의 대상체로서 분류된 상기 복수의 대상체들 중 일부의 대상체들까지의 각각의 거리를 수동적으로 측정하는 단계로서,
상기 복수의 대상체들 중 일부의 대상체들 각각에 대해, 상기 대상체의 경계 속도를 결정하는 것과,
상기 대상체의 이동 방향을 결정하는 것과,
상기 결정된 방향 및 상기 결정된 경계 속도에 기초하여 상기 대상체까지의 거리를 추정하는 것을 포함하는 단계
를 더 포함하는 방법.
The method of claim 1, wherein
A step of manually measuring the respective distances to some of the plurality of objects classified as objects in a non-stationary state and objects in a non-suspicious state,
For each of some of the plurality of objects, determining a boundary velocity of the object;
determining the direction of movement of the object,
comprising estimating the distance to the object based on the determined direction and the determined boundary velocity.
How to further include .
제1항에 있어서, 의심 상태의 대상체로 분류된 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하는 단계
를 더 포함하는 방법.
The method of claim 1, wherein the step of actively measuring the respective distances to some of the plurality of objects classified as objects in a suspicious state.
How to further include .
제1항에 있어서, 상기 복수의 대상체들 중 일부의 대상체들에 대한 신뢰 가능한 수동 측정치가 결정될 수 없을 때, 비정지 상태의 대상체로 분류된 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하는 단계
를 더 포함하는 방법.
The method of claim 1, wherein when reliable manual measurements cannot be determined for some of the plurality of objects, the respective distances to some of the plurality of objects classified as non-stationary objects are determined. Steps to actively measure
How to further include .
제1항에 있어서, 상기 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하는 단계는:
상기 복수의 대상체들 중 일부의 대상체 각각에 대해 다수의 레이저 측정을 수행하는 단계를 더 포함하며, 상기 다수의 레이저 측정은 요구되는 해상도에 기초하여 결정되는 방법.
The method of claim 1, wherein the step of actively measuring distances to some of the plurality of objects includes:
The method further includes performing a plurality of laser measurements on each of some of the plurality of objects, wherein the plurality of laser measurements are determined based on a required resolution.
제12항에 있어서,
상기 복수의 대상체들 중 일부의 대상체 각각에 대해, 상기 레이저 측정에 기초하여 상기 대상체의 각 지점까지의 거리를 계산하는 단계
를 더 포함하는 방법.
According to clause 12,
For each of some of the plurality of objects, calculating the distance to each point of the object based on the laser measurement.
How to further include .
제1항에 있어서, 상기 3D 지도를 생성하는 단계는:
상기 융합된 거리 측정치를 사용하여 상기 복수의 대상체들 중에서의 각 대상체의 3D 표면을 렌더링하는 단계를 더 포함하는 방법.
The method of claim 1, wherein generating the 3D map comprises:
The method further comprising rendering a 3D surface of each object in the plurality of objects using the fused distance measurement.
제1항에 있어서, 상기 장면은 상기 3D 지도의 생성을 가능하게 하는 장치에 의해 캡쳐된 시야인 것을 특징으로하는 방법.The method of claim 1, wherein the scene is a field of view captured by a device that enables creation of the 3D map. 제1항에 따른 상기 방법을 실행하기 위한 명령이 저장되어 있는 비일시적인 컴퓨터 판독 가능 매체A non-transitory computer-readable medium storing instructions for executing the method according to claim 1. 3차원(3D) 지도를 획득하기 위한 장치에 있어서,
장면의 이미지를 획득하기 위한 수동 센서;
처리 시스템으로서,
수동 센서에 의해 획득된 적어도 하나의 이미지 내의 복수의 대상체들을 식별하기 위해 상기 적어도 하나의 이미지를 분석하고,
상기 복수의 대상체들을 분류하도록 구성된 처리 시스템; 및
비정지 상태의 대상체로 분류된 복수의 대상체들 중 일부의 대상체까지의 각각의 거리를 능동적으로 측정하도록 구성된 능동 센서를 포함하고,
상기 처리 시스템은
수동적으로 측정된 각각의 거리와 상기 능동적으로 측정된 각각의 거리를 융합하여, 복수의 대상체들에 대한 융합된 거리 측정치를 얻고,
상기 융합된 거리 측정치를 기초로 장면의 3D 지도를 생성하도록 더 구성된,
장치.


In a device for obtaining a three-dimensional (3D) map,
Passive sensor for acquiring images of the scene;
As a processing system,
Analyze at least one image acquired by a passive sensor to identify a plurality of objects in the image,
a processing system configured to classify the plurality of objects; and
An active sensor configured to actively measure the distance to some of the plurality of objects classified as non-stationary objects,
The processing system is
Obtaining fused distance measurements for a plurality of objects by fusing each passively measured distance with each actively measured distance,
further configured to generate a 3D map of the scene based on the fused distance measurements,
Device.


삭제delete 삭제delete 삭제delete
KR1020177031544A 2015-04-01 2016-03-31 Create a 3D map of a scene using passive and active measurements KR102614323B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562141296P 2015-04-01 2015-04-01
US62/141,296 2015-04-01
US201562160988P 2015-05-13 2015-05-13
US62/160,988 2015-05-13
PCT/US2016/025252 WO2016161104A1 (en) 2015-04-01 2016-03-31 Generating 3-dimensional maps of a scene using passive and active measurements

Publications (2)

Publication Number Publication Date
KR20170132860A KR20170132860A (en) 2017-12-04
KR102614323B1 true KR102614323B1 (en) 2023-12-14

Family

ID=57006494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177031544A KR102614323B1 (en) 2015-04-01 2016-03-31 Create a 3D map of a scene using passive and active measurements

Country Status (5)

Country Link
US (8) US20160291154A1 (en)
EP (2) EP3283843B1 (en)
KR (1) KR102614323B1 (en)
CN (2) CN108271408B (en)
WO (1) WO2016161104A1 (en)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
CN108271408B (en) 2015-04-01 2020-12-04 瓦亚视觉有限公司 Generating three-dimensional maps of scenes using passive and active measurements
EP3303978A4 (en) * 2015-06-07 2018-06-06 Geoffrey Louis Barrows Localization method and apparatus
JP6499047B2 (en) * 2015-09-17 2019-04-10 株式会社東芝 Measuring device, method and program
US9671785B1 (en) * 2016-03-29 2017-06-06 Delphi Technologies, Inc. V2X object-location verification system for automated vehicles
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
DE102016107211A1 (en) * 2016-04-19 2017-10-19 Voith Patent Gmbh DEVICE FOR DATA AND / OR SIGNAL TRANSMISSION
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US10203696B2 (en) * 2016-07-26 2019-02-12 Waymo Llc Determining drivability of objects for autonomous vehicles
WO2018020744A1 (en) 2016-07-29 2018-02-01 Necソリューションイノベータ株式会社 Moving object operation system, operation signal transmission system, moving object operation method, program and recording medium
JP6820066B2 (en) * 2016-07-29 2021-01-27 Necソリューションイノベータ株式会社 Mobile maneuvering system, maneuvering signal transmission system, mobile maneuvering method, program, and recording medium
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
DE102016122645A1 (en) * 2016-11-24 2018-05-24 Valeo Schalter Und Sensoren Gmbh Receiving device for an optical detection device, detection device and driver assistance system
WO2018125939A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation
DE102017102315A1 (en) 2017-02-07 2018-08-09 Sick Ag Method for navigating a vehicle
JP7031137B2 (en) * 2017-04-10 2022-03-08 凸版印刷株式会社 Laser scanning device
US10268203B2 (en) * 2017-04-20 2019-04-23 GM Global Technology Operations LLC Calibration validation for autonomous vehicle operations
KR102434361B1 (en) 2017-04-27 2022-08-19 스냅 인코포레이티드 Location Privacy Management for Map-Based Social Media Platforms
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US11893647B2 (en) * 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
EP3619681A4 (en) * 2017-05-02 2020-12-16 HRL Laboratories, LLC SYSTEM AND METHOD FOR DETECTION OF MOVING OBSTACLES BASED ON A SENSORIC PREDICTION FROM OWN MOVEMENT
US20180341821A1 (en) * 2017-05-26 2018-11-29 Dura Operating, Llc Method and system for generating and using a perception scene graph in motor vehicle applications
IL311264A (en) * 2017-06-14 2024-05-01 Mobileye Vision Technologies Ltd Fusion framework of navigation information for autonomous navigation
US11300958B2 (en) * 2017-07-13 2022-04-12 Waymo Llc Sensor adjustment based on vehicle motion
DE102017116661A1 (en) 2017-07-24 2019-01-24 Vorwerk & Co. Interholding Gmbh System for recording three-dimensional environmental data, in particular for plant care and sensor module
DE102017116658A1 (en) * 2017-07-24 2019-01-24 Vorwerk & Co. Interholding Gmbh Automatically movable device with a monitoring module outdoors
EP3438776B1 (en) * 2017-08-04 2022-09-07 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
KR20200028446A (en) * 2017-08-31 2020-03-16 에스지 디제이아이 테크놀러지 코., 엘티디 Solid state light detection and ranging (LIDAR) systems, and systems and methods to improve solid state light detection and ranging (LIDAR) resolution
US10872228B1 (en) 2017-09-27 2020-12-22 Apple Inc. Three-dimensional object detection
US10788831B2 (en) * 2017-10-06 2020-09-29 Wipro Limited Method and device for identifying center of a path for navigation of autonomous vehicles
JP6759175B2 (en) * 2017-10-27 2020-09-23 株式会社東芝 Information processing equipment and information processing system
US11758111B2 (en) * 2017-10-27 2023-09-12 Baidu Usa Llc 3D lidar system using a dichroic mirror for autonomous driving vehicles
DE102017221465A1 (en) * 2017-11-29 2019-05-29 Robert Bosch Gmbh Method and device for detecting a light-emitting object at a traffic junction for a vehicle
US10594940B1 (en) * 2018-01-12 2020-03-17 Vulcan Inc. Reduction of temporal and spatial jitter in high-precision motion quantification systems
WO2019159759A1 (en) * 2018-02-19 2019-08-22 株式会社村上開明堂 Operation detection device and operation detection method
CN115393536A (en) 2018-04-18 2022-11-25 移动眼视力科技有限公司 Vehicle environment modeling with camera
US11668830B1 (en) 2018-06-01 2023-06-06 Vayavision Sensing Ltd. System and method for performing active distance measurements
CN108919300B (en) * 2018-07-17 2022-07-08 重庆大学 Mixed map creating method for warehouse channel scene
DE102018214182A1 (en) * 2018-08-22 2020-02-27 Robert Bosch Gmbh LIDAR device with an accelerated runtime analysis
US11340355B2 (en) 2018-09-07 2022-05-24 Nvidia Corporation Validation of global navigation satellite system location data with other sensor data
US11100669B1 (en) 2018-09-14 2021-08-24 Apple Inc. Multimodal three-dimensional object detection
US11513196B2 (en) * 2018-09-28 2022-11-29 Waymo Llc Terrain adaptive pulse power in a scanning LIDAR
DE102018219602A1 (en) * 2018-11-15 2020-05-20 Robert Bosch Gmbh Method of detecting card errors
US11044404B1 (en) 2018-11-28 2021-06-22 Vulcan Inc. High-precision detection of homogeneous object activity in a sequence of images
US10872400B1 (en) 2018-11-28 2020-12-22 Vulcan Inc. Spectral selection and transformation of image frames
US10659751B1 (en) * 2018-12-14 2020-05-19 Lyft Inc. Multichannel, multi-polarization imaging for improved perception
WO2020154990A1 (en) * 2019-01-30 2020-08-06 深圳市大疆创新科技有限公司 Target object motion state detection method and device, and storage medium
CN109878514B (en) * 2019-03-13 2020-04-14 的卢技术有限公司 Vehicle surrounding environment item dividing method and application system thereof
WO2020226187A1 (en) * 2019-05-03 2020-11-12 엘지전자 주식회사 Robot generating map on basis of multi-sensor and artificial intelligence and traveling by using map
JP7268490B2 (en) * 2019-06-13 2023-05-08 株式会社デンソー Object recognition device, driving support system
US11480431B1 (en) * 2019-08-27 2022-10-25 Alarm.Com Incorporated Lighting adaptive navigation
US11669092B2 (en) * 2019-08-29 2023-06-06 Rockwell Automation Technologies, Inc. Time of flight system and method for safety-rated collision avoidance
CA3191715A1 (en) 2019-09-22 2021-03-25 Vayavision Sensing Ltd. Functional safety in autonomous driving
KR20220093312A (en) 2019-09-22 2022-07-05 바야비전 센싱 리미티드 Methods and systems for training and validating cognitive systems
DE102019129986A1 (en) * 2019-11-07 2021-05-12 Sick Ag Optoelectronic sensor and method for detecting objects
KR20230004425A (en) 2019-11-13 2023-01-06 유발 네흐마디 Autonomous Vehicle Environment Cognitive Software Architecture
US11699235B2 (en) * 2019-11-20 2023-07-11 Baidu Usa Llc Way to generate tight 2D bounding boxes for autonomous driving labeling
JP7401273B2 (en) * 2019-11-26 2023-12-19 日立Astemo株式会社 Mobile body control device and method
CN110967685B (en) * 2019-12-09 2022-03-22 Oppo广东移动通信有限公司 Method and system for evaluating interference signal, electronic device and storage medium
KR20210076440A (en) 2019-12-16 2021-06-24 삼성전자주식회사 Method and apparatus for regeneration and prediction of tree map
CN111249728B (en) * 2020-01-22 2021-08-31 荣耀终端有限公司 Image processing method, device and storage medium
CN113378867B (en) * 2020-02-25 2023-08-22 北京轻舟智航智能技术有限公司 Asynchronous data fusion method and device, storage medium and electronic equipment
CA3125623C (en) 2020-07-21 2023-06-27 Leddartech Inc. Beam-steering device particularly for lidar systems
EP4185888A4 (en) 2020-07-21 2024-08-21 Leddartech Inc. BEAM STEERING DEVICE, PARTICULARLY FOR LIDAR SYSTEMS
US11402510B2 (en) 2020-07-21 2022-08-02 Leddartech Inc. Systems and methods for wide-angle LiDAR using non-uniform magnification optics
KR20220030007A (en) 2020-09-02 2022-03-10 삼성전자주식회사 Apparatus and method for generating image
US12085678B1 (en) * 2020-12-30 2024-09-10 Waymo Llc Methods for localizing light detection and ranging (lidar) calibration targets
US11797022B1 (en) * 2021-06-29 2023-10-24 Amazon Technologies, Inc. System for object detection by an autonomous mobile device
EP4258011A1 (en) * 2022-04-04 2023-10-11 Faro Technologies, Inc. Image-based scan pre-registration

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002059796A (en) * 2000-05-24 2002-02-26 Daimlerchrysler Ag Method and apparatus for classification by detecting road user and obstacle based on camera image and detecting distance to observer
US20100040285A1 (en) * 2008-08-14 2010-02-18 Xerox Corporation System and method for object class localization and semantic class based image segmentation

Family Cites Families (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1192483A (en) 1914-09-03 1916-07-25 Albert Harry Wheeler Mathematical model.
US5195144A (en) 1988-11-15 1993-03-16 Thomson-Csf Process for estimating the distance between a stationary object and a moving vehicle and device for using this process
US5128874A (en) 1990-01-02 1992-07-07 Honeywell Inc. Inertial navigation sensor integrated obstacle detection system
US6553130B1 (en) 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
JP3183598B2 (en) 1993-12-14 2001-07-09 三菱電機株式会社 Obstacle detection device
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US7359782B2 (en) 1994-05-23 2008-04-15 Automotive Technologies International, Inc. Vehicular impact reactive system and method
US7783403B2 (en) 1994-05-23 2010-08-24 Automotive Technologies International, Inc. System and method for preventing vehicular accidents
US7630806B2 (en) * 1994-05-23 2009-12-08 Automotive Technologies International, Inc. System and method for detecting and protecting pedestrians
JP3304687B2 (en) 1995-05-24 2002-07-22 日産自動車株式会社 Vehicle lane recognition device, obstacle detection device, road departure notification device
US7202776B2 (en) 1997-10-22 2007-04-10 Intelligent Technologies International, Inc. Method and system for detecting objects external to a vehicle
US5745806A (en) * 1995-06-15 1998-04-28 Fuji Photo Optical Co., Ltd. Distance measuring apparatus
US5887268A (en) 1995-10-31 1999-03-23 Honda Giken Kogyo Kabushiki Kaisha Automatically driven motor vehicle
US5870178A (en) * 1996-02-20 1999-02-09 Canon Kabushiki Kaisha Distance measuring apparatus
US5831719A (en) * 1996-04-12 1998-11-03 Holometrics, Inc. Laser scanning system
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US5896103A (en) 1996-10-15 1999-04-20 Honeywell Inc. Method and aparatus for dynamically calibrating a radar receiver
US5923417A (en) 1997-09-26 1999-07-13 Northern Digital Incorporated System for determining the spatial position of a target
CN1314990A (en) 1998-08-26 2001-09-26 罗得岛及普罗维登斯属地高等教育管理委员会 Thin film strain sensors based on interferometric optical measurements
US6323941B1 (en) * 1999-08-06 2001-11-27 Lockheed Martin Corporation Sensor assembly for imaging passive infrared and active LADAR and method for same
JP2001311619A (en) * 2000-05-01 2001-11-09 Asahi Optical Co Ltd Apparatus and method for measuring distance
US6502053B1 (en) * 2000-06-12 2002-12-31 Larry Hardin Combination passive and active speed detection system
US6763292B1 (en) 2000-06-21 2004-07-13 International Business Machines Corporation Prediction and compensation for land vehicle dynamics based on feedforward road conditions
JP2002221655A (en) * 2001-01-24 2002-08-09 Olympus Optical Co Ltd Range finder
US7124072B1 (en) 2001-04-30 2006-10-17 Mips Technologies, Inc. Program counter and data tracing from a multi-issue processor
US7385626B2 (en) 2002-10-21 2008-06-10 Sarnoff Corporation Method and system for performing surveillance
DE10305861A1 (en) * 2003-02-13 2004-08-26 Adam Opel Ag Motor vehicle device for spatial measurement of a scene inside or outside the vehicle, combines a LIDAR system with an image sensor system to obtain optimum 3D spatial image data
DE10361869A1 (en) 2003-12-29 2005-07-28 Iqsun Gmbh Laser scanner or laser level, has an integral distance meter that detects reflected laser light and adjusts the intensity of transmitted light dependent on the distance measured to a reflection point
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
JP2005257325A (en) 2004-03-09 2005-09-22 Denso Corp Distance detector
DE102005027208B4 (en) 2004-11-16 2011-11-10 Zoller & Fröhlich GmbH Method for controlling a laser scanner
US7941006B2 (en) * 2005-02-25 2011-05-10 Panasonic Corporation Pixel interpolating method and device
US7430365B2 (en) 2005-03-31 2008-09-30 Avago Technologies Ecbu (Singapore) Pte Ltd. Safe eye detection
WO2006132686A2 (en) 2005-06-03 2006-12-14 Sarnoff Corporation Method and apparatus for designing iris biometric systems for use in minimally
JP2007187618A (en) * 2006-01-16 2007-07-26 Omron Corp Object identifying device
US20070189455A1 (en) 2006-02-14 2007-08-16 Accuray Incorporated Adaptive x-ray control
ATE441087T1 (en) 2006-04-27 2009-09-15 3D Scanners Ltd OPTICAL SCANNING PROBE
US7865299B2 (en) 2006-09-14 2011-01-04 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for predicting a future position of a vehicle using numerical integration
US7580547B2 (en) * 2006-10-24 2009-08-25 Iteris, Inc. Electronic traffic monitor
US7619754B2 (en) 2007-04-20 2009-11-17 Riel Ryan D Curved sensor array apparatus and methods
TWI355615B (en) 2007-05-11 2012-01-01 Ind Tech Res Inst Moving object detection apparatus and method by us
US7626538B2 (en) * 2007-10-24 2009-12-01 Northrop Grumman Systems Corporation Augmented passive tracking of moving emitter
US7852461B2 (en) 2007-11-15 2010-12-14 Microsoft International Holdings B.V. Dual mode depth imaging
US20090140887A1 (en) 2007-11-29 2009-06-04 Breed David S Mapping Techniques Using Probe Vehicles
USRE46930E1 (en) 2007-12-21 2018-07-03 Leddartech Inc. Distance detection method and system
KR100914961B1 (en) 2008-01-23 2009-09-02 성균관대학교산학협력단 Method and system for determining optimal exposure of structured light based 3d camera
WO2009115122A1 (en) 2008-03-20 2009-09-24 Trimble Ab Geodetic scanner with increased efficiency
KR100976682B1 (en) 2008-04-04 2010-08-18 주식회사 하이닉스반도체 Semiconductor memory device and manufacturing method thereof
US9041915B2 (en) * 2008-05-09 2015-05-26 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
US9188980B2 (en) 2008-09-11 2015-11-17 Deere & Company Vehicle with high integrity perception system
EP2362936B1 (en) 2008-10-28 2012-10-17 3Shape A/S Scanner with feedback control
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
EP2204670B1 (en) 2008-12-23 2014-06-11 Sony Corporation Adaptive sensing system
US8290208B2 (en) 2009-01-12 2012-10-16 Eastman Kodak Company Enhanced safety during laser projection
US8439842B2 (en) 2009-01-29 2013-05-14 General Electric Company Method and device for controlling transmission power of an active transducer
US20100204974A1 (en) * 2009-02-09 2010-08-12 Utah State University Lidar-Assisted Stero Imager
DE102009009047A1 (en) 2009-02-16 2010-08-19 Daimler Ag Method for object detection
US20100235129A1 (en) * 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US8164617B2 (en) * 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
JP2011009514A (en) 2009-06-26 2011-01-13 Renesas Electronics Corp Method for manufacturing semiconductor device
US8547374B1 (en) 2009-07-24 2013-10-01 Lockheed Martin Corporation Detection and reconstruction of 3D objects with passive imaging sensors
US8441622B2 (en) * 2009-07-28 2013-05-14 Applied Concepts, Inc. Lidar measurement device for vehicular traffic surveillance and method for use of same
US8125622B2 (en) 2009-07-28 2012-02-28 Applied Concepts, Inc. Lidar measurement device with target tracking and method for use of same
US8116527B2 (en) * 2009-10-07 2012-02-14 The United States Of America As Represented By The Secretary Of The Army Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background
JP5257700B2 (en) 2009-10-30 2013-08-07 トヨタ自動車株式会社 Lithium secondary battery
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
SG182409A1 (en) 2010-01-07 2012-08-30 Shilat Optronics Ltd Three dimensional measurement system
US9303989B2 (en) 2010-02-23 2016-04-05 Ben-Gurion University Of The Negev System and method for providing 3D imaging
US8587686B1 (en) 2010-03-16 2013-11-19 University Of Central Florida Research Foundation, Inc. Hybrid differential optical sensing imager
US8736818B2 (en) 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
US8648702B2 (en) * 2010-08-20 2014-02-11 Denso International America, Inc. Combined time-of-flight and image sensor systems
WO2012033173A1 (en) 2010-09-08 2012-03-15 株式会社豊田中央研究所 Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method
JP5839971B2 (en) * 2010-12-14 2016-01-06 キヤノン株式会社 Information processing apparatus, information processing method, and program
KR101190789B1 (en) * 2010-12-30 2012-10-11 주식회사 와이즈오토모티브 Apparatus and method for measurementing distance of vehicle
US8908159B2 (en) 2011-05-11 2014-12-09 Leddartech Inc. Multiple-field-of-view scannerless optical rangefinder in high ambient background light
US8791851B2 (en) 2011-06-02 2014-07-29 International Business Machines Corporation Hybrid millimeter wave imaging system
US10007330B2 (en) 2011-06-21 2018-06-26 Microsoft Technology Licensing, Llc Region of interest segmentation
KR101680186B1 (en) * 2011-08-30 2016-11-28 삼성전자주식회사 Image photographing device and control method thereof
US20130107065A1 (en) 2011-10-27 2013-05-02 Qualcomm Incorporated Inertial sensor aided stationary object detection in videos
US10071687B2 (en) 2011-11-28 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US8607169B2 (en) * 2011-12-28 2013-12-10 Elitetech Technology Co., Ltd. Intelligent defect diagnosis method
US9681125B2 (en) * 2011-12-29 2017-06-13 Pelco, Inc Method and system for video coding with noise filtering
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
EP2820632B8 (en) 2012-03-02 2017-07-26 Leddartech Inc. System and method for multipurpose traffic detection and characterization
KR20130137074A (en) * 2012-06-06 2013-12-16 삼성전자주식회사 Apparatus and method for providing augmented reality information by using 3 dimension map
US8781721B2 (en) * 2012-06-06 2014-07-15 Google Inc. Obstacle evaluation technique
US9898829B2 (en) 2012-09-18 2018-02-20 Hanwha Techwin Co., Ltd. Monitoring apparatus and system using 3D information of images and monitoring method using the same
CN102914262B (en) * 2012-09-29 2015-02-11 北京控制工程研究所 Non-cooperative target abutting measurement method based on additional sighting distance
US9625994B2 (en) 2012-10-01 2017-04-18 Microsoft Technology Licensing, Llc Multi-camera depth imaging
US9111444B2 (en) * 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
CN102944224B (en) * 2012-11-09 2014-08-27 大连理工大学 Work method for automatic environmental perception systemfor remotely piloted vehicle
US11509880B2 (en) 2012-11-14 2022-11-22 Qualcomm Incorporated Dynamic adjustment of light source power in structured light active depth sensing systems
KR101851836B1 (en) * 2012-12-03 2018-04-24 나비센스, 인크. Systems and methods for estimating the motion of an object
WO2014102828A2 (en) * 2012-12-31 2014-07-03 Muthukumar Prasad Ambient intelligence based environment safe interference free closed loop wireless energy transfering/receiving network with highly flexible active adaptive self steering multilevel multicast coherent energy power streams
GB201301281D0 (en) 2013-01-24 2013-03-06 Isis Innovation A Method of detecting structural parts of a scene
US9083960B2 (en) 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
GB201303076D0 (en) * 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
US8761594B1 (en) 2013-02-28 2014-06-24 Apple Inc. Spatially dynamic illumination for camera systems
US9398287B2 (en) * 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
US9063549B1 (en) * 2013-03-06 2015-06-23 Google Inc. Light detection and ranging device with oscillating mirror driven by magnetically interactive coil
WO2014138697A1 (en) * 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8996224B1 (en) * 2013-03-15 2015-03-31 Google Inc. Detecting that an autonomous vehicle is in a stuck condition
US11172126B2 (en) 2013-03-15 2021-11-09 Occipital, Inc. Methods for reducing power consumption of a 3D image capture system
CN105164549B (en) * 2013-03-15 2019-07-02 优步技术公司 Method, system and the equipment of more sensing stereoscopic visions for robot
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
US9424650B2 (en) * 2013-06-12 2016-08-23 Disney Enterprises, Inc. Sensor fusion for depth estimation
WO2015004213A1 (en) * 2013-07-09 2015-01-15 Xenomatix Bvba Surround sensing system
US20150071541A1 (en) * 2013-08-14 2015-03-12 Rice University Automated method for measuring, classifying, and matching the dynamics and information passing of single objects within one or more images
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
US9336440B2 (en) * 2013-11-25 2016-05-10 Qualcomm Incorporated Power efficient use of a depth sensor on a mobile device
KR101549929B1 (en) 2014-02-13 2015-09-03 고려대학교 산학협력단 Method and apparatus of generating depth map
US9098754B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
US9390328B2 (en) * 2014-04-25 2016-07-12 Xerox Corporation Static occlusion handling using directional pixel replication in regularized motion environments
CN107076838B (en) * 2014-08-15 2021-11-05 艾耶股份有限公司 Method and system for lidar transmission
US9378554B2 (en) * 2014-10-09 2016-06-28 Caterpillar Inc. Real-time range map generation
CN104567917B (en) 2014-12-18 2016-01-13 北京控制工程研究所 Prediction method of position and velocity of reentry vehicle with variable step size based on dynamic characteristics
US9678210B2 (en) * 2014-12-19 2017-06-13 Caterpillar Inc. Error estimation in real-time visual odometry system
CN108271408B (en) 2015-04-01 2020-12-04 瓦亚视觉有限公司 Generating three-dimensional maps of scenes using passive and active measurements
CN104828664B (en) * 2015-04-03 2020-05-22 奥的斯电梯公司 Automatic debugging system and method
KR101835434B1 (en) * 2015-07-08 2018-03-09 고려대학교 산학협력단 Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value
CN107301651A (en) 2016-04-13 2017-10-27 索尼公司 Object tracking apparatus and method
US10891779B2 (en) * 2016-07-13 2021-01-12 Naked Labs Austria Gmbh Efficient volumetric reconstruction with depth sensors
CN110062871B (en) * 2016-12-09 2024-01-19 通腾全球信息公司 Method and system for video-based positioning and mapping
CA3090627A1 (en) 2017-02-06 2018-08-09 Vayavision Sensing Ltd. Computer aided driving
US10445928B2 (en) 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
JP6713946B2 (en) * 2017-03-31 2020-06-24 株式会社Soken In-vehicle radar device
US11292483B2 (en) 2018-02-28 2022-04-05 VayaVision Sensing, Ltd. Managing a change in a physical property of a vehicle due to an external object
US11061406B2 (en) * 2018-10-22 2021-07-13 Waymo Llc Object action classification for autonomous vehicles
US10832438B2 (en) * 2018-12-19 2020-11-10 Murat Gozu Object distancing system for a vehicle
JP7019731B2 (en) * 2019-01-30 2022-02-15 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド Real-time map generation system for self-driving cars
CN112105893B (en) * 2019-01-30 2023-08-22 百度时代网络技术(北京)有限公司 Real-time map generation system for an autonomous vehicle
US11087494B1 (en) * 2019-05-09 2021-08-10 Zoox, Inc. Image-based depth data and localization
US11507789B2 (en) * 2019-05-31 2022-11-22 Lg Electronics Inc. Electronic device for vehicle and method of operating electronic device for vehicle
US11668798B2 (en) * 2019-11-14 2023-06-06 Nio Technology (Anhui) Co., Ltd. Real-time ground surface segmentation algorithm for sparse point clouds
US11606477B2 (en) 2020-01-20 2023-03-14 Instituto De Pesquisas Eldorado Multispectral camera
US11947359B2 (en) * 2020-02-14 2024-04-02 Micron Technology, Inc. Intelligent lidar sensors for autonomous vehicles
US11753006B2 (en) * 2020-06-08 2023-09-12 Robert Bosch Gmbh Representing objects in a surrounding environment of a vehicle using a frenet coordinate system
CA3125623C (en) 2020-07-21 2023-06-27 Leddartech Inc. Beam-steering device particularly for lidar systems
EP4185888A4 (en) 2020-07-21 2024-08-21 Leddartech Inc. BEAM STEERING DEVICE, PARTICULARLY FOR LIDAR SYSTEMS
US11402510B2 (en) 2020-07-21 2022-08-02 Leddartech Inc. Systems and methods for wide-angle LiDAR using non-uniform magnification optics
US12008777B2 (en) * 2021-10-22 2024-06-11 Argo AI, LLC Validating an SfM map using lidar point clouds

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002059796A (en) * 2000-05-24 2002-02-26 Daimlerchrysler Ag Method and apparatus for classification by detecting road user and obstacle based on camera image and detecting distance to observer
US20100040285A1 (en) * 2008-08-14 2010-02-18 Xerox Corporation System and method for object class localization and semantic class based image segmentation

Also Published As

Publication number Publication date
US20210293963A1 (en) 2021-09-23
CN108271408A (en) 2018-07-10
CN112665556B (en) 2023-09-05
US20160291155A1 (en) 2016-10-06
KR20170132860A (en) 2017-12-04
CN108271408B (en) 2020-12-04
US11725956B2 (en) 2023-08-15
EP3283843B1 (en) 2024-01-10
WO2016161104A1 (en) 2016-10-06
EP4296721A2 (en) 2023-12-27
US20160292905A1 (en) 2016-10-06
EP3283843A1 (en) 2018-02-21
US10024965B2 (en) 2018-07-17
US20210080575A1 (en) 2021-03-18
EP4296721A3 (en) 2024-03-20
EP3283843A4 (en) 2019-02-27
US10444357B2 (en) 2019-10-15
US20220236411A1 (en) 2022-07-28
US11226413B2 (en) 2022-01-18
US20160291154A1 (en) 2016-10-06
US20220137214A1 (en) 2022-05-05
CN112665556A (en) 2021-04-16
EP3283843C0 (en) 2024-01-10
US11604277B2 (en) 2023-03-14
US20230408279A1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
KR102614323B1 (en) Create a 3D map of a scene using passive and active measurements
US20210201507A1 (en) System and Method for Movement Detection
US10345447B1 (en) Dynamic vision sensor to direct lidar scanning
US10491885B1 (en) Post-processing by lidar system guided by camera information
JP2020085886A (en) Vehicle, vehicle positioning system, and method for positioning vehicle
US10708557B1 (en) Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors
US20190266741A1 (en) System and method for object detection using edge characteristics
CN112149460A (en) Obstacle detection method and device
US12125269B2 (en) Sensor fusion
EP3825732A1 (en) Methods and systems for computer-based determining of presence of objects
US20240192377A1 (en) System and method for validation of lidar-generated horizon estimation
US11668830B1 (en) System and method for performing active distance measurements
US20230408656A1 (en) Detecting phantom objects in ranging sensor data
US11914679B2 (en) Multispectral object-detection with thermal imaging
CN215495425U (en) Compound eye camera system and vehicle using compound eye camera system
WO2022217522A1 (en) Target sensing method and device, detection system, movable platform and storage medium
WO2024263834A1 (en) Systems and methods for vehicle navigation
CN115440067A (en) Compound eye imaging system, vehicle using compound eye imaging system, and image processing method thereof

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20171031

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20210331

Comment text: Request for Examination of Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230714

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20231007

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20231212

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20231212

End annual number: 3

Start annual number: 1

PG1601 Publication of registration