KR20210060535A - 동적 공간 시나리오의 분석 - Google Patents
동적 공간 시나리오의 분석 Download PDFInfo
- Publication number
- KR20210060535A KR20210060535A KR1020217010955A KR20217010955A KR20210060535A KR 20210060535 A KR20210060535 A KR 20210060535A KR 1020217010955 A KR1020217010955 A KR 1020217010955A KR 20217010955 A KR20217010955 A KR 20217010955A KR 20210060535 A KR20210060535 A KR 20210060535A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- scenario
- display
- sensor data
- sector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G06K9/469—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Combustion & Propulsion (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Biomedical Technology (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
도 1은 데이터 준비를 위한 본 발명에 따른 시스템 및 인공 신경망을 학습시키기 위한 본 발명에 따른 시스템의 바람직한 실시예를 도시하고 있고;
도 2는 센서 데이터를 분석하기 위한 본 발명에 따른 시스템의 바람직한 실시예를 도시하고 있고;
도 3은 교통 시나리오에서 각 섹터를 결정하는 일례를 도시하고 있고;
도 4는 본 발명에 따른 디스플레이 및 관련 동적 공간 시나리오 사이의 관계를 설명하기 위한 제1 예를 도시하고 있고;
도 5는 본 발명에 따른 디스플레이 및 관련 동적 공간 시나리오 사이의 관계를 설명하기 위한 제2 예를 도시하고 있고;
도 6은 데이터 준비를 위한 본 발명에 따른 방법 및 인공 신경망을 학습시키기 위한 본 발명에 따른 방법의 바람직한 실시예를 도시하고 있고;
도 7은 데이터 평가를 위한 본 발명에 따른 방법의 바람직한 실시예를 도시하고 있다.
2 생성 모듈
3 결정 모듈
4 인터페이스
5 데이터베이스
6 비교 모듈
10 공간 동적 시나리오
11 자기 객체
11a 자기 차량
12 다른 차량
12a 제1 차량
12b 제2 차량
12c 제3 차량
13 윤곽
20 디스플레이
100 데이터 준비를 위한 시스템
200 인공 신경망을 학습시키기 위한 시스템
300 센서 데이터를 분석하기 위한 시스템
Φ 각 섹터
각 섹터의 위치
S 센서 데이터
y 이동 방향
d 거리
a 출력 신호
V1 데이터 준비를 위한 방법
V2 인공 신경망을 학습시키기 위한 방법
V3 센서 데이터를 분석하기 방법
S1-S6 공정단계
Claims (11)
- 인공 신경망(1)으로 처리하기 위한 동적 공간 시나리오(10), 특히 교통 시나리오의 데이터를 준비하기 위한 방법(V1)으로서,
자기 객체(11), 특히 자기 차량(11a)의 관점에서 본 다른 객체(12), 특히 다른 차량(12a, 12b, 12c)이 커버하는 각 섹터(Φ)의 시간 곡선의 디스플레이(20)를 생성하고(S3), 상기 시간 곡선은 센서 데이터(S)로부터 결정되고(S2), 상기 센서 데이터(S)는 자기 객체(11) 및 적어도 하나의 다른 객체(12)에 대한 동적 공간 시나리오(10)를 특징화하는데 적합한 방법(V1). - 제1항에 있어서,
상기 디스플레이는 인공 신경망(1)으로 출력되거나 인공 신경망(1)으로 처리하기 위해 이용할 수 있는 방법(V1). - 자기 객체(11) 및 적어도 하나의 다른 객체(12)에 대한 알려진 동적 공간 시나리오(10)를 특징화하는데 적합한 센서 데이터(S)를 토대로 인공 신경망(1)을 학습시키기 위한 컴퓨터 지원 방법(V2)으로서,
자기 객체(11), 특히 자기 차량(11a)의 관점에서 본 다른 객체(12), 특히 다른 차량(12a, 12b, 12c)이 커버하는 각 섹터(Φ)의 시간 곡선의 디스플레이(20)가 센서 데이터(S)를 토대로 생성되고(S3), 생성된 디스플레이(20)는 공간 시나리오(10)에 대한 정보와 함께 인공 신경망(1)에 제공되는(S4) 방법(V2). - 자기 객체(11) 및 적어도 하나의 다른 객체(12)에 대한 동적 공간 시나리오(10)를 특징화하는데 적합한 센서 데이터(S)를 분석하기 위한 컴퓨터 지원 방법(V3)으로서,
자기 객체(11), 특히 자기 차량(11a)의 관점에서 본 다른 객체(12), 특히 다른 차량(12a, 12b, 12c)이 커버하는 각 섹터(Φ)의 시간 곡선의 디스플레이(20)는 센서 데이터(S)를 토대로 생성되고(S3), 생성된 디스플레이(20)는 알려진 동적 공간 시나리오(10)의 적어도 하나의 미리 정의된 템플릿과 비교되는(S5) 방법(V3). - 제4항에 있어서,
상기 비교를 기반으로 동적 공간 시나리오(10)를 분류하는 방법(V3). - 제4항에 있어서,
생성된 디스플레이(10)가 알려진 동적 공간 시나리오(10)의 적어도 하나의 미리 정의된 템플릿에 할당될 수 없는 경우에 새로운 동적 공간 시나리오(10)에 대한 템플릿이 정의되는(S6) 방법(V3). - 제1항 내지 제6항 중 어느 한 항에 있어서,
생성된 디스플레이(10)가 자기 객체(11)에서 다른 객체(12) 사이의 거리(d) 및/또는 자기 객체(11)의 속도를 나타내고, 상기 거리(d) 및/또는 속도가 센서 데이터(S)로부터 결정되는 방법(V3). - 제1항 내지 제7항 중 어느 한 항에 있어서,
각 섹터(Φ)의 시간 곡선이 라인으로 표시되고, 그 폭은 각각 해당하는 각 섹터(Φ)의 값을 나타내고, 및/또는
자기 객체(11)와 다른 객체(12) 사이의 거리(d) 및/또는 자기 객체(11)의 속도가 거리(d) 및/또는 속도가 존재하는 시점에 해당하는 라인의 위치 각각에 기록된 값 또는 채색을 통해 표시되는, 방법(V3). - 인공 신경망(1)에 의한 처리를 위해 동적 공간 시나리오(10), 특히 교통 시나리오의 데이터를 준비하기 위한 시스템(100)으로서,
- 자기 객체(11), 특히 자기 차량(11a)의 관점에서 본 다른 객체(12), 특히 다른 차량(12a, 12b, 12c)이 커버하는 각 섹터(Φ)의 시간 곡선을 센서 데이터(S)로부터 결정하도록 구성된 결정 모듈(2) - 센서 데이터(S2)는 자기 객체(11) 및 적어도 하나의 다른 객체(12)에 대한 동적 공간 시나리오(10)를 특징화하는데 적합함 -; 및
- 결정된 시간 곡선의 디스플레이(20)를 생성하도록 구성된 생성 모듈(3)을 포함하는, 시스템(100). - 자기 객체(11) 및 적어도 하나의 다른 객체(12)에 대한 알려진 동적 공간 시나리오(10)를 특징화하는데 적합한 센서 데이터(S)를 토대로 인공 신경망(1)을 학습시키기 위한 시스템(200)으로서,
- 자기 객체(11), 특히 자기 차량(11a)의 관점에서 본 다른 객체(12), 특히 다른 차량(12a, 12b, 12c)이 커버하는 각 섹터(Φ)의 시간 곡선의 디스플레이를 센서 데이터(S)를 토대로 생성하도록 구성된 생성 모듈(3);
- 생성된 디스플레이(20)를 공간 시나리오(10)에 대한 정보와 함께 인공 신경망(1)에 제공하도록 구성된 인터페이스(4)를 포함하는, 시스템(200). - 자기 객체(11) 및 적어도 하나의 다른 객체(12)에 대한 동적 공간 시나리오(10)를 특징화하는데 적합한 센서 데이터(S)를 분석하기 위한 시스템(300)으로서,
- 자기 객체(11), 특히 자기 차량(11a)의 관점에서 본 다른 객체(12), 특히 다른 차량(12a, 12b, 12c)이 커버하는 각 섹터(Φ)의 시간 곡선의 디스플레이(20)를 센서 데이터(S)를 토대로 생성하도록 구성된 생성 모듈(3); 및
- 생성된 디스플레이(20)를 알려진 동적 공간 시나리오(10)의 적어도 하나의 미리 정의된 템플릿과 비교하도록 구성된 비교 모듈(6)을 포함하는, 시스템(300).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA50788/2018A AT521647B1 (de) | 2018-09-14 | 2018-09-14 | Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten |
ATA50788/2018 | 2018-09-14 | ||
PCT/AT2019/060301 WO2020051618A1 (de) | 2018-09-14 | 2019-09-13 | Analyse dynamisscher räumlicher szenarien |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210060535A true KR20210060535A (ko) | 2021-05-26 |
Family
ID=68062777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217010955A Ceased KR20210060535A (ko) | 2018-09-14 | 2019-09-13 | 동적 공간 시나리오의 분석 |
Country Status (7)
Country | Link |
---|---|
US (1) | US12243323B2 (ko) |
EP (1) | EP3850536A1 (ko) |
JP (1) | JP7511544B2 (ko) |
KR (1) | KR20210060535A (ko) |
CN (1) | CN112673379B (ko) |
AT (1) | AT521647B1 (ko) |
WO (1) | WO2020051618A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200046136A (ko) * | 2018-10-10 | 2020-05-07 | 현대자동차주식회사 | 근거리 끼어들기 차량 판단 장치 및 그의 판단 방법과 그를 이용하는 차량 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021100395A1 (de) * | 2021-01-12 | 2022-07-14 | Dspace Gmbh | Computerimplementiertes Verfahren zur Bestimmung von Ähnlichkeitswerten von Verkehrsszenarien |
EP4424565A4 (en) * | 2021-11-19 | 2024-11-27 | Huawei Technologies Co., Ltd. | METHOD AND APPARATUS FOR PROCESSING INFORMATION |
DE102022126747A1 (de) | 2022-10-13 | 2024-04-18 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zu einer Generierung von Szenariomodellen bei autonomen Fahrvorgängen |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3153839B2 (ja) | 1993-08-23 | 2001-04-09 | 三菱電機株式会社 | 車両用予防安全装置 |
JP3252680B2 (ja) | 1995-11-24 | 2002-02-04 | トヨタ自動車株式会社 | 車載用走査レーダ装置 |
JPH10338057A (ja) | 1997-06-10 | 1998-12-22 | Hitachi Ltd | 自動車の自動走行制御装置および車間距離警報装置 |
DE10141037C1 (de) | 2001-08-20 | 2003-04-03 | Siemens Ag | Vorrichtung zur Erkennung eines Hindernisses |
DE102010001313A1 (de) * | 2009-02-03 | 2010-11-18 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zum Durchführen eines Ausweichmanövers |
JP5267588B2 (ja) | 2010-03-26 | 2013-08-21 | 株式会社デンソー | 区画線検出装置および区画線検出方法 |
CN103530605B (zh) * | 2013-09-29 | 2017-01-25 | 数基科技(北京)有限公司 | 一种鲁棒的异常行为检测方法 |
DE102014213359A1 (de) * | 2014-07-09 | 2016-01-14 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur akustischen Untersuchung von Umgebungsobjekten eines Fortbewegungsmittels |
SE1551370A1 (sv) | 2015-10-22 | 2017-02-07 | Uniquesec Ab | Testing method with virtual radar signatures for an automotive safety radar system |
US11144761B2 (en) * | 2016-04-04 | 2021-10-12 | Xerox Corporation | Deep data association for online multi-class multi-object tracking |
US10664750B2 (en) * | 2016-08-10 | 2020-05-26 | Google Llc | Deep machine learning to predict and prevent adverse conditions at structural assets |
US10332274B2 (en) * | 2016-11-14 | 2019-06-25 | Nec Corporation | Surveillance system using accurate object proposals by tracking detections |
JP7069539B2 (ja) | 2016-12-07 | 2022-05-18 | スズキ株式会社 | 運転支援装置 |
KR20180068511A (ko) * | 2016-12-14 | 2018-06-22 | 삼성전자주식회사 | 영상에 포함된 도로와 관련된 정보를 결정하는 뉴럴 네트워크를 학습시키는 학습 데이터를 생성하는 장치 및 방법 |
US10228693B2 (en) * | 2017-01-13 | 2019-03-12 | Ford Global Technologies, Llc | Generating simulated sensor data for training and validation of detection models |
US10402163B2 (en) * | 2017-02-14 | 2019-09-03 | Accenture Global Solutions Limited | Intelligent data extraction |
WO2019241022A1 (en) * | 2018-06-13 | 2019-12-19 | Nvidia Corporation | Path detection for autonomous machines using deep neural networks |
-
2018
- 2018-09-14 AT ATA50788/2018A patent/AT521647B1/de active
-
2019
- 2019-09-13 KR KR1020217010955A patent/KR20210060535A/ko not_active Ceased
- 2019-09-13 US US17/275,810 patent/US12243323B2/en active Active
- 2019-09-13 WO PCT/AT2019/060301 patent/WO2020051618A1/de unknown
- 2019-09-13 JP JP2021514045A patent/JP7511544B2/ja active Active
- 2019-09-13 EP EP19773727.3A patent/EP3850536A1/de active Pending
- 2019-09-13 CN CN201980060057.1A patent/CN112673379B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200046136A (ko) * | 2018-10-10 | 2020-05-07 | 현대자동차주식회사 | 근거리 끼어들기 차량 판단 장치 및 그의 판단 방법과 그를 이용하는 차량 |
Also Published As
Publication number | Publication date |
---|---|
WO2020051618A1 (de) | 2020-03-19 |
EP3850536A1 (de) | 2021-07-21 |
JP2022500762A (ja) | 2022-01-04 |
JP7511544B2 (ja) | 2024-07-05 |
CN112673379B (zh) | 2025-01-03 |
AT521647B1 (de) | 2020-09-15 |
AT521647A1 (de) | 2020-03-15 |
US12243323B2 (en) | 2025-03-04 |
US20220237889A1 (en) | 2022-07-28 |
CN112673379A (zh) | 2021-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nidamanuri et al. | A progressive review: Emerging technologies for ADAS driven solutions | |
US10915793B2 (en) | Method and system for converting point cloud data for use with 2D convolutional neural networks | |
US9767368B2 (en) | Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system | |
Schneemann et al. | Context-based detection of pedestrian crossing intention for autonomous driving in urban environments | |
KR20210060535A (ko) | 동적 공간 시나리오의 분석 | |
CN110832497B (zh) | 用于自治系统的对象过滤和统一表示形式的系统和方法 | |
US8718329B2 (en) | Top-down view classification in clear path detection | |
CN111595357B (zh) | 可视化界面的显示方法、装置、电子设备和存储介质 | |
US9352746B2 (en) | Lane relative position estimation method and system for driver assistance systems | |
US20180141561A1 (en) | Method and Apparatus for Detecting and Assessing Road Reflections | |
CN111971725A (zh) | 用于确定车辆的变道说明的方法、计算机可读存储介质以及车辆 | |
KR20180047149A (ko) | 충돌 위험 경고 장치 및 방법 | |
CN111178286B (zh) | 姿态轨迹预测方法、装置及电子设备 | |
EP4145398A1 (en) | Systems and methods for vehicle camera obstruction detection | |
Kühnl et al. | Visual ego-vehicle lane assignment using spatial ray features | |
Yun et al. | Video-based detection and analysis of driver distraction and inattention | |
CN117480082A (zh) | 利用对象的相关性评估自主车辆感知系统的性能 | |
Kadhim et al. | Detect Lane Line for Self-Driving Car Using Hue Saturation Lightness and Hue Saturation Value Color Transformation. | |
CN113435238A (zh) | 依据关于特征的附加信息对神经分类器网络的输出的合理性检查 | |
Liu | Development of a vision-based object detection and recognition system for intelligent vehicle | |
Lin et al. | Understanding Vehicle Interaction in Driving Video with Spatial-temporal Deep Learning Network | |
KR102225387B1 (ko) | 라이다 데이터 기반의 차량 주행상태 판단이 가능한 영상 관제 장치 및 방법 | |
CN118587244B (zh) | 车辆轨迹预测方法、装置、电子设备及存储介质 | |
US20220382284A1 (en) | Perception system for assessing relevance of objects in an environment of an autonomous vehicle | |
Fu | 3D Object Detection with Depth Completion for Autonomous Driving via Camera and LIDAR Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20210413 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PG1501 | Laying open of application | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220715 Comment text: Request for Examination of Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20250120 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20250402 Comment text: Decision to Refuse Application Patent event code: PE06012S01D |