KR20200059110A - 파지 로봇 및 목표 물체 파지를 위한 주변 물체 분리 방법 - Google Patents
파지 로봇 및 목표 물체 파지를 위한 주변 물체 분리 방법 Download PDFInfo
- Publication number
- KR20200059110A KR20200059110A KR1020190015124A KR20190015124A KR20200059110A KR 20200059110 A KR20200059110 A KR 20200059110A KR 1020190015124 A KR1020190015124 A KR 1020190015124A KR 20190015124 A KR20190015124 A KR 20190015124A KR 20200059110 A KR20200059110 A KR 20200059110A
- Authority
- KR
- South Korea
- Prior art keywords
- target object
- boundary surface
- nonlinear
- area
- separating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000000926 separation method Methods 0.000 claims abstract description 54
- 230000002093 peripheral effect Effects 0.000 claims abstract description 44
- 239000012636 effector Substances 0.000 claims abstract description 31
- 238000003709 image segmentation Methods 0.000 claims abstract description 3
- 230000000694 effects Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Abstract
Description
도 2는 제1 및 제2이미지를 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 목표 물체 파지를 위한 주변 물체 분리 방법을 설명하기 위한 도면이다.
도 4는 팽창된 목표 물체 영역을 설명하기 위한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 목표 물체 파지를 위한 주변 물체 분리 방법을 설명하기 위한 도면이다.
도 6은 비선형 경계면 및 배경 영역 경계면을 설명하기 위한 도면이다.
도 7은 비순환 구조인 비선형 경계면을 나타내는 도면이다.
도 8은 본 발명의 또 다른 실시예에 따른 목표 물체 파지를 위한 주변 물체 분리 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일실시예에 따른 파지 로봇이 분리 동작을 수행하는 환경의 일예를 도시하는 도면이다.
Claims (15)
- 목표 물체 및 주변 물체에 대한 제1이미지를 생성하는 카메라;
제1이미지가 목표 물체 영역, 주변 물체 영역 및 배경 영역으로 분할된 제2이미지를 생성하는 이미지 분할부;
상기 제2이미지를 이용하여, 엔드 이펙터의 상기 목표 물체에 대한 파지 동작 또는 상기 목표 물체로부터 상기 주변 물체를 분리하는 분리 동작을 결정하는 동작 결정부; 및
상기 분리 동작을 위한 상기 엔드 이펙터의 비선형 밀기 궤적을 생성하는 분리 동작 제어부
를 포함하는 파지 로봇.
- 제 1항에 있어서,
상기 동작 결정부는
상기 목표 물체 영역을 미리 설정된 넓이만큼 팽창시키는 영상 처리부; 및
상기 팽창된 목표 물체 영역이 상기 주변 물체 영역과 오버랩되는 경우, 상기 엔드 이펙터의 분리 동작을 선택하는 선택부
를 포함하는 파지 로봇.
- 제 1항에 있어서,
상기 분리 동작 제어부는
상기 제2이미지에 대해, 상기 목표 물체 영역 및 상기 주변 물체 영역을 구분하는 비선형 경계면을 생성하는 경계면 생성부;
상기 비선형 경계면 중 배경 영역에 포함되는 배경 영역 경계면을, 상기 배경 영역 경계면에 포함되는 픽셀의 연결성에 따라 복수의 세그먼트로 분할하는 세그먼트 생성부; 및
상기 비선형 경계면에서, 최장 세그먼트를 제외한 나머지 경계면을 상기 비선형 밀기 궤적으로 결정하는 밀기 궤적 생성부
를 포함하는 파지 로봇.
- 제 1항에 있어서,
상기 분리 동작 제어부는
상기 제2이미지에 대해, 상기 목표 물체 영역 및 상기 주변 물체 영역을 구분하는 비선형 경계면을 생성하는 경계면 생성부;
상기 비선형 경계면 중 배경 영역에 포함되는 배경 영역 경계면을, 상기 배경 영역 경계면에 포함되는 픽셀의 연결성에 따라 복수의 세그먼트로 분할하는 세그먼트 생성부; 및
상기 비선형 경계면에서, 상기 제2이미지의 외곽 경계선에 접촉되는 세그먼트를 제외한 나머지 경계면을 상기 비선형 밀기 궤적으로 결정하는 밀기 궤적 생성부
를 포함하는 파지 로봇.
- 목표 물체 및 주변 물체를 포함하는 제1이미지가, 목표 물체 영역, 주변 물체 영역 및 배경 영역으로 분할된 제2이미지를 입력받는 단계;
상기 목표 물체 영역을 미리 설정된 넓이만큼 팽창시키는 단계; 및
팽창된 목표 물체 영역과 상기 주변 물체 영역이 오버랩되는지에 따라서, 엔드 이펙터의 상기 목표 물체에 대한 파지 동작 또는 상기 목표 물체로부터 상기 주변 물체를 분리하는 분리 동작을 결정하는 단계
를 포함하는 목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 5항에 있어서,
상기 팽창되는 넓이는
상기 엔드 이펙터의 굵기 또는 상기 목표 물체의 크기에 따라서 결정되는
목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 5항에 있어서,
상기 분리 동작을 결정하는 단계는
팽창된 목표 물체 영역과 상기 주변 물체 영역이 오버랩되는 경우, 상기 엔드 이펙터의 분리 동작을 결정하는
목표 물체 파지를 위한 주변 물체 분리 방법.
- 목표 물체 및 주변 물체를 포함하는 제1이미지가, 목표 물체 영역, 주변 물체 영역 및 배경 영역으로 분할된 제2이미지에 대해, 상기 목표 물체 영역 및 상기 주변 물체 영역을 구분하는 비선형 경계면을 생성하는 단계;
상기 비선형 경계면 중에서, 배경 영역에 포함되는 배경 영역 경계면을 선택하는 단계;
상기 비선형 경계면 및 배경 영역 경계면을 이용하여, 상기 목표 물체로부터 상기 주변 물체를 분리하는 엔드 이펙터의 분리 동작을 위한 비선형 밀기 궤적을 생성하는 단계
를 포함하는 목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 8항에 있어서,
상기 비선형 밀기 궤적을 생성하는 단계는
상기 배경 영역 경계면에 포함되는 픽셀의 연결성에 따라서, 상기 배경 영역 경계면을 복수의 세그먼트로 분할하는 단계; 및
상기 비선형 경계면에서, 최장 세그먼트를 제외한 나머지 경계면을 상기 비선형 밀기 궤적으로 결정하는 단계
를 포함하는 목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 8항에 있어서,
상기 비선형 밀기 궤적을 생성하는 단계는
상기 배경 영역 경계면에 포함되는 픽셀의 연결성에 따라서, 상기 배경 영역 경계면을 복수의 세그먼트로 분할하는 단계; 및
상기 비선형 경계면에서, 상기 제2이미지의 외곽 경계선에 접촉되는 세그먼트를 제외한 나머지 경계면을 상기 비선형 밀기 궤적으로 결정하는 단계
를 포함하는 목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 8항에 있어서,
상기 비선형 밀기 궤적을 생성하는 단계는
상기 비선형 경계면에서, 상기 배경 영역 경계면을 제외한 나머지 경계면을 상기 비선형 밀기 궤적으로 결정하는
목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 8항에 있어서,
상기 비선형 밀기 궤적을 생성하는 단계는
상기 배경 영역 경계면에 포함되는 픽셀의 연결성에 따라서, 상기 배경 영역 경계면을 복수의 세그먼트로 분할하는 단계; 및
상기 세그먼트 중 최장 세그먼트에 포함된 픽셀수가 임계값보다 클 경우, 상기 비선형 밀기 궤적을 생성하는 단계
를 포함하는 목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 12항에 있어서,
상기 세그먼트 중 최장 세그먼트에 포함된 픽셀수가 임계값 이하인 경우, 상기 목표 물체로부터 상기 주변 물체를 분리하는 엔드 이펙터의 분리 동작을 위한 선형 밀기 궤적을 생성하는 단계
를 더 포함하는 목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 13항에 있어서,
상기 선형 밀기 궤적을 생성하는 단계는
상기 주변 물체 영역 중 최대 주변 물체에 대한 주변 물체 영역과 상기 목표 물체 영역을 구분하는 선형 경계면을 생성하는 단계; 및
상기 선형 경계면을 이용하여, 상기 선형 밀기 궤적을 생성하는 단계
를 포함하는 목표 물체 파지를 위한 주변 물체 분리 방법.
- 제 8항에 있어서,
상기 비선형 경계면을 생성하는 단계는
상기 목표 물체 영역을 미리 설정된 넓이만큼 팽창시키는 단계; 및
상기 팽창된 목표 물체 영역 및 상기 주변 물체 영역을 구분하는 비선형 경계면을 생성하는 단계
를 포함하는 목표 물체 파지를 위한 주변 물체 분리 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180143248 | 2018-11-20 | ||
KR20180143248 | 2018-11-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200059110A true KR20200059110A (ko) | 2020-05-28 |
KR102270958B1 KR102270958B1 (ko) | 2021-06-30 |
Family
ID=70920037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190015124A Active KR102270958B1 (ko) | 2018-11-20 | 2019-02-08 | 파지 로봇 및 목표 물체 파지를 위한 주변 물체 분리 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102270958B1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112605983A (zh) * | 2020-12-01 | 2021-04-06 | 浙江工业大学 | 一种适用于密集环境下的机械臂推抓系统 |
CN114952841A (zh) * | 2022-05-26 | 2022-08-30 | 上海交通大学 | 一种沙土掩埋情况下推拨抓取方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11300670A (ja) * | 1998-04-21 | 1999-11-02 | Fanuc Ltd | 物品ピックアップ装置 |
JP2018008343A (ja) * | 2016-07-13 | 2018-01-18 | 富士通株式会社 | 部品ピックアップ方法及び部品供給装置 |
JP2018176334A (ja) * | 2017-04-10 | 2018-11-15 | キヤノン株式会社 | 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法 |
-
2019
- 2019-02-08 KR KR1020190015124A patent/KR102270958B1/ko active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11300670A (ja) * | 1998-04-21 | 1999-11-02 | Fanuc Ltd | 物品ピックアップ装置 |
JP2018008343A (ja) * | 2016-07-13 | 2018-01-18 | 富士通株式会社 | 部品ピックアップ方法及び部品供給装置 |
JP2018176334A (ja) * | 2017-04-10 | 2018-11-15 | キヤノン株式会社 | 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法 |
Non-Patent Citations (1)
Title |
---|
원종순, "손쉬운 로봇 파지를 위한 영상 공간에서의 산개 동작 경로 계획", 한양대학교 대학원 지능형 로봇학과, 석사학위논문(2018.08.)* * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112605983A (zh) * | 2020-12-01 | 2021-04-06 | 浙江工业大学 | 一种适用于密集环境下的机械臂推抓系统 |
CN112605983B (zh) * | 2020-12-01 | 2022-04-19 | 浙江工业大学 | 一种适用于密集环境下的机械臂推抓系统 |
CN114952841A (zh) * | 2022-05-26 | 2022-08-30 | 上海交通大学 | 一种沙土掩埋情况下推拨抓取方法及装置 |
CN114952841B (zh) * | 2022-05-26 | 2025-06-24 | 上海交通大学 | 一种沙土掩埋情况下推拨抓取方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR102270958B1 (ko) | 2021-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | A deep learning approach to grasping the invisible | |
Misra et al. | Mapping instructions and visual observations to actions with reinforcement learning | |
Li et al. | Learning of grasp adaptation through experience and tactile sensing | |
EP3035246A2 (en) | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image | |
KR20190119863A (ko) | 반 지도 학습과 여러 개의 멀티 모달 네트워크를 이용한 비디오 기반 인물 감정 인식 기법 | |
JP6835218B2 (ja) | 群衆状態認識装置、学習方法および学習プログラム | |
JP6340957B2 (ja) | 物体検出装置および物体検出プログラム | |
KR102270958B1 (ko) | 파지 로봇 및 목표 물체 파지를 위한 주변 물체 분리 방법 | |
Alliegro et al. | End-to-end learning to grasp via sampling from object point clouds | |
US20210334599A1 (en) | Training a deep neural network model to generate rich object-centric embeddings of robotic vision data | |
KR20220059194A (ko) | 대상 객체에 적응적인 객체 추적 방법 및 장치 | |
JP2021066011A5 (ko) | ||
JP6208018B2 (ja) | 画像認識アルゴリズム組合せ選択装置 | |
Motoda et al. | Bimanual shelf picking planner based on collapse prediction | |
Huu et al. | Proposing recognition algorithms for hand gestures based on machine learning model | |
CN111164645A (zh) | 图像分割方法及装置 | |
KR101014852B1 (ko) | 인공지능 기반의 캐릭터 동작생성 장치, 방법 및 그 기록 매체 | |
US9443168B1 (en) | Object detection approach using an ensemble strong classifier | |
KR102085427B1 (ko) | 딥러닝 생성 모델을 이용한 사용자 정보 삭제 방법 및 장치 | |
Wang et al. | Exploring causalworld: Enhancing robotic manipulation via knowledge transfer and curriculum learning | |
Ogawara et al. | Recognition of human task by attention point analysis | |
JP2016221660A (ja) | 判定方法、判定プログラム及び判定装置 | |
KR101329642B1 (ko) | 작업 솜씨 학습을 위한 모델링 방법 및 이를 이용한 로봇 | |
KR20220081782A (ko) | 뉴럴 네트워크를 이용하는 데이터 처리 방법, 데이터 처리 장치 및 이를 포함한 전자 장치 | |
Mohammed et al. | Color matching based approach for robotic grasping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190208 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200313 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200928 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210406 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210624 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210624 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240627 Start annual number: 4 End annual number: 4 |